OpenAI publiceert risico-analyze
O

AI-modellen hebben het potentieel om de mensheid ten goede te komen, maar brengen ook steeds ernstigere risico’s met zich mee. Naarmate AI-modellen zich blijven ontwikkelen en/ of verbeteren, ontwikkelde OpenAI een zgn. Risk-Informed Development Policy (RDP), waarin het bedrijf omgaat me de (risicovolle) ontwikkeling van nieuwe LLM modellen.

Volgens dat uitgebreide rapport wordt ondermeer elk nieuw LLM model dat wordt uitgebracht getest op veiligheid, daarbij gebruik makend van zgn. red-teams. Deze teams testen het model op potentieële risico’s, zoals: (1) hulp bij de ontwikkeling van nucleaire, radiologische, biologische en chemische wapens (CBRN), (2) toename van cyberrisico’s, (3) risico’s die voortvloeien uit het gebruik van API’s en andere tools, en (4) zelfreplicatiemogelijkheden.
OpenAI Red Team Netwerk

OpenAI is van mening dat transparantie is een belangrijk element bij het bouwen van AI-systemen. Een onderdeel daarvan is het gebruik van een zgn. ‘systeemkaart’ voor nieuwe AI-systemen. Deze kaarten zijn bedoeld om alle betrokkenen te informeren over de factoren die van invloed zijn op het gedrag van het systeem.
OpenAI RDP [en]

Trending in deze nieuwscategorie

LAATSTE NIEUWS

Gezond opgroeien met media

Het omgaan met media in een huishouden met jonge kinderen vereist geduld, tact en improvisatievermogen van ouders. Vragen over het gebruik van schermen en...