AI-modellen hebben het potentieel om de mensheid ten goede te komen, maar brengen ook steeds ernstigere risico’s met zich mee. Naarmate AI-modellen zich blijven ontwikkelen en/ of verbeteren, ontwikkelde OpenAI een zgn. Risk-Informed Development Policy (RDP), waarin het bedrijf omgaat me de (risicovolle) ontwikkeling van nieuwe LLM modellen.
Volgens dat uitgebreide rapport wordt ondermeer elk nieuw LLM model dat wordt uitgebracht getest op veiligheid, daarbij gebruik makend van zgn. red-teams. Deze teams testen het model op potentieรซle risico’s, zoals: (1) hulp bij de ontwikkeling van nucleaire, radiologische, biologische en chemische wapens (CBRN), (2) toename van cyberrisico’s, (3) risico’s die voortvloeien uit het gebruik van API’s en andere tools, en (4) zelfreplicatiemogelijkheden.
OpenAI Red Team Netwerk
OpenAI is van mening dat transparantie is een belangrijk element bij het bouwen van AI-systemen. Een onderdeel daarvan is het gebruik van een zgn. ‘systeemkaart’ voor nieuwe AI-systemen. Deze kaarten zijn bedoeld om alle betrokkenen te informeren over de factoren die van invloed zijn op het gedrag van het systeem.
OpenAI RDP [en]