OpenAI publiceert risico-analyze
O

AI-modellen hebben het potentieel om de mensheid ten goede te komen, maar brengen ook steeds ernstigere risico’s met zich mee. Naarmate AI-modellen zich blijven ontwikkelen en/ of verbeteren, ontwikkelde OpenAI een zgn. Risk-Informed Development Policy (RDP), waarin het bedrijf omgaat me de (risicovolle) ontwikkeling van nieuwe LLM modellen.

Volgens dat uitgebreide rapport wordt ondermeer elk nieuw LLM model dat wordt uitgebracht getest op veiligheid, daarbij gebruik makend van zgn. red-teams. Deze teams testen het model op potentieรซle risico’s, zoals: (1) hulp bij de ontwikkeling van nucleaire, radiologische, biologische en chemische wapens (CBRN), (2) toename van cyberrisico’s, (3) risico’s die voortvloeien uit het gebruik van API’s en andere tools, en (4) zelfreplicatiemogelijkheden.
OpenAI Red Team Netwerk

OpenAI is van mening dat transparantie is een belangrijk element bij het bouwen van AI-systemen. Een onderdeel daarvan is het gebruik van een zgn. ‘systeemkaart’ voor nieuwe AI-systemen. Deze kaarten zijn bedoeld om alle betrokkenen te informeren over de factoren die van invloed zijn op het gedrag van het systeem.
OpenAI RDP [en]

Trending in deze nieuwscategorie

LAATSTE NIEUWS

Ontwikkeling kweekvlees stagneert

Sinds mei 2024 wordt kweekvlees (kip) voor het eerst in de detailhandel verkocht bij Huber's Butchery in Singapore. Hoewel dit een doorbraak lijkt, is...