De Europese Unie heeft het conceptdocument gepubliceerd met een gedragscode voor bedrijven die grote algemene AI-modellen ontwikkelen. Deze richtlijnen zijn bedoeld om risico’s te beheersen, naleving te garanderen en bedrijven te helpen hoge boetes te voorkomen. De huidige tekst is een eerste versie; de definitieve regelgeving wordt verwacht in het voorjaar van 2025.
Focus op vier kerngebieden
Het document vormt de eerste poging om specifieke gedragscodes vast te stellen voor ontwikkelaars van geavanceerde AI-modellen die getraind worden met een rekenkracht van meer dan 10²⁵ FLOP’s. Bedrijven zoals OpenAI, Google, Meta, Anthropic en Mistral vallen waarschijnlijk onder deze richtlijnen. De gedragscode bouwt voort op de Europese AI Act, die op 1 augustus 2024 in werking trad, en biedt gedetailleerde invulling aan de regels voor Generatieve en Algemene AI (GPAI).
De gedragscode richt zich op vier kerngebieden:
- Transparantie: Bedrijven moeten inzicht geven in de werking van hun modellen, waaronder details over webcrawlers en datasets.
- Naleving van auteursrechten: Het gebruik van bronmateriaal voor trainingsdoeleinden moet duidelijk worden vermeld en voldoen aan wettelijke eisen.
- Risicobeoordeling: Er moeten procedures zijn om risico’s zoals cybercriminaliteit, discriminatie en verlies van controle over AI-systemen te identificeren en te mitigeren.
- Technische risicobeheersing: Dit omvat maatregelen zoals failsafe toegangssystemen, bescherming van modelgegevens en protocollen voor veilig gebruik.
Hoge boetes bij overtredingen
Bij niet-naleving riskeren bedrijven boetes tot 35 miljoen euro of zeven procent van hun wereldwijde jaaromzet. Bedrijven kunnen tot 28 november 2024 feedback geven op het concept. Na verdere verfijning wordt het definitieve document in mei 2025 gepresenteerd. De EU benadrukt dat de gedragscode een cruciale stap is om AI-technologie veiliger en verantwoordelijker te maken.