Waarom OpenAI dat heeft laten onderzoeken, baart experten toch enigszins zorgen.
Tijdens de lancering van GPT 4 hamerde OpenAI op de verbeterde veiligheid van het systeem. Het bedrijf maakte zich sterk dat de nieuwe versie tot veertig procent meer feitelijk juist antwoorden zou geven, en tot tachtig procent minder geneigd is om antwoorden te geven die niet overeenstemmen met de ethische principes.
In een onderzoekpaper deelt OpenAI hoe het tot die cijfers is gekomen. Een poging om alle bezorgdheid over de veiligheid van het AI-model weg te nemen, heeft juist een averechts effect. Want wie het document grondig leest, blijft met meer vragen dan antwoorden achter over de onschuld van GPT 4.
Het onderzoek | GPT-4 | ITDaily