Large Language Models (LLMs) zijn in staat om tekst te ‘begrijpen’ en te genereren. Je kunt deze technologie gebruiken om antwoorden op vragen te voorspellen, creatief te schrijven (zoals titels, blogposts), tekst te vertalen of samenvattingen van tekst te genereren of om code te genereren en te vertalen. Heel handig, zo lijkt het.
Maar er is ook een keerzijde aan dit soort handigheidjes. Sinds de komst van ChatGPT4 in 2022 besloot Microsoft om miljoenen API’s (tools die alles kunnen doen, van het bestellen van een pizza tot het oplossen van natuurkundige vergelijkingen tot het bedienen van de tv in je woonkamer) samen te voegen tot één compendium dat toegankelijk zou worden gemaakt voor grote deze taalmodellen.
Volgens velen brengt dit soort gereedschap (ook) enorme risico’s met zich mee. Stel je voor dat een LLM iemands telefoonnummer kan vinden, ze kan bellen en stiekem hun stem kan opnemen, ‘raden’ welke bank ze gebruiken op basis van de grootste providers in hun regio, zich voordoen als een telefoongesprek met de klantenservice om hun wachtwoord opnieuw in te stellen en hun account te liquideren om een donatie te doen aan een politieke partij. Elk van deze taken genereert vervolgens een zoekopdracht op het internet, een spraaksynthesizer, een bank-app en het LLM script genereert vervolgens met behulp van deze tools de data. Vervolgens stopt het LLM de gevonden data in zijn database waarbij het wordt gebruikt om AI te trainen en zo beschikbaar te stellen voor andere gebruikers of opdrachten (prompts)…