2025 zal een keerpunt zal zijn voor generatieve AI, met nog meer betaalbare AI-apps. Momenteel wordt de ontwikkeling van generatieve AI gedomineerd door een dure AI-wedloop tussen techreuzen zoals OpenAI en Google, die enorme bedragen investeren in het trainen van complexe taalmodellen (LLM’s). Voor de meeste ontwikkelaars zijn deze echter te duur om hun apps te ontwikkelen.
De hoge kosten van zgn. ‘inferentie’ – het proces waarbij AI afwijkende antwoorden genereert op prompts – vormen een grote belemmering voor de ontwikkeling van AI-apps door:
- Het aanpakken van interferentie vereist vaak extra training en debugging van het AI-model, wat de ontwikkelingskosten en -tijd kan verhogen.
- Het is vaak nodig om de trainingsdata zorgvuldig voor te bereiden en te beheren, wat extra organisatie en (dus) kosten met zich meebrengt.
- Als een AI-app wordt getraind met bevooroordeelde data, dan kan interferentie leiden tot het versterken van deze vooroordelen in de antwoorden en beslissingen van de app. Dit kan leiden tot discriminatie en oneerlijke behandeling.
- Interferentie kan het moeilijk maken om te begrijpen hoe een AI-app tot een bepaalde beslissing komt. Dit gebrek aan transparantie kan leiden tot wantrouwen en bezorgdheid over de ethische implicaties van de app.
Er is echter hoop. De inferentie daalt snel dankzij nieuwe algoritmen, technologieën en goedkopere chips. Dit opent de deur voor een nieuw soort LLM-bedrijven die zich richten op het bouwen van lichtere, snellere en goedkopere modellen die ‘goed genoeg’ zijn voor de meeste toepassingen.
Neem als voorbeeld Rhymes.ai. Deze startup heeft een model getraind dat bijna net zo goed presteert als GPT-4, maar dan wel voor een fractie van de kosten. Door model, inferentie en applicatie-ontwikkeling te integreren, hebben ze een AI-zoek-app gebouwd met minimale middelen.
Deze trend zal leiden tot een bloeiend AI-ecosysteem met een breed scala aan betaalbare en toegankelijke AI-apps, die de manier waarop we leven en werken zeker zullen doen veranderen.