Stagneert AI in ontwikkeling?
S

Er zijn deskundigen die sterk geloven in de ‘schaalwetten’ van grote taalmodellen (LLM’s). Deze wetten suggereren dat het vergroten van het model en zijn trainingsdata leidt tot betere AI-prestaties. Sommigen weerleggen de kritiek dat de vooruitgang van LLM’s is gestagneerd sinds GPT-4 en stellen dat de ongeremde groei doorgaat, maar dat het tijd kost om supercomputers te bouwen en modellen te trainen.

Sommige critici, zoals Gary Marcus en Edward Zitron, beweren dat recente modellen zoals Google’s Gemini 1.5 Pro en Anthropic’s Claude 3 Opus geen dramatische verbeteringen laten zien ten opzichte van eerdere generaties. Zij suggereren dat de ontwikkeling van LLM’s mogelijk steeds minder meeropbrengsten bereiken.

Microsoft investeert nog steeds in grotere AI-modellen, hopend op verdere doorbraken. Voornaamste reden daarvan is dat de techreus aanzienlijke belangen heeft bij het behouden van het beeld van voortdurende vooruitgang, gezien hun investering in OpenAI en de marketing van Microsoft Copilot.

Het idee van de vertraging in vooruitgang ligt mogelijk aan de snelle opkomst van AI bij het grote publiek, terwijl LLM’s feitelijk al jaren in ontwikkelling zijn. Het lijkt erop dat deze vooruitgang van AI nu meer gaat afhangen van de snelheid waarmee een LLM tot het uiteindelijke resultaat komt, vooral op gebieden waar huidige modellen daar tekort in schieten.

Deskundigen voorspellen dat AI goedkoper in staat gaat zijn tot complexere taken, doordat het niet het een ‘beter’ algoritme is, maar door de steeds snellere (kwantum)servers waarmee taalmodellen real time data verzamelen, verwerken en uiteindelijk ons het antwoord op onze vraag voorschotelt.

Repair Nieuws

LAATSTE NIEUWS

Valse QR-codes op parkeerautomaten

Oplichters plakken valse QR-codes op parkeerautomaten in diverse steden in Nederland en België. Deze codes leiden naar nagemaakte websites die sterk lijken op die...