Microsoft ontwikkelt momenteel de MAI-1, een nieuw Language Learning Model (LLM), bedoeld om de concurrentie aan te gaan met LLM’s van andere grote spelers zoals Google, Meta, Anthropic en OpenAI.
Het taalmodel is gebouwd op kennis van voormalige medewerkers van AI-startup Inflection AI, en wordt geschat op een omvang van ongeveer 500 miljard parameters, wat aanzienlijk groter is dan eerdere modellen zoals de Phi-familie van Microsoft. Ter vergelijking: GPT-4 van OpenAI zou maar liefst 1,8 biljoen parameters hebben, terwijl kleinere open-source-modellen van bedrijven als Mistral en Meta goed zijn voor zo’n 70 miljard parameters.
Hoewel niet direct afkomstig van Inflection, gebruikt de MAI-1 mogelijk wel dezelfde training-datasets en delen van de technologie. Deze nieuwe LLM vergt meer rekenkracht voor training, wat resulteert in hogere kosten in vergelijking met eerdere modellen. De MAI-1 wordt ontwikkeld om te concurreren met LLM’s zoals Gemini, Llama 3, Claude 3 en met name OpenAI’s GPT-4, waar Microsoft een belangrijke rol in speelt.
Terwijl eerdere modellen van Microsoft, zoals de Phi-taalmodellen, gericht waren op kleinere bedrijven, is de MAI-1 bedoeld voor meer geavanceerde AI-toepassingen en oplossingen, zoals voor ondernemers die de impact van AI op hun bedrijfsvoering willen begrijpen en willen leren hoe ze AI kunnen integreren in hun organisaties.