Microsoft introduceert compacte, naar indrukwekkende Phi-4-taalmodellen

Phi-4-reasoning, -reasoning-plus en -mini-reasoning combineren een relatief kleine omvang met krachtig redeneervermogen, laat Microsoft weten. Zo telt Phi-4-reasoning 14 miljard parameters, maar presteert het volgens Microsoft op het niveau van veel grotere modellen. Phi-4-reasoning-plus is een verfijnde versie met betere nauwkeurigheid dankzij reinforcement learning en ondersteuning voor langere contexten. De keerzijde: meer rekenkracht en verwerkingstijd.
Phi-4 voor wiskundige taken
Voor lichtere hardware is er Phi-4-mini-reasoning, met 3,8 miljard parameters. Dit model is gericht op wiskundige toepassingen en educatie, en is getraind op synthetische opgaven die variëren van middelbare school tot doctoraatsniveau. Het is daarmee bijzonder geschikt voor gebruik op smartphones of in leeromgevingen. Enkele dagen geleden introduceerde concurrent DeepSeek nog Prover-2, dat eveneens op wiskundige modellen en bewijzen focust.
Compacte modellen met grote ambities
Ondanks hun beperkte grootte scoren de nieuwe, compacte modellen volgens Microsoft beter dan zwaargewichten zoals het DeepSeek-R1 model (671 miljard parameters) op veeleisende tests als de AIME 2025-wiskundecompetitie. Het geheim zit in de geavanceerde trainingsmethodes, waaronder het gebruik van voorbeelddata van OpenAI’s o3-mini en synthetisch lesmateriaal gegenereerd door Deepseek-R1.
De modellen zijn inmiddels beschikbaar via Azure AI Foundry en Hugging Face, en vormen volgens Microsoft een nieuwe klasse in compacte AI-modellen, met toepassingen in onder meer educatie, wetenschap en on-device AI.













