Google Gemini wordt een stuk sneller dankzij Gemini 2.0 Flash
Sinds deze zomer maakt Gemini gebruik van het 1.5 Flash-model voor snellere antwoorden. Google belooft dat het nieuwe Gemini 2.0 Flash-model niet alleen aanzienlijk sneller is, maar ook naast tekst audio en foto’s kan genereren. Opvallend is dat het 2.0 Flash-model in sommige populaire AI-benchmarks zelfs het Gemini 1.5 Pro-model overtreft, terwijl het zijn taken twee keer zo snel voltooit.
Gemini 2.0 Flash ondersteunt verder niet alleen multimodale uitvoer, maar maakt ook gebruik van Google Search om vragen te beantwoorden. Hierdoor kan de AI ook antwoorden geven op vragen die actuele gegevens vereisen. Bovendien is het model in staat code uit te voeren en “door gebruikers gedefinieerde functies van derden te gebruiken”, aldus de aankondiging.
Beschikbaarheid
Het 2.0 Flash-model is direct beschikbaar voor alle gratis en betaalde Gemini-gebruikers. Voorlopig moet het model handmatig worden geselecteerd via het menu linksboven in het scherm; het gaat namelijk om een experimenteel model. Sommige functies werken mogelijk niet zoals verwacht. Google heeft zijn 2.0-modellen al wel getest onder gebruikers om de modellen “veilig bij gebruikers” te brengen.
Het nieuwe model is voorlopig alleen beschikbaar via de webversie van Gemini. Later wordt het ook uitgerold naar de Gemini-apps op Android en iOS. Een specifieke releasedatum hiervoor is nog niet bekendgemaakt.
‘Het tijdperk van AI-agenten’
Met Gemini 2.0 luidt Google ook het tijdperk van AI-agenten in, een concept dat Microsoft eerder introduceerde met zijn Copilot AI. AI-agenten zijn modellen die specifiek zijn getraind voor bepaalde taken, bijvoorbeeld met bedrijfsdata. Jules, de eerste AI-agent van Google, richt zich op programmeertaken. Uiteindelijk moeten dergelijke AI-agenten routinetaken overnemen.
Dit idee bevindt zich echter nog in een vroeg stadium. Onder de noemer Project Mariner onderzoekt Google de “toekomst van interactie tussen mens en agent”. Een vroege prototypeversie kan informatie op een scherm interpreteren en daarop verder redeneren. In de toekomst zou de AI-agent zelfstandig websites kunnen doorzoeken, maar op dit moment werkt dat proces traag en is het uitvoeren van taken niet altijd succesvol.
Het onderzoeksproject richt zich ook op het beperken van de risico’s van zulke AI-agenten. Wanneer AI zelfstandig kan browsen en taken kan uitvoeren, is het cruciaal misbruik te voorkomen. In de huidige opzet kan Project Mariner alleen typen, scrollen en klikken binnen een actief tabblad. Bij gevoelige acties vraagt de AI-agent eerst om toestemming van de gebruiker.