Ray-Ban Meta Smart Glasses krijgen live AI, vertaalopties en Shazam-functionaliteit

De bril, die tot nog toe vooral dienstdeed als open-ear koptelefoon en camera, zal je straks toegang geven tot een “live sessie met Meta AI, zo meldt Meta op zijn blog. De assistent krijgt daarbij toegang tot wat je ziet en je kan er vragen over stellen zonder “Hey Meta” te zeggen. Dat kan handig zijn voor situaties waarin je handen vrij moeten blijven, zoals bij koken of reparaties.
Live vertaling en Shazam
Met ondersteuning voor Engels, Frans, Italiaans en Spaans kan de bril gesprekken direct vertalen. Spreekt iemand in een van de ondersteunde talen, dan hoor je de vertaling via de luidsprekers van de bril of zie je een transcriptie in de Meta View-app. Wel vereist deze functie vooraf gedownloade taalmodellen.
Wil je weten welk nummer speelt? Vraag simpelweg: “Meta, what is this song?” De bril gebruikt ingebouwde microfoons om muziek te identificeren, vergelijkbaar met Shazam op je telefoon.
Meta Smart Glasses: visie op de toekomst
Met deze updates zet Meta een nieuwe stap richting augmented reality-brillen die uiteindelijk smartphones kunnen vervangen. Voorlopig blijft deze technologie een aanvulling op je bestaande apparaten, maar het is duidelijk dat Meta én concurrenten zoals Google (met Gemini en Android XR) inzetten op AI-gestuurde wearables.
De Shazam-functionaliteit is voor alle gebruikers beschikbaar via de v11-update. Voor live AI en vertaling moet je deelnemen aan Meta’s Early Access Program. Aanmelden kan via de Meta-website.