Meta lanceert AI-model om Metaverse-ervaring te verbeteren
Dit model kan mensachtige digitale agenten aansturen, waardoor virtuele werelden een stuk realistischer en levendiger worden. Het bedrijf investeert volop in AI, augmented reality en andere Metaverse-technologieën. In 2024 wil Meta maar liefst 37 tot 40 miljard dollar besteden aan deze innovaties, een recordbedrag dat de weg moet vrijmaken voor nog meer baanbrekende ontwikkelingen.
Meta’s open aanpak stimuleert innovatie
Meta stelt veel van zijn AI-modellen gratis beschikbaar voor ontwikkelaars. Deze strategie is bedoeld om creativiteit en innovatie binnen de techgemeenschap te stimuleren. “Dit onderzoek kan leiden tot volledig belichaamde agenten in de Metaverse, met levensechte NPC’s, verbeterde karakteranimatie en nieuwe, meeslepende ervaringen,” stelt Meta in een verklaring. Dankzij Meta Motivo behoren de houterige bewegingen van digitale avatars tot het verleden. Het model zorgt voor mensachtige bewegingen, waardoor virtuele interacties natuurlijker aanvoelen.
Large Concept Model
Meta introduceert daarnaast het Large Concept Model (LCM), een revolutionair trainingsmodel voor taalsystemen. In plaats van losse woorden of zinnen te voorspellen, richt LCM zich op het begrijpen en voorspellen van concepten en ideeën. Dit model werkt in een meertalige en multimodale embeddingruimte, wat een nieuwe standaard zet voor taal-AI.
Maar dat is niet alles. Meta lanceerde ook Video Seal, een technologie die een onzichtbaar watermerk toevoegt aan video’s. Dit watermerk is niet zichtbaar voor het blote oog, maar wel traceerbaar, wat een belangrijke stap is in copyrightbescherming en betrouwbaarheid van video’s.