Scout, Maverick & Behemoth: Metas neue KI-Modelle erklärt

Meta hat überraschend am Wochenende die neueste Generation seiner KI-Modelle veröffentlicht: Llama 4. Der Zeitpunkt der Veröffentlichung – ungewöhnlich für einen Samstag – lässt vermuten, dass Meta auf Entwicklungen bei der Konkurrenz reagieren wollte. Inhaltlich bringt Llama 4 spannende Neuerungen, vor allem in Richtung Multimodalität. Die neuen Modelle wurden nicht nur mit Texten, sondern auch mit Bildern und Videos trainiert. Sie können also erkennen, was auf visuellen Inhalten passiert – sei es in einem Foto oder einem kurzen Clip. Wichtig zu wissen: Sie erzeugen keine eigenen Bilder oder Videos, sondern verstehen lediglich, was darin zu sehen ist.

Drei Modelle mit unterschiedlichen Stärken

Die Llama-4-Reihe besteht aus drei Varianten: Scout, Maverick und Behemoth. Scout und Maverick sind bereits öffentlich verfügbar, Behemoth befindet sich noch in der Trainingsphase. Meta integriert Scout und Maverick auch direkt in die eigenen Produkte – zum Beispiel in die KI-Assistenten von WhatsApp, Messenger und Instagram. Vorerst ist diese Integration jedoch auf 40 Länder beschränkt, und die erweiterten multimodalen Fähigkeiten funktionieren aktuell nur in den USA.

In Europa sieht es ohnehin komplizierter aus: Laut Metas Lizenzbedingungen dürfen Unternehmen mit Sitz in der EU die Modelle nicht verwenden. Zudem müssen Unternehmen mit mehr als 700 Millionen aktiven Nutzer:innen pro Monat eine Sondererlaubnis einholen.

Technischer Aufbau: Mixture of Experts

Technologisch setzt Meta bei Llama 4 auf eine sogenannte MoE-Architektur (Mixture of Experts). Dabei handelt es sich um einen Ansatz, bei dem nicht das gesamte Modell bei jeder Aufgabe aktiv ist, sondern nur spezialisierte Teile – sogenannte „Experten“. Das reduziert den Rechenaufwand deutlich, ohne große Leistungseinbußen. Maverick ist das größte der bisher veröffentlichten Modelle, mit insgesamt 400 Milliarden Parametern, von denen pro Aufgabe aber nur 17 Milliarden aktiv sind. Scout ist kleiner, mit insgesamt 109 Milliarden Parametern und ebenfalls 17 Milliarden aktiven Parametern – er kann sogar auf einem einzelnen Nvidia H100-Grafikprozessor betrieben werden, was den Einstieg für viele Anwendungen erleichtert.

Leistungsfähigkeit im Vergleich zur Konkurrenz

Meta hat interne Benchmarks veröffentlicht, in denen Maverick in bestimmten Tests besser abschneiden soll als GPT-4o von OpenAI oder Gemini 2.0 von Google. Im Vergleich zu den neuesten Modellen wie Gemini 2.5 Pro, Claude 3.7 Sonnet oder GPT-4.5 fällt das Ergebnis allerdings gemischter aus – hier hat Meta (noch) nicht die Spitzenposition erreicht. Scout wiederum zeigt laut Meta besondere Stärken beim Verarbeiten sehr großer Textmengen. Mit einem Kontextfenster von bis zu 10 Millionen Token kann es lange Dokumente oder umfangreiche Code-Repositories effizient analysieren.

Einordnung und Ausblick

Mit Llama 4 setzt Meta seinen Kurs in Richtung offenerer und effizienter KI-Modelle fort. Die Modelle sind technisch durchdacht, bieten neue Möglichkeiten insbesondere im Bereich Multimodalität und lassen sich je nach Variante auch mit moderater Hardware nutzen. Gleichzeitig zeigen die Lizenzbedingungen und regionale Beschränkungen, dass regulatorische Hürden weiterhin eine wichtige Rolle spielen.

Ob und wie sich Llama 4 im Wettbewerb gegen etablierte Modelle von OpenAI, Google oder Anthropic durchsetzen kann, wird sich in den kommenden Monaten zeigen. Klar ist: Meta investiert weiter stark in KI und positioniert sich damit langfristig als zentraler Player im globalen KI-Markt.

 

© stock.adobe.com, Askar