Alibaba bringt QwQ-32B ins Rennen gegen DeepSeek R1

Gerade erst hat sich die Community an DeepSeek R1 gewöhnt, schon wirft Alibaba mit QwQ-32B das nächste große Open-Source-Modell ins Rennen. Und das Beste daran? Es ist kleiner, effizienter und soll trotzdem DeepSeek R1 in vielen Bereichen schlagen. Klingt zu schön, um wahr zu sein? Dann schauen wir uns das mal genauer an.

David gegen Goliath

Traditionell gilt: Mehr Parameter = mehr Power. DeepSeek R1 bringt gewaltige 671 Milliarden Parameter mit sich, auch wenn dank der Mixture-of-Experts-Architektur immer nur rund 37 Milliarden aktiv sind. Im Vergleich dazu kommt QwQ-32B mit nur 32 Milliarden aktiven Parametern daher – also deutlich schlanker. Und trotzdem soll es in vielen Benchmarks DeepSeek R1 schlagen.

Wie ist das möglich? Alibaba gibt an, dass sie ihr Modell mit einer cleveren Strategie optimiert haben: reinforcement learning ab einem bestehenden Checkpoint. Diese Methode hat auch DeepSeek verwendet, doch Alibaba hält sich bedeckt, ob sie zusätzlich noch weitere Optimierungen eingebaut haben. Das Ergebnis kann sich aber offenbar sehen lassen.

Läuft auf mehr Hardware

Während DeepSeek R1 in seiner vollen Pracht eine wahre Hardware-Schlacht ist, macht QwQ-32B es den Nutzern einfacher. Vollständig braucht es zwar über 70 GB VRAM, aber in quantisierten Versionen läuft es bereits auf 24-GB-Grafikkarten und sogar auf MacBooks mit ihrer einheitlichen Speicherarchitektur – und das wohl sogar richtig schnell.

Das bedeutet: Mehr Leute können mit dem Modell experimentieren, ohne ein Rechenzentrum zu Hause zu haben. Gerade für Entwickler, die mit offenen Modellen arbeiten wollen, ist das ein echter Gamechanger.

Sensible Themen?

Was viele überrascht: QwQ-32B gibt erstaunlich unzensierte Antworten, selbst zu heiklen Themen. Während man von chinesischen Modellen erwartet, dass sie sich strikt an die offizielle Linie halten, zeigt QwQ-32B eine eher neutrale Haltung. Ob das so bleibt oder ob Alibaba hier noch Anpassungen vornimmt, bleibt abzuwarten. Aber allein die Tatsache, dass ein chinesisches Modell so offen mit politischen Themen umgeht, ist bemerkenswert.

Kleiner, effizienter, besser?

DeepSeek R1 hat bereits gezeigt, dass man nicht unbedingt ein Riesen-Modell wie GPT-4 braucht, um beeindruckende Ergebnisse zu erzielen. Alibaba geht mit QwQ-32B noch einen Schritt weiter: Weniger Parameter, aber ähnliche oder bessere Leistung. Dieser Trend könnte die KI-Welt nachhaltig verändern. Kompaktere, günstigere und dennoch leistungsfähige Modelle bedeuten mehr Wettbewerb – und könnten die Dominanz großer Player wie OpenAI oder Google ins Wanken bringen. Wer braucht schon riesige Supercomputer, wenn man ein schlankes Modell bekommt, das fast genauso gut ist?

Fazit

Mit QwQ-32B zeigt Alibaba, dass es auch anders geht: Effizienz schlägt pure Größe. Wenn sich die Berichte über seine Performance bestätigen, könnte das Modell eine riesige Welle lostreten – hin zu leistungsfähigen Open-Source-Modellen, die ohne absurd große Hardware-Anforderungen auskommen.

 

© stock.adobe.com, Werckmeister