Grokipedia – der Versuch, Wissen zu automatisieren

Elon Musk und seine KI-Firma xAI haben eine erste Version dieser KI-generierten „Wikipedia-Alternative“ veröffentlicht. Version 0.1 ist seit Kurzem online und umfasst rund 885.000 englische Artikel. Das klingt gewaltig, ist aber nur ein Bruchteil der Wikipedia. Trotzdem sorgt Grokipedia schon jetzt für Aufsehen und Diskussion.

Ein KI-Wissensprojekt mit Anspruch

Im Kern ist Grokipedia eine KI-generierte Enzyklopädie. Die Texte stammen nicht von Menschen, sondern werden von Musks Sprachmodell Grok erstellt. Es gibt keine Bilder, keine Übersetzungen und vieles wirkt noch roh. Aber das Ziel ist klar. Musk möchte eine Plattform, die aus seiner Sicht objektiver ist als Wikipedia. Grok generiert Texte, die wie klassische Lexikonartikel wirken mit Definitionen, Daten und Hintergrundinformationen. Das Tempo, mit dem neue Einträge entstehen, ist beeindruckend. Gleichzeitig zeigt sich das größte Problem solcher Systeme. Sprachmodelle können elegant formulieren und trotzdem komplett danebenliegen. Man merkt Grokipedia an vielen Stellen an, dass kein Mensch mehr über die Inhalte schaut. Artikel sind teils übermäßig lang, andere erstaunlich oberflächlich. Manche Texte wirken, als hätte die KI nicht nur Wikipedia gelesen, sondern direkt kopiert.

Die Entstehung von Grokipedia ist nicht nur ein technisches, sondern auch ein politisches Statement. Musk hat wiederholt betont, dass Wikipedia seiner Meinung nach einseitig berichtet. Mit Grokipedia will er eine Plattform schaffen, die freier und neutraler ist. Doch genau das ist umstritten. Ein weiteres Problem ist, dass viele Grokipedia-Texte offenbar direkt aus der Wikipedia übernommen wurden, oft ohne korrekte Lizenzhinweise. Zwar ist Wikipedia frei nutzbar, aber nur, wenn man die Quelle nennt und die Lizenzbedingungen einhält. Grokipedia tut das bisher nicht konsequent. Dazu kommt, dass die Plattform zwar anzeigt, wann ein Artikel von Grok überprüft wurde, aber das sagt nichts über die tatsächliche Richtigkeit aus.

Was Wikipedia anders macht

Bei der Wikimedia Foundation, die Wikipedia betreibt, reagiert man gelassen. Dort verweist man auf das, was Wikipedia einzigartig macht. Eine globale Gemeinschaft, die Inhalte gemeinsam prüft, diskutiert und verbessert. Das Wissen dort ist menschlich, transparent und offen für Korrekturen. Genau das unterscheidet die Plattform von einem automatisierten System, das Fakten zwar produziert, aber nicht überprüft.

Zwischen Vision und Wirklichkeit

Grokipedia ist ein faszinierendes Projekt. Es zeigt, was möglich ist, wenn KI und Wissensmanagement verschmelzen. Aber es zeigt auch, wie schnell der Traum von objektivem Wissen kippen kann, wenn niemand mehr kontrolliert, was die KI schreibt. Vielleicht ist Grokipedia weniger eine Bedrohung für Wikipedia, sondern eher ein Experiment. Es testet, ob maschinelles Wissen mit menschlicher Kuratierung mithalten kann. Derzeit ist die Antwort klar. Noch nicht. Aber das Projekt wirft wichtige Fragen auf. Wie viel Vertrauen schenken wir Systemen, die schneller schreiben, als wir prüfen können.

© stock.adobe.com, Photo Dogg