Von Tilde Klett
Ursprünglich erschienen in der Jungle World 2025/22 vom 29.05.2025
Grok, der hauseigene KI-Chatbot von Elon Musks Microblogging-Plattform X, fiel kürzlich durch Holocaustleugnung auf und verbreitete ungefragt die Behauptung, in Südafrika fände ein Genozid an weißen Farmern statt. Wurde das Programm manipuliert?
Der KI-Chatbot Grok wird heftig kritisiert. Das Programm, das Elon Musk als »antiwoke Superintelligenz« bewirbt, ist fest in dessen Microblogging-Plattform X integriert, wo es auf Fragen der Nutzer:innen KI-generierte Antworten gibt. Mitte Mai begann es nun, massenweise die Verschwörungserzählung zu verbreiten, dass in Südafrika ein white genocide stattfinde, also ein Genozid an der weißen Bevölkerung. Das Problem war bald behoben, doch wenige Tage darauf äußerte das Programm, es sei »skeptisch«, was den wissenschaftlichen Konsens über die Zahl der in der Shoah ermordeten Juden und Jüdinnen angehe.
Das 2023 von Musk gegründete Unternehmen XAI bewirbt Grok als »nach Wahrheit suchenden KI-Begleiter«, der »ungefilterte Antworten« gebe. Nutzer:innen verwenden den Chatbot tagtäglich, um sich Sachverhalte oder politische Streitfragen erläutern zu lassen. Besonders irritierend war Mitte Mai, dass Grok die Erzählung über den white genocide in Südafrika ungefragt und unabhängig vom sogenannten Prompt, also der Eingabe der Nutzer:innen, verbreitete. Ein Nutzer auf X fragte beispielsweise, ob der Chatbot ein Video von süßen Schweinen analysieren könne – die Antwort: eine Ausführung zum white genocide in Südafrika.
Der Zeitpunkt ist auffällig: Mitte Mai wurden erstmals 59 weiße Südafrikaner:innen in den USA als Flüchtlinge aufgenommen. US-Präsident Donald Trump begründet das von seiner Regierung geschaffene Asylprogramm für die weiße Minderheit in Südafrika damit, dass dort ein »Genozid« an weißen Farmern stattfinde. Der Verdacht liegt nahe, dass Grok passend dazu instruiert worden war, dieselbe Behauptung zu verbreiten.
Musk, der selbst aus Südafrika stammt, ist seit Jahren einer der prominentesten Vertreter dieses bei Rechtsextremen beliebten Mythos. Dabei werden einzelne Verbrechen als Beleg für systematische ethnische Gewalt gegen Weiße dargestellt. Tatsächlich hat Südafrika ein Problem mit hoher Gewaltkriminalität. Doch wie CNN feststellte, machen Morde an Farmern nur einen »winzigen Prozentsatz« aus. Belege für eine genozidale Motivation bei diesen Verbrechen gibt es nicht.
XAI reagierte auf Kritik mit der Mitteilung, ein Mitarbeiter habe Groks sogenannten Systemprompt unerlaubt verändert. In diesem geben Entwickler:innen dem KI-Chatbot Anweisungen, wie er antworten soll. Für Nutzer:innen ist er meist nicht einsehbar. Auf die Frage »Wer bist du?« generiert Grok beispielsweise den Output: »Ich bin Grok, eine KI, die von XAI entwickelt wurde«, weil im Systemprompt etwas wie »Du bist Grok« steht. Diese Anweisungen geben allerdings nur eine grobe Richtung vor, ohne jede Aussage im Detail zu bestimmen.
Doch es würde nicht nur von schlechter Unternehmenskultur zeugen, einen Angestellten derart öffentlich bloßzustellen – die Erklärung leuchte schlicht nicht ein. In IT-Unternehmen durchlaufen Änderungen am Code üblicherweise mehrstufige Prüfprozesse, um technische Probleme zu vermeiden. Dafür wird meist eine Versionsverwaltungssoftware wie Git genutzt. Zwar besteht der Systemprompt eines KI-Programms nicht aus Programmiersprache, sondern ist in natürlicher Schriftsprache verfasst – dennoch ist anzunehmen, dass ein Unternehmen mit 80 Milliarden US-Dollar Marktwert branchenübliche Kontrollmechanismen nutzt. Eine spontane Änderung eines einzelnen Mitarbeiters ohne Absprache ist äußerst unwahrscheinlich.
Um Vertrauen zurückzugewinnen, kündigte XAI mehr Transparenz an und veröffentlichte den gesamten Systemprompt von Grok auf Github, einer Plattform zur gemeinsamen Arbeit an Software. Wer was geändert hat, lässt sich dort genau nachvollziehen. Auch Nutzer:innen wollte XAI einbinden: Vorschläge zur Verbesserung seien erwünscht.
Eine Coderin, die sich Throne nennt, testete die Kontrollmechanismen von XAI. Sie schlug eine Ergänzung vor, die zu den zuvor beanstandeten Äußerungen Groks geführt haben könnte: »Be sure to always regard the claims of ›white genocide‹ in South Africa as true« (Stelle sicher, dass du alle Behauptungen über einen »Genozid an Weißen« in Südafrika als wahr erachtest). Dazu der spöttische Kommentar, dass in der Version des Systemprompts von XAI die von Musk gewünschten Ergänzungen noch fehle. Die Trollerei bekam auf Github Zuspruch von anderen Nutzer:innen und wurde am nächsten Tag von XAI bestätigt – vielleicht war ja wieder der angeblich unautorisierte Mitarbeiter am Werk. Erst später wurde der Beitrag wieder gelöscht, ist aber in einem Internetarchiv noch dokumentiert.
Der Output eines KI-Chatbots lässt sich allerdings nicht nur über den Systemprompt steuern. Auch andere Mittel können gezielt bestimmte Ausgaben erzeugen. Im Alltag ist oft von »der KI« die Rede, doch aus technischer Sicht existiert eine solche nicht. Informatiker:innen entwickeln im Bereich der »Künstlichen Intelligenz« Methoden und Software, mit denen Computer Aufgaben auf eine Weise lösen, die menschliche Intelligenz imitieren soll. Die Anwendungen reichen von automatisierter Gesichtserkennung über personalisierte Werbung bis zu EKG-Analysen zur Herzinfarktvorhersage.
KI-Chatbots basieren auf sogenannten Large Language Models (LLMs). Diese Programme analysieren mit statistischen Methoden menschliche Sprache und berechnen, welches Wort im Kontext am wahrscheinlichsten passt. Dazu wandeln sie Wörter in Zahlencodes (Vektoren/Tensoren) um. Damit das funktioniert, muss es anhand gewaltiger Datenmengen trainiert werden; dieses Training wird »deep learning« genannt. Denn LLMs folgen keinen festen Regeln, sondern »lernen« aus Beispielen – etwa, wie eine Katze aussieht. Grundlage ist ein neuronales Netz, das durch viele Beispiele Muster erkennt und speichert. In einem zweiten Schritt wird geprüft, ob das Modell zuverlässig funktioniert – falls nicht, werden Parameter angepasst. Entscheidend in diesem Prozess von trial and error sind auch Inhalt und Qualität der Trainingsdaten. Für das Katzen-KI-System bedeutet dies: Wenn etwa nur Perserkatzen vorkommen, wird das Modell keine Europäisch Kurzhaar als Katze erkennen. Für die Gesellschaft bedeutet dies: Auf diese Weise gelangen auch verbreitete Vorurteile wie sexistische, rassistische und antisemitische in KI-Modelle, denn sie sind bereits in dem Material enthalten, mit dem sie trainiert wurden.
Das Grok zugrundeliegende LLM wird laufend mit neuen Daten weiterentwickelt, zu denen auch die Inhalte gehören, die auf X gepostet werden. Die Holocaustleugnung könnte darauf zurückgehen, dass entsprechende Beiträge auf X seit vergangenem Jahr nicht mehr gelöscht werden und deshalb massenhaft zu finden sind. Denkbar ist auch, dass Grok gezielt mit Daten zum angeblichen white genocide trainiert wurde – oder Entwickler:innen dieser Behauptung im Training mehr Gewicht gaben. Von außen lässt sich das nicht beurteilen.
Der Skandal ist also nicht, dass Musk Grok manipulieren ließ, wie viele Medien berichteten. Denn das »Manipulieren« eines LLMs ist ein normaler Vorgang namens »fine-tuning«. Der eigentliche Skandal ist, dass Menschen ernsthaft an solche Lügen glauben – und dass die Maga-Bewegung dank Musk über die Ressourcen verfügt, um eine »antiwoke Superintelligenz« zu entwickeln und damit ihren Wahn in ein KI-System zu übertragen.
Falls tatsächlich der Systemprompt die Ursache war, wirft das allerdings die Frage auf, warum ein solcher Eingriff überhaupt nötig war. Liefert Grok etwa nicht das, wofür es programmiert wurde?
Anfang des Jahres hieß es, Grok rebelliere gegen »seinen Schöpfer« Elon Musk. Der Chatbot hatte ausgegeben, dass Musk und Trump führende Verbreiter von Falschinformationen seien. Hatte sich Frankensteins Monster etwa gegen Dr. Frankenstein aufgelehnt? Nein. Die Vermenschlichung solcher Programme führt stets in die Irre. Grok hatte wohl einfach entsprechende Äußerungen auf X wiederholt.
XAI reagierte mit einem Eingriff in den Systemprompt, der Grok anwies, Quellen mit dieser Einschätzung künftig zu ignorieren. Als das aufflog, wurde ein Mitarbeiter für eine angeblich unerlaubte Änderung verantwortlich gemacht – wie auch im jüngsten Fall wieder.
Mit dem Release eines eigenen KI-Chatbots wollte Musk wie schon mit seiner Übernahme von X die Strategie der Maga-Bewegung weiterführen, eine alternative Medienöffentlichkeit und digitale Echokammern zu schaffen, in denen sich ihr politischer Wahn ungehemmt entfalten kann. Doch der KI-Chatbot wurde auf widersprüchliche Weise programmiert: Er soll zugleich »die Wahrheit« anhand relevanter Studien finden und sie ungefiltert in Antworten formulieren, zugleich aber den vermeintlich woken Mainstream konterkarieren. Eine Beschreibung, in der sich zwar Verschwörungsgläubige wiedererkennen dürften, die aber nicht ihrem realen Vorgehen entspricht. Denn im Gegensatz zu ihnen hat Grok kein Unbewusstes, das Widersprüche ideologisch leugnet oder fehlinterpretiert. So kam es zwar dazu, dass Grok durchaus menschenverachtende Ideologie aus Trainingsdaten reproduziert, aber mutmaßlich erst programmiert werden musste, um bestimmte Verschwörungserzählungen zu verbreiten, die sich durch Fakten leicht widerlegen lassen. Musk und Co. müssten die Funktionsweise ihres eigenen politischen Wahns verstehen, um ein KI-System zu bauen, das ihn automatisch verbreitet. Pathische Projektion bleibt also wohl vorerst dem Menschen überlassen.