KI oder Künstliche Intelligenz breitet sich in unserer heutigen Arbeits- und Freizeitwelt immer mehr aus. Während noch für fünf Jahren die meisten eine Information über eine Suchmaschineneingabe oder das Nachlesen bei Wikipedia abgerufen haben, dürften heute schon viele Menschen KI-Chatbots wie beispielsweise ChatGPT von der Firma OpenAI aus Kalifornien verwenden. Auch bei der Datenanalyse hilft KI, so dass es beispielsweise möglich wird, das millionenfache Nutzer*innenverhalten im Internet binnen Sekunden live auszuwerten. Helfen uns diese Entwicklungen, um neue Strategien oder Ansätze zu bilden, mit Verschwörungserzählungen besser zurecht zu kommen? Oder birgt das KI-Zeitalter sogar mehr Gefahren?
Wer schon einmal den Selbstversuch mit ChatGPT gestartet hat, den KI-Chatbot nach der Wahrheit beziehungsweise Plausibilität einer beliebigen Verschwörungserzählung zu fragen, wird vielleicht von zwei Dingen überrascht gewesen sein: Zum einen, fällt auf, mit welcher empathischen und sachorientierten Gesprächsform die KI auf unsere Verschwörungserzählung reagiert. Wenn man an die Wahrheit dieser glaubt, wird man von der KI ernst genommen, die eigenen Sichtweisen oder Argumente werden bewusst in die Gegenrede der KI eingebaut. Somit verliert sich das Gefühl, dass man selbst nicht zum Nachdenken beziehungsweise kritischen Denken befähigt ist. Zum anderen, kann die KI mit einem sehr großen Fundus an Wissen über die Verschwörungserzählung überzeugen. Selbst Nachfragen zu Sachverhalten, die eigentlich nur in der Szene von Verschwörungsüberzeugten bekannt sind, werden von der KI reflektiert und konsequent beantwortet. Zudem werden immer wieder spannende Hintergrundartikel wie Studien, englischsprachige Zeitungsartikel oder TV-Dokumentationen erwähnt und verlinkt. Es besteht also wirklich eine Chance, dass KI-Chatbots Menschen dabei helfen können, die Echtheit einer Verschwörungserzählung zu überprüfen. Generierte Inhalte durch ChatGPT können allerdings auch Fehler enthalten oder unvollständig sein. Eine Nutzung sollte immer mit kritischem Sachverstand erfolgen.
Mit Blick auf die Wahrscheinlichkeit, dass Nutzer*innen durch ChatGPT in eine kritische Distanz zu Verschwörungstheorien gebracht werden, bleibt anzumerken: Einerseits ist es unwahrscheinlich, dass eine sehr überzeugte Person bewusst nach Gegenerzählungen sucht, da sie eine tiefe intrinsische Motivation besitzt, der eigenen Erzählung zu glauben. Andererseits ist der Grund, weshalb ChatGPT so auf uns reagiert, schlicht in der Art der Programmierung zu finden. Sowohl der Stil der KI als auch ihr generiertes Wissen basieren auf den Programmiervorgaben der Produzent*innen. Und hier gilt: Je mehr ein Produzent ein Problembewusstsein für Falsch- und Desinformation besitzt, desto wahrscheinlicher ist eine kritische Datenverwendung. Die Firma OpenAI achtet bewusst darauf, dass ChatGPT nicht dafür verwendet wird, um KI-erstellte Texte oder Bilder für staatliche oder nicht-staatliche Desinformationskampagnen zu nutzen. Im Frühjahr 2025 berichteten verschiedene Medien, u.a. das Handelsblatt, dass OpenAI entsprechende Kampagnen aus Russland oder dem Iran gestoppt habe.
Dass es auch anders ginge, zeigt das Beispiel der relativ neuen KI aus dem Hause Elon Musk. Grok von der Firma xAI wird derzeit sowohl via X (ehemals twitter) als auch in Form einer Smartphone-App oder Webseite angeboten. Der Selbstversuch des Autors mit Grok und der Überprüfung einiger bekannter Verschwörungserzählungen ergab, dass auch hier die KI sehr freundlich und sachbezogen antwortet. Zugleich werden hier durchaus auch Argumente der Verschwörungsüberzeugten dargestellt und nicht sofort verworfen. Wer die Antworten von Grok mit einer grundsätzlich offenen Haltung liest, kommt am Ende dennoch wahrscheinlich zu dem Ergebnis, dass die Echtheit vieler bekannter Verschwörungserzählungen in Zweifel zu ziehen ist. Wer aber mit einer gewissen Neigung zu Verschwörungserzählungen mit Grok spricht, kann hier auch Bestätigung für sein Denken finden. Grok erwies sich im Selbstversuch nicht unbedingt gefährlicher als ChatGPT, zeigte aber, dass das Antwortverhalten der KI durchaus veränderbar ist. Anders als OpenAI besitzt Grok eine direkte Schnittstelle zur Plattform X und integriert Millionen von Postings auf X bei der Generierung von Antworten. Seit der Übernahme von twitter durch Elon Musk und die Umbenennung der Plattform in X stieg die Anzahl extremistischer Inhalte laut Verfassungsschutz Baden-Württemberg enorm an.
Ein Artikel des Schweizer Fernsehens vom 20. Mai 2025 befasst sich mit dem Vorwurf, dass Inhalte von Grok direkt durch Mitarbeitende der Musk-Firma xAI beeinflusst werden. Konkret ging es um das Thema eines angeblichen Suizids an weißen Farmern in Südafrika sowie um Kritik an der neuen Trump-Regierung in den USA. Musk und xAI bestritten dies und machten das individuelle, aber nicht systematische Fehlverhalten von Mitarbeitenden der Firma verantwortlich. Aber auch gegenüber ChatGPT von OpenAI gibt es Kritik. Die Tagesschau berichtete am 24. März 2025 über massenhafte Versuche, das Antwortverhalten von ChatGPT durch russische Desinformation zu beeinflussen. Dabei wird offenbar ausgenutzt, dass ChatGPT seine Antworten durch das Scannen und Analysieren von Webseiten-Inhalten generiert. Der Vorwurf lautete, dass das russische Pravda-Netzwerk extra Webseiten-Inhalte so erstellt, dass diese weniger von echten Nutzer*innen, dafür aber von KI-Chatbots wahrgenommen werden. Beide Beispiele machen deutlich: KI ist fehleranfällig und kann manipuliert werden.
Insbesondere vor dem Hintergrund, dass gemäß einer Umfrage des Allensbach Instituts bereits 25% der Deutschen KI-Systeme wie ChatGPT nutzen, sollte die Bildungs- und Beratungsarbeit sowohl Chancen als auch Risiken in der Nutzung von KI im Kontext Verschwörungsdenken sehen. Vorstellbar wäre zum Beispiel, gemeinsam mit einem Klienten oder mit Teilnehmenden mit Hilfe von KI das Antwortverhalten zu Verschwörungserzählungen zu betrachten und auszuwerten. Dass KI durchaus hilfreich sein kann, zeigt aktuell das Tool www.debunkbot.com. Hier haben Wissenschaftler*innen amerikanischer Universitäten einen extra Chat-Bot geschaffen, der zum Dialog über die Wahrheit von Verschwörungserzählungen einlädt. Wenn man in der Dateneingabe beim Start angibt, dass man das Tool zu Testgründen nutzt, lässt sich ebenso ein Selbstversuch machen. Kleiner Tipp: Geben Sie dabei an, dass Sie Ihre Antwort in deutscher Sprache benötigen.


