Weiter zum Inhalt Skip to table of contents

Hintergründe

KI schafft neue Fakten – Herausforderungen im Umgang mit Desinformationen

Zu cool um wahr zu sein: Mittels KI generierte Fakebilder des Papstes.

Der Papst in modischen Sneakers und hipper Steppjacke? Angela Merkel und Barack Obama verbringen als Paar ihren Ruhestand zusammen am Strand? Realität oder doch nur Fälschungen? Die Welle neuer Programme und Filter auf Basis Künstlicher Intelligenz (KI) stellt uns vor neue Herausforderungen.

von Denis Gross, Projekt Visualising Democracy

Die letzten Wochen haben einige skurrile Szenen hervorgebracht. Neben Merkel und Obama am Strand wurden Nutzer*innen im Feed auch die Bilder von Donalds Trumps Verhaftung angezeigt. Tumultartig versucht hierauf die Polizei, den Ex-Präsidenten in Manhattan zu fassen. Das Problem: er musste sich zwar vor Gericht wegen des Vorwurfs der Fälschung von Geschäftsunterlagen verantworten, wurde aber nicht verhaftet. Verantwortlich für die falschen Bilder, die via KI erstellt und massenweise auf sozialen Plattformen geteilt wurden, sind diverse Nutzer*innen. Die Motive sind dabei recht unterschiedlich. Für die einen ist es ein Spaß, sich auszumalen, wie Trump hinter Gittern aussieht. Für die anderen eine Möglichkeit gezielt Stimmung zu machen.

Hinweise auf KI-generierte Bilder fehlen oft in der Verbreitung durch TikTok-Nutzer*innen. (Bild 1)

Was ist künstliche Intelligenz?

Künstliche Intelligenz (KI) oder im englischen Artificial Intelligence (AI) ist der Versuch, auf Grundlage von Daten menschliches Lernen und Denken technisch zu verarbeiten. Statt für jeden Zweck programmiert zu werden, können KI-Programme selbstständig antworten und Probleme lösen. Ein prominentes Beispiel ist der Chat GPT von OpenAI – ein text- und sprachbasierter Chatbot, welcher sich für dialogische Anwendungen, als Ideengeber oder Inspirationsquelle eignet. Auch Programme wie DALL-E oder Midjourney sind darauf spezialisiert, nach Eingabe einiger Schlüsselwörter Bilder zu generieren. So entstanden die eingangs erwähnten Bilder von Merkel, Obama und Trump. Aber auch Stimmen können mittlerweile von KI imitiert werden. So trendet seit einiger Zeit das Programm Prime Voice AI von ElevenLabs auf TikTok, das Stimmen von Taylor Swift oder Joe Biden nutzt und sie jeden beliebigen Satz sagen lässt, der Nutzer*innen gerade in den Sinn kommt. Die öffentlich zugänglichen Tools sind oft kostenfrei oder gegen eine geringe Gebühr nutzbar und lassen Spielraum für allerlei Möglichkeiten der Nutzung.

Spielerische Fremdentzweckung der KI generierten Stimmen von Biden, Trump und Obama in einem Online-Spiel. (Bild 2)

KI und Desinformation

Neben witzigen Spielereien, die berühmte Politiker in einem Online-Spiel zeigen, kann die Technik der KI auch für gezielte Desinformation verwendet werden. Das Beispiel der Verhaftung Trumps und den medialen Folgereaktionen zeigt das Problem von Desinformationen und möglicher Manipulation. James O`Keefe, der Gründer der rechtspopulistischen Enthüllungsplattform „Project Veritas“ postete am Tag der vermeintlichen Verhaftung Trumps auf Twitter von Unruhen in den Straßen Manhattans. Dahinter sah er eine Verschwörung, um Trump von den nächsten Präsidentschaftswahlen 2024 abzuhalten:
„Warum protestieren Millionen Menschen in Manhattan?“, fragt der Nutzer. „Wieso ist ganz Manhattan stillgelegt? Warum wurde der Generalstaatsanwalt aus der Stadt gejagt? Liegt es daran, dass sie Donald Trump verhaftet haben, um zu verhindern, dass er 2024 kandidiert und gewinnt?“

 

Tumulte in Manhatten? Gefälschtes Bild, das angebliche Straßenproteste nach Trumps vermeintlicher Verhaftung belegen soll. ( (Bild 3 & 4)

Solche Desinformationen sind auf Anhieb nicht immer zu erkennen und werden durch die gefälschten Bilder verstärkt. Als Beglaubigung von Ereignissen dienen sie als vermeintliche Quelle und unterstreichen die vermeintliche Glaubhaftigkeit, auch wenn es sich um erfundene Desinformationen handelt. Nicht anders verhält es sich mit der Fälschung von Stimmen oder ganzer Videos durch KI. Sie besitzen die Macht, Wirklichkeit glaubhaft darzustellen und dabei Kontexte und Narrative zu schaffen. Aufgestellte Behauptungen bekommen durch KI-Bilder eine vermeintliche Substanz – ein Einfallstor für antidemokratische Akteur*innen und Katalysator für Desinformationen.
Wie problematisch der Umgang von KI mit der (Re-)Produktion von Informationen ist, zeigt eine Reportage des Y-Kollektiv zum ChatGPT. Auch die Faktenchecker*innen von Newsguard attestieren nach einem Experiment mit der KI, dass sie zum „Superspreader für Falschinformationen“ werden könne, da die Sicherheitsvorkehrungen innerhalb des Programms leicht umgangen werden können. In beiden Beispielen konnten die Sicherheitsvorkehrungen seitens der Unternehmen umgangen werden, indem Fragen an die KI so formuliert wurden, dass die Modelle ihre eigenen Sicherheitsmechanismen ignorierten. Und so Anleitungen zum Bau von Bomben, Verschwörungserzählungen oder sogar neue – durch die KI produzierte – Desinformationen erhält. Entsprechende Anleitungen zur Umgehung der Sicherheitsmechanismen finden sich in Windeseile im Internet. Auch Europol warnt nach eigenen Experimenten mit dem Chatbot mittlerweile davor, dass es durch Tools wie ChatGPT zu einem enormen Anstieg an Betrug, Cybercrime und Falschinformationen kommen kann.

Da KI weder ein moralisches Gewissen besitzt oder zwischen richtigen und falschen Information unterscheidet, liegt es an den Unternehmen und Nutzer*innen, entsprechende Sicherheitsvorkehrungen zu treffen und einen kritischen Umgang zu finden.

Konkurrenzkampf und Schnelligkeit statt Sicherheit

Seitens der Unternehmen scheint es angesichts des großen Hypes um KI in den vergangenen Monaten bisher nur wenig Bemühungen zur Reglementierung zu geben. Zu stark ist der Konkurrenzkampf um die Markthoheit und Profite. Um mithalten zu können, werden die Programme schnell auf den Markt gebracht. Im Fokus stehen die Zufriedenstellung der Nutzer*innen und die möglichst schnelle Beantwortung der Anfragen – auf der Strecke bleiben die Sicherheit und der einhergehende mögliche Missbrauch der Programme. Was können wir noch glauben? Es wird immer schwieriger, diese Frage zu beantworten.

Kritik an dieser Dynamik gibt es auch von KI-Expert*innen und Tech-Führungskräften, die Ende März einen offenen Brief veröffentlichten. Gefordert wird ein Stopp von Markteinführungen weiterer KI-Programme für mindestens sechs Monate, um möglichen Gefahren vorzubeugen, die Programme ausreifen zu lassen und dem Konkurrenzdruck Einhalt zu gebieten. Inwiefern eine ernstgemeinte Absicht dahinter ist oder eigene Interessen verfolgt werden, bleibt zunächst unklar. Der wohl prominenteste Unterzeichner ist Elon Musk, der OpenAI mitgegründet hat und bei einer gescheiterten Machtübernahme im Jahr 2018 aus dem Unternehmen gedrängt wurde – bleibt offen. Inzwischen hat Musk auf Twitter angekündigt, da ihm Chat GPT zu „politisch korrekt“ wäre, würde er ein eigenes Programm namens „Truth GPT“ entwickeln – quasi als Desinformations-KI. Die Organisation hinter dem offenen Brief, das „Future of Life Institute“ beschäftigt sich mit Longterminism – einer pseudo-philosophischen Richtung, die die Gegenwart ausblendet und weit entfernte, hypothetische Gefahren anspricht. Der geistige Vater der Strömung, Nock Bostrom, befürtwortet Eugenik und Rassismus. Kümmern wir uns lieber um reale Probleme heute.

Fakt ist: KI basierte Programme können bei ungenügenden Schutzmechanismen von Akteur*innen mit schlechten Absichten als überzeugender Multiplikator von Fehlbehauptungen genutzt werden. Umso wichtiger ist es für Nutzer*innen, sich diesen Gefahren bewusst zu sein. In unseren Newsletter Ausgaben #3 und #5 thematisierten wir die Erkennung von Desinformationen und wie dieser begegnet werden kann. Als weitere Hilfe dienen die Tipps und Tricks zur Erkennung von KI-generierten Bildern des AFP Faktencheck-Teams.

In der praktischen Arbeit mit jungen Menschen lohnt es sich, gezielt diese neue Technologie anzusprechen: „Wo sind euch mögliche Fälschungen schon einmal begegnet?“ oder „Woran habt ihr sie erkannt?“ sind Fragen für einen Einstieg in die Thematik und können anhand von Beispielen verdeutlicht werden. Von hier aus kann man gemeinsam überlegen, inwiefern KI genutzt werden kann und wo mögliche Herausforderungen und Probleme liegen.

 

Sie wollen zu den Themen  KI, TikTok, Desinformation und digitale Debattenkultur auf dem Laufenden bleiben? Dann abonnieren Sie den Newsletter von Visualising Democracy!

 

Quellen:

Bild 1: https://www.ingame.de/news/ai-fakes-erkennen-papst-franziskus-daunenjacke-twitter-midjourney-dalle-chat-gpt-hamburg-92173754.html

Bild 2: https://www.tiktok.com/@x3mendax1/video/7213441774470188331?_r=1&_t=8bSGxtVTMW5

Bild 3: https://www.tiktok.com/@x3mendax1/video/7213441774470188331?_r=1&_t=8bSGxtVTMW5

Bild 4: https://web.archive.org/web/20230325164815/https:/twitter.com/okeefe_reborn/status/1637200974879006722

Weiterlesen

Mitmachen stärkt Demokratie

Engagieren Sie sich mit einer Spende oder Zustiftung!

Neben einer Menge Mut und langem Atem brauchen die Aktiven eine verlässliche Finanzierung ihrer Projekte. Mit Ihrer Spende unterstützen Sie die Arbeit der Stiftung für Demokratie und Gleichwertigkeit.