AI generiertes Portrait einer Frau mit blauen leuchtenden Symbolen
© myshoun

Deep Fakes im Wahlkampf: Realität in der größten Demokratie der Welt

Wie hilflos steht Deutschland der kommenden Welle gegenüber?

Dass Kriminelle mittlerweile Künstliche Intelligenz (KI) nutzen, um den diversen Enkeltricks, CEO-Frauds und ähnlichen Verbrechen den letzten Schliff zu geben, ist bekannt. Doch mittlerweile wird die Technik – namentlich die Möglichkeit, mittels einiger frei verfügbarer Bilder und Tonaufnahmen Menschen durch KI perfekt falsch und anders darzustellen – auch in der Politik eingesetzt. Zumindest in Wahlkämpfen in Indien, Pakistan, Indonesien, der Slowakei und den USA wurden und werden Deep Fakes von Politikern und Politikerinnen eingesetzt.

Deep Fake im Wahlkampf

In Indien tauchte der 2018 verstorbene Gründer der Partei DMK, Muthuvel Karunanidhi, bei einer Parteiveranstaltung am 21. Januar 2024 auf, kritisierte Ministerpräsident Modi und verschwand wieder. Die Konkurrenzpartei AIADMK ließ sich nicht lumpen und veröffentlichte im Februar 2024 einen Videoclip mit ihrem 2016 verstorbenen Parteichef J. Jayalalithaa. Bereits im November 2023 hatte der Parteichef der BRS, K.T. Rama Rao, in einem 7-Sekunden-Video dazu „aufgerufen“, die rivalisierende Kongresspartei zu wählen. In Pakistan kursierte bei der Wahl im Februar 2024 ein gefälschtes Video, in welchem der inhaftierte Ex-Premier Imran Khan zu einem Wahlboykott aufrief, während ein ebenfalls mittels KI generiertes Video, in dem er den Sieg seiner Partei feststellte, immerhin von seiner eigenen Partei wohl mit dem Einverständnis von Imran Khan fabriziert wurde.

Auch in den USA hält anlässlich des Superwahljahres 2024 KI Einzug. So erhielten Wählerinnen in New Hampshire künstlich generierte Anrufe von Joe Biden mit der Bitte, nicht an den Vorwahlen der demokratischen Partei teilzunehmen.

Selbst jenseits des pazifischen Raums, in dem Wahlkämpfe bereits weitaus länger digital(er) geführt werden, finden sich Beispiele: In der Slowakei zirkulierte vor den Parlamentswahlen im Herbst 2023 ein gefälschtes Interview des Parteichefs der Progressiven Partei, Michal Šimečka. Im Gespräch mit der ebenso gefälschten Journalistin Monika Tódová ging es um „beabsichtigten“ Stimmenkauf von Roma. In Anbetracht des knappen Wahlergebnisses, die SMER gewann mit 22,9% gegenüber der Progressiven Partei mit 18%, ein bedenklich stimmender Vorgang.

Jenseits dieser manipulativen Beispiele können Deep Fakes aber auch als Chance gesehen werden, um Kampagnen effektiver zu gestalten. So nutzte Ashok Gehlot von der Kongresspartei die Dienste von „The Indian Deepfaker“ um personalisierte Nachrichten per WhatsApp an einzelne Wähler zu versenden, wobei jeder Wähler namentlich angesprochen wurde.

Der Gedanke, dass jemand wie Friedrich Merz sozusagen „selbstvervielfältigt“ Millionen Bundesbürgerinnen persönlich anspricht, ist sicherlich nicht nur völlig legal, sondern auch ein attraktives neues Instrument der Wahlkampagne.

Man könnte versucht sein, das Deep Fake Risiko im Wahlkampf hierzulande aus drei häufig genannten Gründen als gering einzuschätzen:

  • Erstens ist der Aufwand zu groß und die Erstellung zu kostspielig (und damit mit den hier gängigen Wahlkampfbudgets nicht kompatibel).
  • Zweitens ist der Wahlkampf bei uns nicht so digitalisiert und unsere politische Kultur weit weniger konfrontativ, als in den oben genannten politischen Systemen.
  • Drittens sind „wir“ doch nicht so leicht zu beeinflussen.

Ein dreifacher Irrtum, wie nachstehend gezeigt wird.

Werkzeuge zur Herstellung von Deep Fakes: Von gratis bis billig für jedermann verfügbar

„The monster is already on the loose”, sagte Professor Hafiz Malik von der University of Michigan und er hat damit recht.  Firmen wie elevenlabs.io oder videoproc.com bieten für vergleichsweise lächerliche Geldbeträge Produkte an, mit denen man problemlos Audio- und Video-Deep Fakes herstellen kann. Gratistools gibt es ebenfalls, wie z. B. de.cyberlink.com ausführlich ausführt. Seiten wie Hoodem ermöglichen „Create any Deepfake with no limitation. Hoodem enable the unlimited creation of a new type of video content by the application of deep learning technologies, allowing anyone to make any deepfake simply, safely and privately.“. Die diesbezüglichen Möglichkeiten professioneller Akteure – auch ausländischer Nachrichtendienste – sind wohl noch erheblich besser.

Politische Kultur: Willkommen im Zeitalter der (digitalen) Stämme

Natürlich sind etwa die USA, wenn es um Fragen der politischen Debatte geht, weitaus konfrontativer unterwegs, der Stil ist erheblich härter als in Deutschland. Aber auch bei uns hat der „politische Tribalismus” starken Aufwind. Echte Diskussionen, aus denen im Zweifel auch konstruktive Mittelwege entstehen können, werden zunehmend durch Meinungskonfrontationen ersetzt – und die Gegenseite hat immer und ausschließlich unrecht. Kommen wir zum Wahlkampf: der läuft in Deutschland gerade auf kommunaler und regionaler Ebene nach wie vor primär offline ab. Auch die Wirksamkeit des digitalen Wahlkampfs ist bei weitem nicht so klar, wie Einem diverse Agenturen weismachen wollen. Aber die aktuelle Debatte über Tiktok macht deutlich, dass es nicht allein darum geht, die Stimmabgabe selbst zu beeinflussen. Es geht um die Beeinflussung der Debatte und der Wahrnehmung, gerade bei den kommenden Wählergenerationen, wie jüngst berichtet wurde. Und man darf sich keine Illusionen machen, dass die „üblichen Verdächtigen“ hierzulande vor dem Einsatz von Deep Fakes zurückschrecken würden.

I smell Deep Fake: Opfer sind immer nur die anderen

Wie (schlecht) es um die digitalen Kompetenzen Deutschlands steht, dürfte den Lesern dieser Serie schon hinreichend bekannt sein. Und beim Verständnis für Deep Fakes sieht es nur bedingt besser aus. Zumindest ist auf den ersten Blick das Problembewusstsein da. Laut einer aktuellen Studie der Bertelsmann-Stiftung, sehen über 80% der Deutschen (digitale) Desinformationen als Bedrohung der Demokratie. Soweit so beruhigend. Dummerweise glaubt eine Mehrheit der Befragten auch, dass man selbst nicht Opfer solcher Desinformationen wird – „dumm genug“ sind immer nur die anderen. Eine Feldstudie einer österreichische Zeitung macht deutlich: wir sind fast alle (potenzielle) Opfer.

20 Jahre Signaturrichtlinie
Signaturrichtlinie

20 Jahre Signaturrichtlinie

Umsetzung in der deutschen Verwaltung

Das „Manifest für Frieden“ – Bürgerbeteiligungen und ihre Glaubwürdigkeit in Deutschland
Bürgerbeteiligung

Das „Manifest für Frieden“ – Bürgerbeteiligungen und ihre Glaubwürdigkeit in Deutschland

Ein abschreckendes Beispiel

Und was nun?

Regulierung und Verbote kann man fordern, doch sie werden vermutlich wenig bis gar nichts bringen. Der Geist ist aus der Flasche – wie lässt er sich nun zumindest halbwegs bändigen? Zum einen braucht es mehr digitale Medienkompetenz in der breiten Bevölkerung, zum anderen aber eine konsequentere, d.h. verbreitete und vorgeschriebene Nutzung der technischen Möglichkeiten, um Urheberschaft und damit auch die Verlässlichkeit von Quellen eindeutig zu bestimmen – und die gibt es längst. Tatsächlich lässt sich bereits mit relativ überschaubarem Aufwand die Kompetenz steigern, Deep Fakes zu erkennen – ein Aspekt mehr, der auf den Lehrplan zu digitalen Kompetenzen in Schulen und Hochschulen  gehört. Auch auf die Lehrpläne der Hochschulen für den öffentlichen Dienst, wo Digitalkompetenzen ein Mauerblümchendasein in den Lehrplänen fristen, wie zwei Professoren derselben jüngst mehrfach gezeigt haben. Das minimiert die Risiken, doch es setzt voraus, dass seriöse Quellen auch als solche klar erkennbar sind und damit stellt sich einmal mehr die Frage verlässlicher digitaler Signaturen. Diese sind in Deutschland wenig verbreitet – aber das effektivste und möglicherweise einzige Mittel gegen Deep Fakes. So wie Abstand halten, Handhygiene und Masken gegen Infektionen, was ebenfalls nur recht schmerzhaft von unserer Gesellschaft gelernt werden musste.

Leider fährt der Zug der Politik und Verwaltung gerade in die völlig entgegengesetzte Richtung: So möchte die Entlastungsallianz in Baden-Württemberg aktuell die Schriftform mit Unterschrift durch eine sogenannte einfache E-Mail ersetzen – die Bezeichnung „völlig unsichere, weil kinderleicht fälschbare E-Mail“ wäre treffender. Und die Umsetzung der Signaturrichtlinie, die Ende 2024 ihr Vierteljahrhundert feiert, notwendiger. Lesern dieser Serie ist das schon länger bekannt – anscheinend nicht den Maßgeblichen in Politik und Verwaltung.

Ein Anruf von Joe Biden in New Hampshire, ein Video des (verstorbenen) indonesischen Präsidenten Suharto, ein Aufruf des inhaftierten pakistanischen Ex-Premiers Imram Khan, die Wahl zu boykottieren: alles Deep Fake, alles künstlich erzeugt. Es ist nur eine Frage der Zeit, dann ruft Kanzler Scholz auf, am Wahltag zu Hause zu bleiben und Bundespräsident Steinmeier ruft bei Wählern an und empfiehlt ihnen „Die PARTEI“? Technisch sind solche Deep Fakes von Bundespräsident und –kanzler problemlos möglich – doch die digitale Allgemeinbildung in Deutschland ebenso wie die digitale Basisinfrastruktur des Landes hat mehr Lücken als Mauern. Was braucht es an digitaler Bildung und wie kann diese für den Großteil der Einwohner nachgeholt werden?

Nehmen Sie Kontakt zum Autor/zur Autorin auf

Sie haben Interesse an einem Erfahrungsaustausch oder weiteren Informationen? Ihr Feedback und Ihre Fragen leiten wir direkt an den Verfasser / die Verfasserin des Textes weiter.