# taz.de -- Künstliche Intelligenz im Wahlkampf: Wenn Robo-Scholz anruft
       
       > Pünktlich zum Super-Wahljahr 2024 ist das Zeitalter der KI angebrochen.
       > Die taz hat sich umgehört, was das für die Wahlen bedeutet.
       
 (IMG) Bild: Hier telefoniert noch das Original: Kanzler Olaf Scholz am Hörer
       
       BERLIN taz | Ein [1][Anruf von Joe Biden], der Wähler*innen vom Wählen
       abhalten will. Ein neues Lied eines bereits verstorbenen indischen
       Musikers, das den indischen Präsidenten Narendra Modi preist. Eine Kampagne
       von mindestens 64 Accounts auf der Plattform X, die russische Propaganda
       verbreiten. All diese Beispiele haben eins gemeinsam: Sie sind
       wahrscheinlich mit Hilfe von generativer künstlicher Intelligenz (KI)
       entstanden.
       
       Welche Rolle wird KI im deutschen Super-Wahljahr 2024 spielen? Es stehen
       vier hierzulande bedeutsame Wahlen an: Europa, [2][Sachsen, Brandenburg und
       Thüringen]. Grundsätzliches steht zur Debatte. Ist die Demokratie den
       Angriffen vom rechten Rand gewachsen? Verlieren CDU, SPD, Grüne, Linke und
       FDP – die Parteien der stabileren Zeiten – dermaßen an Stimmen, dass ohne
       AfD oder Bündnis Sahra Wagenknecht kaum zu regieren ist? Hält die
       Brandmauer gegen rechts?
       
       Zudem hat Russland ein Interesse, mitzumischen. Deutschland stehe im
       Mittelpunkt russischer Einflussoperationen, warnte kürzlich das
       parlamentarische Kontrollgremium. Dessen Vorsitzender Konstantin von Notz
       (Grüne) sagte im taz-Interview: „Es wird immer offensichtlicher, dass
       Russland massiv Einfluss nimmt.“ Man werde das auch bei den Europa- und
       Landtagswahlen erleben. In diese Gemengelage stößt nun KI.
       
       ## Experiment aus Stanford
       
       Eine Gruppe Wissenschaftler*innen der Universitäten Georgetown und
       Stanford hat in einem Experiment untersucht, wie überzeugend KI-Propaganda
       ist. Die Ergebnisse: Desinformation, die der KI-Chatbot GPT-3 formuliert
       hatte, war fast so überzeugend wie menschliche Desinformation. Nach dem
       Lesen stimmten etwa 47 Prozent der Untersuchten der menschlichen
       Desinformation zu und 43,5 Prozent der KI-gemachten. Auch wenn die
       menschengemachte Desinformation etwas effektiver ist, schließen die
       Forscher*innen daraus: „Propagandist*innen könnten GPT-3 dazu nutzen,
       überzeugende Artikel mit minimalem menschlichen Aufwand zu generieren.“
       GPT-3 ist zudem mittlerweile ein veraltetes Modell.
       
       „Desinformation ist jetzt schon einfach zu fabrizieren, aber KI kann sie
       verstärken“, sagt Edda Humprecht. Die 39-Jährige ist Professorin für
       digitale Kommunikation und Öffentlichkeit an der Universität Jena. „Wut ist
       die treibendste Emotion in den sozialen Medien“, sagt Humprecht. KI könne
       helfen, Inhalten mehr Aufmerksamkeit zu bringen, durch schnell erstellte
       Bilder etwa, die Emotionen schüren. Zur Täuschung taugen sie laut Humprecht
       derzeit weniger: „KI-Videos und Texte können aktuell relativ leicht
       entlarvt werden. Aber eingebettet in größere Erzählungen wird es
       schwieriger“, sagt die Wissenschaftlerin. „Und hinter diesen Erzählungen
       stehen Menschen und sie werden von Menschen weiterverbreitet.“
       
       Themen, die laut der Wissenschaftlerin dabei besonders angreifbar sind:
       Migration, Klima, Pandemie, Gender und Sexualität sowie lokal spezifische
       Aufreger. „Oft sind Minderheiten oder Frauen im Fokus von Desinformation“,
       sagt Humprecht.
       
       ## Die AfD nutzt KI
       
       So setzen auch Teile der AfD schon KI ein. Der Bundestagsabgeordnete
       Norbert Kleinwächter etwa fiel mit einem KI-generierten Bild auf, das gegen
       Geflüchtete Stimmung macht. Ein weiteres Bild zeigt Gesundheitsminister
       Karl Lauterbach (SPD) mit Zombie-Gesicht.
       
       „Die sozialen Medien springen auf Sensationalisierung an, darauf kann man
       KI gut programmieren“, sagt Edda Humprecht. Dafür müssten die KI-Inhalte
       nicht mal sonderlich gut sein. „Es geht nicht um perfekte Täuschung,
       sondern darum, Ideologien zu verstärken.“ So könne man Wahlen zwar nicht
       entscheiden. Aber man kann Menschen radikalisieren oder apathischer machen
       und so etwa zu Polarisierung beitragen oder die Wahlbeteiligung
       beeinflussen.
       
       „KI kann vor allem Unterstützer bestimmter Parteien oder Ideologien
       ansprechen“, sagt auch Andreas Jungherr. Der 42-Jährige ist
       Politikwissenschaftler an der Universität Bamberg und untersucht die
       Auswirkungen von Digitalisierung auf Politik und Gesellschaft.
       
       Jungherr befürchtet, dass vor allem die Parteien der politischen Ränder
       sich auf die Technologie stürzen. Ähnlich wie bei Tiktok könnten sie sich
       hier einen Vorteil verschaffen. „Die politischen Ränder brauchen
       Innovation, weil sie für ihr Überleben davon abhängen, möglichst günstig
       viel zu erreichen“, sagt Jungherr. Und: „Akteure der Ränder sind
       experimentier- und risikofreudiger. Sie haben weniger Angst vor negativer
       Berichterstattung, da Kontroversen ihnen Sichtbarkeit bringen.“
       
       ## Chancen auf lokaler Ebene
       
       Die etablierten Parteien sollten sich dennoch mit der Technik
       auseinandersetzen, rät Jungherr: „Wenn Parteien besser darin werden,
       Menschen zu aktivieren, dann haben wir alle etwas davon.“ Der
       Wissenschaftler sieht vor allem auf lokaler Ebene Chancen: „Mit generativer
       KI können kleine Verbände Inhalte erstellen, für die sie früher eine
       Agentur gebraucht hätten.“ Das könne die politische Kommunikation
       verbessern. In Agenturen, die für Parteien Kampagnen entwickeln, sei der
       Einsatz von KI schon Alltag. Jungherr sagt: „Auch die etablierten Parteien
       sollten ein Verständnis für die Technik erlangen und das nicht Agenturen
       oder den Rändern überlassen.“
       
       Vom Verzicht auf KI im Wahlkampf hält er daher wenig. Jungherr rät dazu,
       KI-Inhalte eindeutig zu kennzeichnen, wenn möglich mit digitalen
       Wasserzeichen. „Das macht es zumindest schwieriger, Inhalte zu kopieren
       oder zu fälschen.“
       
       Wie also werden die Parteien KI einsetzen? Die mit Digitalisierung in den
       vergangenen Wahlkampf gezogene FDP antwortet auf Anfrage wenig
       überraschend: Man werde die Chancen, die KI bietet, für die eigene
       Kommunikation nutzen. „Künstliche Intelligenz bietet Parteien insbesondere
       im Bereich der generierenden KI viele Chancen für bürgernahe politische
       Kommunikation“, schreibt ein Sprecher. Gleichzeitig müssten Risiken wie
       Fake News entschieden bekämpft werden. Man verpflichte sich zu „absoluter
       Transparenz“.
       
       ## Nutzung von KI im Wahlkampf
       
       Die CDU hat noch keine Entscheidung getroffen, in welchem Umfang sie KI in
       Wahlkämpfen nutzen wird, erfährt die taz auf Anfrage. „Wenn wir KI
       anwenden, würden wir dies kennzeichnen“, schreibt eine Sprecherin. Man sei
       offen für Initiativen und diskutiere Handlungsoptionen mit Partnern. Auch
       die SPD hat noch nicht über KI-Nutzung im Wahlkampf entschieden, hält aber
       eine Kennzeichnung für erforderlich. „Absehbar“ würden auch eigene
       Richtlinien erarbeitet.
       
       Auch BSW gibt an, noch nicht über den Einsatz entschieden zu haben. Die
       Grünen haben nach Angaben einer Sprecherin bereits Richtlinien im Umgang
       mit KI. Öffentlich machen wollen sie diese jedoch derzeit nicht. Etwas
       konkreter wird die Sprecherin aber: „Wir kennzeichnen KI-generierte Inhalte
       transparent und verzichten auf die Verwendung von KI zur Nachahmung von
       Stimmen oder physischem Erscheinungsbild einer Person – außer wenn die
       Person ihre ausdrückliche Zustimmung dazu gegeben hat.“ AfD und Linke haben
       auf taz-Anfragen nicht geantwortet.
       
       Wie bereitet man eine Gesellschaft auf Wahlen im KI-Zeitalter vor? Angela
       Müller hat Ideen. Müller ist Head of Policy and Advocacy bei der
       gemeinnützigen Organisation Algorithm Watch. „Man darf die Verantwortung
       nicht auf Einzelne abwälzen“, sagt Müller. Stattdessen müsse man die
       Anbieter in die Pflicht nehmen. „Es braucht Regeln – nationale und
       internationale.“ KI-Unternehmen müssten verpflichtet werden, ihre Produkte
       umfangreicher auf Risiken zu testen, bevor sie sie auf den Markt bringen,
       und Rechenschaft über diese Tests ablegen. Zudem sieht sie die
       Social-Media-Plattformen in der Verantwortung. „Einzelpersonen können
       nichts viral gehen lassen. Da kommen dann die Algorithmen der
       Social-Media-Plattformen ins Spiel“, sagt Müller.
       
       ## Meta, Tiktok, Google
       
       Die großen Tech-Konzerne von Meta, Tiktok und Google bis OpenAI versprechen
       im AI Elections Accord, gemeinsamgegen KI-Desinformation vorzugehen. Auf
       eine Nachfrage, wie das konkret bei den Landtags- oder Europawahlen
       aussehen könnte, kam auf Nachfrage keine Antwort. Dass die Konzerne große
       Aufmerksamkeit auf Landtagswahlen legen, hält Angela Müller zumindest für
       fraglich.
       
       Sowohl Müller als auch Jungherr und Humprecht sehen aktuell das größte
       Potenzial für glaubwürdige Fakes in KI-Stimmgeneratoren. So sind vor der
       slowakischen Präsidentschaftswahl gefälschte Tonaufnahmen einer
       Journalistin und eines prowestlichen Politikers aufgetaucht. Joe Bidens
       Robo-Calls gingen um die Welt. „Diese Modelle laden dazu ein, sie für
       Missbrauch und Negativkampagnen zu nutzen“, sagt Angela Müller.
       
       Störgeräusche während Anrufen oder auf Tonaufnahmen sind normal und den
       Hörenden fehlen andere Sinne, um die Echtheit zu überprüfen. Das macht
       Tonaufnahmen besonders anfällig für Fakes. „Das größte Risiko dafür sehe
       ich im Lokalen, wo wenige Medien und Expert*innen hinschauen, die Fakes
       entlarven könnten“, sagt Andreas Jungherr – wie gemacht also für
       Landtagswahlen.
       
       ## Inhalte prüfen
       
       Ist grundsätzliches Misstrauen gegenüber digitalen Inhalten also die
       Zukunft des Diskurses? Zumindest wird es in Zukunft wohl wichtiger, Inhalte
       über viele Faktoren zu prüfen. Neben Fakes droht darüber hinaus noch eine
       Kehrseite: Die Ausrede, dass echte Aufnahmen nur KI-Fakes seien. Aktuell
       steht der AfD-Abgeordnete Petr Bystron im Verdacht, Geld von einem
       prorussischen Netzwerk bekommen zu haben. Tschechische Geheimdienste sollen
       Tonaufnahmen dazu besitzen. Gut möglich, dass Menschen wie Bystron in
       Zukunft versuchen werden, sich mit dem Verweis „Ist doch nur ein KI-Fake“
       aus der Affäre ziehen könnten.
       
       „Wir brauchen KI-Modelle, die transparent für Medien und Zivilgesellschaft
       überprüfbar sind und nicht in erster Linie kommerziellen Interessen
       dienen“, fordert Angela Müller. Demokratische Meinungsbildung dürfe sich
       nicht Profit unterordnen. „KI wird nicht die Demokratie zerstören“, sagt
       sie. „Wenn wir die Demokratie kaputtgehen lassen, tragen wir schon selbst
       die Verantwortung dafür.“
       
       22 Apr 2024
       
       ## LINKS
       
 (DIR) [1] https://www.tagesschau.de/ausland/amerika/wahlen-wahlbeeinflussung-ki-100.html
 (DIR) [2] /Wahlen-in-Ostdeutschland-2024/!t5993946
       
       ## AUTOREN
       
 (DIR) Moritz Müllender
       
       ## TAGS
       
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Wahlkampf
 (DIR) Parteien
 (DIR) GNS
 (DIR) Schwerpunkt Landtagswahl Thüringen
 (DIR) Kolumne Der rote Faden
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Schwerpunkt Künstliche Intelligenz
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Verfassungsblog gegen die AfD: Höhere Hürden für Höcke
       
       Das „Thüringen-Projekt“ vom Verfassungsblog macht Vorschläge zur Stärkung
       von Demokratie. Warum die AfD es damit schwerer haben wird.
       
 (DIR) Olaf Scholz auf TikTok: Dem Olaf seine Aktentasche
       
       Olaf Scholz ist nicht länger das Faxgerät der Bundesregierung. Der
       Bundeskanzler ist jetzt auf TikTok.
       
 (DIR) Voice Engine von OpenAI weckt Ängste: Künstlich Stimmen imitieren
       
       OpenAI stellt ein neues Programm vor: Mit Voice Engine lassen sich Stimmen
       imitieren. Im Superwahljahr verstärkt das Ängste vor Manipulation.
       
 (DIR) Regulierung von KI-generierten Inhalten: Der Mensch hinkt hinterher
       
       Das Geschäft mit computergenerierten Influencer*innen boomt. Das ruft
       rechtliche und ethische Probleme hervor.