# taz.de -- Voice Engine von OpenAI weckt Ängste: Künstlich Stimmen imitieren
       
       > OpenAI stellt ein neues Programm vor: Mit Voice Engine lassen sich
       > Stimmen imitieren. Im Superwahljahr verstärkt das Ängste vor
       > Manipulation.
       
 (IMG) Bild: Auch als Donald Trump kann man sich am Telefon ausgeben, dank Voice Engine
       
       Im März 2022 gab Präsident Selenskyj die Ukraine auf und kapitulierte vor
       Russland. Im November 2023 erklärte Kanzler Olaf [1][Scholz, er werde die
       AfD verbieten.] Und im Januar dieses Jahres rief [2][US-Präsident Joe
       Biden] seine Wähler:innen selbst an und bat sie, nicht zu den Vorwahlen
       zu gehen. Das alles ist so natürlich nie passiert. Und doch ist es Teil
       unserer politischen Wirklichkeit. „Deepfakes“, die Erstellung von
       gefälschten Videos durch künstliche Intelligenz, sind im in den letzten
       Jahren zu einem Phänomen geworden.
       
       Spätestens seit 2019 wird vermehrt über die Gefahren der Täuschungen
       berichtet und vor ihnen gewarnt. Auch in einem Superwahljahr wie diesem
       werden Deepfakes als Gefahr wahrgenommen. Sie sind ein einfaches und
       niedrigschwelliges Mittel, um die Europawahl und insbesondere die
       US-Präsidentschaftswahl zu beeinflussen. Ausgerechnet jetzt stellt eines
       der größten KI-Unternehmen eine neue Software vor, mit der Stimmen so
       leicht zu imitieren sind wie nie zuvor.
       
       Mit dem Chatbot ChatGPT hat sich das [3][US-Unternehmen OpenAI als
       Marktführer] bei künstlicher Intelligenz etabliert. Der Chatbot kann mit
       den Nutzer:innen Gespräche führen, Fragen beantworten und mithilfe einer
       simplen Aufgabenstellung ganze Aufsätze schreiben. Am Freitag hat OpenAI
       nun erstmals die Voice Engine vorgestellt. Mit der Software soll die
       perfekte Imitation einer Stimme möglich sein, auch auf mehreren Sprachen.
       Dafür braucht es nicht mehr als ein 15-sekündiges Beispiel und schon kann
       das Programm die Stimme in allen Lagen und mit allen Eigenheiten imitieren.
       
       Personen des öffentlichen Lebens können sich kaum vor dem Missbrauch ihrer
       Stimme schützen. Selbst bei Privatpersonen reicht schon eine
       Sprachnachricht von Messengerdiensten aus, damit man ihre Stimme
       zweckentfremden kann. OpenAI weiß um die Gefahren, die das eigene Programm
       mit sich bringt. Auch deswegen hält das Unternehmen die Software noch
       zurück und will mit einer breiteren Freigabe vorsichtig sein.
       
       ## Falscher Anruf von Joe Biden
       
       Auch die Vereinten Nationen sehen Handlungsbedarf im Feld der künstlichen
       Intelligenz. Am 21. März verabschiedete die Organisation eine Resolution
       zur besseren Kontrolle von KI. Das Ziel sind „sichere und vertrauenswürdige
       Systeme der künstlichen Intelligenz“ und eine nachhaltige Entwicklung der
       Technik, ohne Missbrauch und Datenschutzverletzungen. Wie das umgesetzt
       wird, bleibt bei der rechtlich nicht bindenden Resolution abzuwarten.
       
       Dabei stellen [4][Deepfakes, ganz gleich ob mit dem Gesicht], der Stimme
       oder gleich beidem, einen massiven Eingriff in die Persönlichkeitsrechte
       dar. Durch die Fälschungen entsteht nicht nur die Gefahr der Erpressung und
       des Mobbings, sondern auch die einer massiven psychischen Belastung. In den
       letzten Jahren ist zudem die Deepfake-Pornografie regelrecht explodiert,
       sowohl mit bekannten Stars als auch privaten Gesichtern.
       
       Inzwischen ist es ein Leichtes, Menschen Dinge sagen und tun zu lassen, die
       sie nie gesagt oder getan haben. In Teilen wirkt die Technik noch etwas
       holprig, doch ihre rasante Entwicklung wird auch diese Kanten glätten. Bei
       manchen Fakes, wie der Wahlbeeinflussung bei den US-Vorwahlen, braucht es
       nicht einmal ein Gesicht, sondern nur ein paar Sätze. Im US-Bundesstaat New
       Hampshire wurden demokratische Wähler:innen von einer gefälschten Stimme
       des Präsidenten angerufen. Der vermeintliche Joe Biden bat darum, nicht zu
       den Vorwahlen zu gehen.
       
       Wer hinter der Manipulation steckt, ist noch immer unklar. Doch reicht ein
       solcher Fall bereits, um Unsicherheit zu schüren. Auch wenn die Voice
       Engine von OpenAI ein neues, noch schnelleres Kapitel in der
       Stimmenimitation eröffnet, ist das Problem längst auch Teil des
       Medienalltags. Es braucht deutlich mehr Medienkompetenz, speziell an
       Schulen, um Deepfakes erkennen und einordnen zu können.
       
       ## Trump und Obama über Chipssorten
       
       Seit einiger Zeit gibt es in den sozialen Medien, insbesondere auf Youtube
       und Tiktok, auch den Trend namens „AI Presidents“: In Fake Videos
       unterschiedlicher Länge unterhalten sich Joe Biden, Donald Trump und Barack
       Obama miteinander über verschiedene Themen. Mal machen sie rassistische
       Witze, bewerten verschiedene Chipssorten oder Videospiele, beleidigen sich
       gegenseitig oder spielen UNO gegeneinander.
       
       Manchmal hört man in den Videos auch die Stimmen von George W. Bush oder
       Hillary Clinton. Während die Präsidenten meist nur mit ausgeschnittenen
       Bildern in leichter Bewegung dargestellt werden, sind ihre Stimmen
       täuschend echt.
       
       Die humoristischen Videos wirken zwar kurzweilig, doch zeigen sie, wie
       einfach es mittlerweile ist, Stimmen und ganze Konversationen zu fälschen.
       Jeder kann Fälschungen erstellen und die Präsidenten und andere Prominente
       sagen lassen, was auch immer sie wollen – von extremistischen Aussagen bis
       hin zu Kapitulations- und Liebeserklärungen. Während es dafür vorher
       mehrere Minuten der Originalstimme brauchte, sind es dank Voice Engine nur
       noch wenige Sekunden.
       
       2 Apr 2024
       
       ## LINKS
       
 (DIR) [1] /Zentrum-fuer-politische-Schoenheit/!5972900
 (DIR) [2] https://www.zdf.de/nachrichten/politik/ausland/usa-biden-ki-wahlkampf-robocalls-100.html
 (DIR) [3] /Chaos-bei-OpenAI/!5972516
 (DIR) [4] /Deepfakes-und-Cyberattacken/!5840051
       
       ## AUTOREN
       
 (DIR) Martin Seng
       
       ## TAGS
       
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Desinformation
 (DIR) Wahlmanipulation
 (DIR) US-Wahl
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Ausbeutung
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Kolumne Digital Naives
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Beschwerde gegen OpenAI in der EU: Datenschützer kritisieren ChatGPT
       
       Dass ChatGPT auch Unsinn liefert, ist bekannt. Wenn die KI-Software
       allerdings Fake News über Personen ausspuckt, könnte das gegen EU-Recht
       verstoßen.
       
 (DIR) Künstliche Intelligenz im Wahlkampf: Wenn Robo-Scholz anruft
       
       Pünktlich zum Super-Wahljahr 2024 ist das Zeitalter der KI angebrochen. Die
       taz hat sich umgehört, was das für die Wahlen bedeutet.
       
 (DIR) Amazon Fresh beendet „Just walk out“: Mensch ersetzt KI
       
       Hinter den kassenlosen Märkten von Amazon steckten Mitarbeiter in
       Indien, zeigt eine Recherche. Ohne Ausbeutung funktioniert Bequemlichkeit
       nicht.
       
 (DIR) OpenAI-Mitgründer verlässt Unternehmen: Andrej Karpathy bestätigt Abgang
       
       Der Forscher will sich zukünftig persönlichen Projekten widmen. Erst im
       November hatte OpenAI mit der Entlassung von Sam Altman Aufsehen erregt.
       
 (DIR) Chaos bei OpenAI: Künstliche Aufregung
       
       Letzte Woche rausgeworfen, jetzt zurückgeholt: Sam Altman, CEO von OpenAI.
       Wer ist der mächtigste Entwickler von künstlicher Intelligenz?
       
 (DIR) Deepfakes und Cyberattacken: Der Krieg im Internet
       
       Im Krieg gegen die Ukraine setzt Russland auch auf Angriffe im Internet.
       Cybersicherheit muss deshalb stärker in den Fokus rücken.