# taz.de -- TÜV für Künstliche Intelligenz: Die Neuen im Newsroom
       
       > Gegen die Angst vor der künstlichen Intelligenz hilft nur
       > Medienkompetenz. Auch der Journalismus muss seine Grundsätze mal wieder
       > updaten.
       
 (IMG) Bild: Neue*r Kolleg*in: Mensch oder Maschine? KI-generiertes Bild
       
       Auch wenn die [1][Berichte über Massenpaniken stark übertrieben] waren: Als
       der „Krieg der Welten“ 1938 im US-Radio ausgestrahlt worden ist, haben es
       einige Zuhörer*innen mit der Angst zu tun bekommen.
       
       Waren wirklich Außerirdische, wie im Hörspiel dargestellt, auf der Erde
       gelandet und hatten die Macht an sich gerissen? Nein. Doch auch Jahre nach
       der Ausstrahlung des als nachrichtliche Radiosendung getarnten Hörspiels in
       Ecuador 1949 und in Deutschland 1977 glaubten manche Menschen daran, dass
       es doch wahr sein könnte. Beim WDR riefen mehrere besorgte Hörer*innen
       an, obwohl der Sender mehrfach darauf hingewiesen hatte, dass es sich um
       eine fiktive Geschichte handelt. Das hatten sie von Ecuador gelernt, denn
       dort kam es – als den Menschen klar geworden war, dass das Radio sie für
       dumm verkauft hatte und alles nur erfunden war – zu wütenden Aufständen.
       [2][Das Gebäude, in dem der Radiosender untergebracht war, wurde
       angezündet. Sechs Menschen starben.] Niemand wird gerne von „Nachrichten“
       belogen.
       
       Der „Krieg der Welten“ und der aktuell diskutierte Einsatz von sogenannter
       künstlicher Intelligenz (KI) im Medienbetrieb haben ein paar
       Gemeinsamkeiten: Beide durchbrechen Mauern, die man für sicher gehalten
       hatte. Und beide verlangen, dass wir unsere Medienkompetenz erweitern.
       
       ## Mockumentarys und Vlogs
       
       Damals war es eine Mauer, die die fiktive Welt eines Romans von der realen
       Welt der Nachrichten trennte. Inzwischen sind wir daran gewöhnt, dass
       journalistische Formen auch für erfundene Geschichten genutzt werden
       können, etwa in Mockumentarys. Ebenso neue Formen wie etwa Vlogs, die
       ständig zwischen Realität und Fiktion, Abbildung und Darstellung
       balancieren.
       
       Heute ist die bröckelnde Mauer eine zwischen Mensch und Maschine.
       Mauerbrüche können gefährlich sein, aber auch bereichernd. Die Menschen,
       adaptive Wesen, die wir sind, gewöhnen sich an neue Situationen. Wir gehen
       mit ihnen um, nutzen sie für uns – auch die Medien. Mit der
       Veröffentlichung diverser, immer besser funktionierender KIs in Bild-, Ton-
       und Textproduktion wächst die Angst: „Wir können Fakes nicht mehr
       erkennen“, hieß es, als ein Foto vom Papst in weißer Daunenjacke
       auftauchte.
       
       [3][Als das US-Online-Medium Cnet im Herbst 2022 KI-generierte, vor Fehlern
       strotzende Texte veröffentlichte], [4][als im April 2023 Die Aktuelle ein
       KI-generiertes, frei erfundenes Interview mit Michael Schumacher druckte],
       fragten einige warnend: Können wir Medien noch vertrauen, wenn sie in
       diesem Stil Maschinen einsetzen?
       
       Diese Warnungen sind wichtig, damit wir uns individuell auf die möglichen
       Gefahren einstellen, uns mit ihnen auseinandersetzen und auch unsere
       Gemeinschaften in dieser Hinsicht stärken. Wie Höhlenmenschen sitzen wir
       bei Nacht an unseren Feuern und raunen uns Gruselgeschichten über die nicht
       mehr erkennbare KI zu, damit wir wachsam bleiben. Diese Wachsamkeit ist ein
       wichtiger Baustein für unsere Medienkompetenz. Sie hilft uns, bewusst mit
       Fake News, Verschwörungserzählungen und Propaganda umzugehen (auch wenn wir
       immer wieder an unsere und anderer Menschen Grenzen stoßen). Wir werden uns
       also auch daran gewöhnen, dass Medien mithilfe von KI erstellt werden.
       
       Medienkompetenz hat viele Komponenten. Da wäre zum einen: nicht an der
       immensen Flut an Nachrichten und Informationen verzweifeln, die durch den
       Einsatz von KI noch weiter steigen wird. Was ist wichtig (für mich)? Was
       kann ich ignorieren? Gerade hier kann KI helfen. Newsaggregatoren wie das
       von Springer entwickelte „Upday“, die Beiträge aus unterschiedlichen
       Nachrichtenmedien bündeln und Menschen direkt auf ihre Smartphones oder
       ihren Browser senden, arbeiten bereits mit KI. Bei „Upday“ ist [5][eine KI
       damit beschäftigt, die Inhalte der Nachrichten zu analysieren]. Und dann
       werden sie entsprechend der Interessen, die die Nutzer*innen angegeben
       haben, ausgespielt. Niemand muss Schalke-News lesen, wenn er*sie doch
       eigentlich das Feuilleton liebt.
       
       Um das aber nutzen zu können, muss ein grundlegendes Verständnis über die
       Mechanismen vorhanden sein.
       
       Diese „Informationstechnische Kompetenz“, wie Kommunikationswissenschaftler
       und Mathematiker Friedrich Krotz sie schon in den 1990er Jahren nannte,
       bedeutet heute nicht nur: „Passt auf eure Daten auf!“ Sie bedeutet auch:
       „Verstehe, warum man dir manche Nachrichten NICHT zeigt. Und denk darüber
       nach, ob du dadurch nicht vielleicht doch nur einseitig informiert bist.“
       
       Diese Kompetenz erfordert auch, dass wir einen Ausweg erhalten, Filter
       zurücksetzen können. Wir müssen sehen und verstehen, wie wir den Stecker
       ziehen und uns aus unseren eigenen Rabbit Holes ziehen können. Das
       erfordert, dass Unternehmen offen damit umgehen und die Lösungen dafür
       nicht verstecken. Und: dass wir selbst nach ihnen suchen.
       
       ## Nachricht oder Kommentar?
       
       Wenn diese beiden Kompetenzen bestehen, kommen wir zur nächsten, und sind
       wir ehrlich: auch hier hapert es auf beiden Seiten. Es geht um das
       Erkennen, ob ein Beitrag eine Nachricht oder ein Kommentar ist. Wütende
       Leser*innen beschweren sich über mangelnde Objektivität im Kommentar.
       Und oft genug ist das Wort „Kommentar“ über einem Beitrag verdammt klein
       und übersehbar. Damit wären wir beim momentan relevantesten Punkt in Sachen
       Medienkompetenz.
       
       Wir müssen als Nutzer*innen einschätzen können, ob eine Nachricht
       Qualität hat, ob sie wichtig ist und auch richtig und welche Konsequenz sie
       hat. Dazu gehört, zu erkennen, ob sie von oder mit Hilfe einer KI verfasst
       wurde. Denn auch das ist eine Qualität – ganz wertungsfrei. Es bedeutet
       schlicht, dass hinter dieser Information nicht nur ein Mensch steckt.
       
       Sondern dass ein Mensch einer KI aufgetragen hat. Zum Beispiel die Aufgabe,
       einen Absatz über Gesetzgebungsverfahren zu schreiben. Im Idealfall hat er
       auch noch eine Quelle angegeben, die die KI einfach auswerten muss. Der
       Mensch muss am Ende dann noch einen Kontrollgang machen. Diese Schritte zu
       erkennen, ohne eine Kenntlichmachung: unmöglich angesichts dessen, welche
       Fortschritte generative KI in den letzten Monaten gemacht hat in Bild-,
       Ton- und Texterstellung.
       
       Besonders beim Erstellen von datengetriebenen Beiträgen, wie einfachen
       Formen von Spiel- oder Börsenberichten, bietet sich KI an. Man könnte zwar
       einfach auch Tabellen veröffentlichen. Die KI aber kann aus den Daten flugs
       einen Text machen, der sich in Aufbau und Duktus immer sehr ähnelt. So wie
       stinknormale Tabellen auch.
       
       KI wird inzwischen allerdings auch auf ganz anderen Gebieten eingesetzt. Im
       Mai 2023 veröffentlichte die Zeitschrift Lisa Kochen & Backen eine Ausgabe
       mit beinahe hundert von einer KI erstellten Rezepten ohne einen Hinweis
       darauf, dass eine KI genutzt wurde. Auch „Ippen Digital“ lässt KI beim
       Schreiben helfen, erklärt aber unter den Texten, sie seien „mithilfe
       maschineller Unterstützung erstellt und von der Redaktion geprüft“ worden.
       Aber um welche Abschnitte geht es genau? Wie viel davon ist von Menschen
       geschrieben, wie viel von einer Maschine? Wäre es nicht besser, die
       entsprechenden Absätze genau zu markieren, einzufärben, mit Wasserzeichen
       zu versehen?
       
       [6][Der Deutsche Journalistenverband DJV hat ein Positionspapier
       verabschiedet], in dem es heißt: „Die Kennzeichnung muss in unmittelbarer
       Nähe zum Inhalt erfolgen und hinsichtlich Größe und Gestaltung klar
       erkennbar sein.“ Das ist wichtig, nicht nur, um das Vertrauen der
       Leser*innen zu behalten oder auch mal: zu gewinnen. Es geht auch um die
       Grundsätze von Journalismus: Wahrheit und Transparenz.
       
       Die Markierung alleine kann deswegen nicht ausreichen. Es bräuchte eine
       zusätzliche Erklärung, wie die KI funktioniert, wie sie trainiert wurde,
       welche ethischen Maßstäbe die Redaktion an ihre KI ansetzt, wie das
       KI-Erschaffene danach menschlich kontrolliert wird. Denn zu Journalismus
       gehört es, die Welt zu erklären, möglichst verständlich, auch die eigene.
       
       ## Wir brauchen einen KI-TÜV
       
       Die Gesellschaft darf sich aber nicht darauf verlassen. Selbst ohne den
       Faktor KI kommt es immer wieder zu gezielten Falschmeldungen und
       Klickbaiting in Medien, zu Abhörskandalen und Verletzung von
       Persönlichkeitsrechten. Wir brauchen, so schwer die Forderung fallen mag,
       gesetzliche Regelungen.
       
       Und eine Art TÜV, der nicht Autos prüft, sondern in regelmäßigen Abständen
       die Technik und die Ethik hinter jeder einzelnen von Medien genutzten KI.
       Auch der Presserat sollte aktiv werden und KI in den Pressekodex aufnehmen.
       [7][Das wurde zwar Anfang 2022 schon diskutiert, aber man konnte keine
       gemeinsame Linie finden].
       
       Besonders problematisch ist der Einsatz von KI-generierten Bildern, wie
       etwa auch eines für diesen Artikel genutzt wird. Bilder haben eine andere
       Macht als Texte – selbst für Menschen, die über viel Medienkompetenz
       verfügen. Das Bild spricht zu uns, ist im Idealfall sofort verständlich und
       geht dabei über reinen Inhalt hinaus, weil es eine Szene und damit
       Emotionen transportiert, die wir im Regelfall ohne große Reflexion
       begreifen.
       
       Lesen allerdings erfordert den Beschluss, zu lesen, erfordert Energie und
       kognitive, bewusste Leistung. Das Nachdenken über Bilder ist vielen von uns
       aber nicht so beigebracht worden, wie das Nachdenken über Texte. Im
       Deutschunterricht analysieren Schüler*innen zig Texte, hinterfragen
       Erzählperspektive, Motivationen, Lügen. Die Bildanalyse kommt viel seltener
       im Unterricht vor.
       
       Generierte Bilder zu nutzen, ohne dies klar als KI-generiert auszuweisen,
       etwa durch Wasserzeichen, hat ganz andere Auswirkungen als ein schlecht
       kenntlich gemachter KI-Text. Bilder emotionalisieren augenblicklich und
       sind schwerer zu hinterfragen. Ein Bild muss ich nicht erst anklicken, um
       es sehen zu können, einen Text schon. Manche Medien wie etwa Kuwait News
       arbeiten schon jetzt mit Avataren als Nachrichtensprecher. Die sehen zwar
       menschlich aus, sind es aber nicht.
       
       Erst wenn Medienhäuser einen vernünftigen Umgang mit KI gefunden haben,
       können auch alle anderen einen vernünftigen Umgang mit eben diesen Medien
       finden. Und das wäre überaus wichtig und richtig.
       
       Denn neben all den Ängsten und Sorgen wird oft vergessen, wie stark KI
       helfen kann: Beim Verfassen von Bildunterschriften, bei leichterem Schnitt,
       bei der Auswertung von großen Datenmengen für Investigativrecherchen und
       bei stupiden Arbeiten, wie der Erstellung eines Fernsehprogramms. Damit
       Menschen ihre Energie, Zeit, Kreativität und emotionale Intelligenz endlich
       in andere Medienbereiche stecken können.
       
       8 Jul 2023
       
       ## LINKS
       
 (DIR) [1] https://slate.com/culture/2013/10/orson-welles-war-of-the-worlds-panic-myth-the-infamous-radio-broadcast-did-not-cause-a-nationwide-hysteria.html
 (DIR) [2] https://www.abendblatt.de/archive/1949/pdf/19490214.pdf/ASV_HAB_19490214_HA_008.pdf
 (DIR) [3] https://t3n.de/news/cnet-ki-artikel-journalismus-texte-1526724/
 (DIR) [4] https://uebermedien.de/83353/erfundenes-interview-mit-michael-schumacher-zu-dumm-um-wahr-zu-sein/
 (DIR) [5] https://www.mdr.de/medien360g/medienwissen/ki-ein-weites-feld-100.html
 (DIR) [6] https://www.djv.de/fileadmin/user_upload/INFOS/Themen/Medienpolitik/DJV-Positionspapier_KI_2023-04.pdf
 (DIR) [7] https://www.presserat.de/jahresberichte-statistiken.html?file=files/presserat/bilder/Downloads%2520Jahresberichte/DPRE-2022-02403_Jahresbericht%25202022_BF.pdf
       
       ## AUTOREN
       
 (DIR) Johannes Drosdowski
       
       ## TAGS
       
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) künstliche Intelligenz
 (DIR) Schwerpunkt Pressefreiheit
 (DIR) TÜV
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Twitter
 (DIR) Schwerpunkt Künstliche Intelligenz
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Google-Chatbot Bard in Deutschland: Zehn Jahre zu früh geboren
       
       Besser als ChatGPT soll er sein – und dazu ans Internet angeschlossen:
       Googles Chatbot startet in Europa. Ein Selbstversuch zeigt Schwierigkeiten.
       
 (DIR) Europarat verhandelt Abkommen: KI für die Milliarden
       
       Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden.
       Die Konvention des Europarats würde Menschen auf mindestens drei
       Kontinenten betreffen. Doch es gibt auch Kritik.
       
 (DIR) Neue Musk-Entscheidung bei Twitter: Achtung, Limit!
       
       Seit Samstag können nicht mehr alle lesen, was auf Twitter so geschrieben
       wird. Besitzer Elon Musk liefert dafür eine simple Erklärung.
       
 (DIR) Künstliche Intelligenz: Keine Panik vor KI
       
       Die Angst vor einer vorgeblichen Superintelligenz ist Unsinn – und
       verhindert eine Debatte über Gefahren wie die Interessen von Google oder
       Amazon.