# taz.de -- Künstliche Intelligenz und Moral: Guter Roboter, schlechter Roboter
       
       > Jobverlust durch Automatisierung? Roboter, die über Recht und Unrecht
       > entscheiden? Das sind keine Debatten der Zukunft. Wir sind mittendrin.
       
 (IMG) Bild: Wer ist schuld, wenn ein selbstfahrendes Auto deinen Roboter umfährt?
       
       Ein selbstfahrendes Auto muss entscheiden, ob es in eine Gruppe Kinder
       fährt oder eine Rentnerin umfährt – wie entscheidet es? Eine autonome
       Kampfdrohne erschießt einen Zivilisten – wer ist schuld? Was machen die
       Millionen Menschen, wenn ihre Jobs von Robotern und Computerprogrammen
       besser erledigt werden können als von ihnen. Was passiert, wenn nicht nur
       körperliche Arbeit, sondern auch geistige von Computerprogrammen übernommen
       werden?
       
       In der Debatte um künstliche Intelligenz und Automatisierung werden derzeit
       große moralische Fragen diskutiert und mögliche Dystopien: Computer, die
       die Welt beherrschen wollen, weitreichende Arbeitslosigkeit. Es sind große
       und wichtige Debatten, doch ihre Zuspitzung auf die möglichst schrecklichen
       Szenarien, zu Fragen über Leben und Tod lenken auch ab: Wir sind derzeit
       mittendrin in solchen Debatten.
       
       Kurz nach dem Massaker von Las Vegas, stießen Menschen, die im Netz nach
       Informationen suchten, auf ein Problem: Plattformen wie Google, Facebook
       und Youtube verwiesen in ihren Nachrichtenrubriken auf fragwürdige Seiten,
       [1][auf Falschmeldungen, Hoaxes und Propaganda]. Sowohl Google – dem
       Konzern gehört auch Youtube – als auch Facebook verwiesen darauf, dass
       Computerprogramme entschieden hatten, was in dort angezeigt wird, und dass
       Menschen erst im Nachhinein eingriffen, um sie zu korrigieren.
       
       Das Problem gibt es auch an anderer Stelle: Erst vor wenigen Wochen
       erschien eine Reihe Artikel, die aufzeigte, wie Werbung auf [2][Facebook],
       [3][Twitter] und [4][Google] zu rassistischen Schlagwörtern ausgespielt
       werden konnte. Auch hier war Software verantwortlich und auch hier griffen
       die Konzerne erst ein, als sie von außen darauf hingewiesen wurden.
       Ähnliche Sicherheitslücken konnten offenbar viel effektiver ausgenutzt
       werden: Inzwischen mehren sich die Hinweise, dass Agenten der russischen
       Regierung [5][mit gezielten Anzeigen auf Facebook] und [6][Twitter] (und
       vielleicht [7][Google]) versuchten, die Wahl zu beeinflussen.
       
       Hier sind Entscheidungen, die eine eindeutige moralische Komponente haben,
       an Computerprogramme ausgelagert worden, an eine sehr einfache Variante von
       künstlicher Intelligenz. Kein Programmierer konnte im Vorfeld wissen, wie
       die Algorithmen konkret über die Sortierung von Nachrichten entscheiden
       sollten, als in Las Vegas das Massaker losging. Stattdessen haben sie
       allgemeine Regeln verfasst und den Einzelfall der Software überlassen. Und
       diese entschied falsch.
       
       Dass Computerprogramme keine verlässlichen Entscheidungsinstanzen sind,
       sollte niemanden überraschen. Erst 2016 [8][feuerte Facebook sein gesamtes
       redaktionelles Team] wegen Vorwürfen der Parteilichkeit und ersetzte sie
       mit Software. Prompt am nächsten Tag verbreitete der „Trending
       Topics“-Bereich des Netzwerkes nur noch Falschmeldungen. Das ist auch nicht
       überraschend, denn Software übernimmt meist die Vorurteile von Menschen.
       Das beste Beispiel dafür: Der Microsoft-Gesprächsroboter „Tay“, der nach
       weniger als einem Tag [9][zu einem Hitler- und Sex-Fan wurde].
       
       ## Was bedeutet das für Leben und Tod?
       
       Auch in Fragen von Jobverlusten sind wir inzwischen mittendrin. Nur selten
       läuft es dabei ab wie bei Facebook, dass Menschen konkret gefeuert werden
       und ein Computerprogramm den Job übernimmt. Google und Facebook dominieren
       gemeinsam den Online-Werbemarkt und setzen damit jährlich rund 100
       Milliarden Dollar um. Früher hätten sie riesige Anzeigenabteilungen
       beschäftigt, heute regeln Algorithmen den Anzeigenverkauf. Anderswo
       schrumpft der Anzeigenmarkt und Menschen verlieren ihre Jobs – so
       übernehmen „Roboter“ leise und ohne große Skandale die Arbeitsplätze.
       
       Wenn wir schon jetzt die großen moralischen Fragen verhandeln, was bedeutet
       das dann für die Zukunft? Konzerne werden sich hüten, irgendwelche
       Verantwortung für die Untaten ihrer künstlichen Intelligenzen zu
       übernehmen. Eher werden sie diese durch AGBs an die Käufer abgeben. Das
       wird auch die Programmierer*innen schützen. Sehr grobe Fehlleistungen
       werden sie – wie jetzt bei Anzeigen- und Nachrichtenalgorithmen –
       nachträglich korrigieren.
       
       Danach heißt es dann: Dein selbstfahrendes Auto hat jemanden überfahren? Du
       warst dazu verpflichtet, es während der Fahrt zu überwachen. Deine autonome
       Waffe hat Unschuldige erschossen? Du hast schriftlich die Verantwortung
       übernommen. Die Schuldfrage wird formal geklärt und die Verantwortung
       bleibt bei denjenigen hängen, die vermutlich am wenigsten über das
       Innenleben der Roboter wissen.
       
       4 Oct 2017
       
       ## LINKS
       
 (DIR) [1] https://www.theatlantic.com/technology/archive/2017/10/google-and-facebook-have-failed-us/541794/
 (DIR) [2] https://www.propublica.org/article/facebook-enabled-advertisers-to-reach-jew-haters
 (DIR) [3] http://www.thedailybeast.com/twitter-lets-you-target-millions-of-users-who-may-like-the-n-word
 (DIR) [4] https://www.buzzfeed.com/alexkantrowitz/google-allowed-advertisers-to-target-jewish-parasite-black
 (DIR) [5] http://edition.cnn.com/2017/10/03/politics/russian-facebook-ads-michigan-wisconsin/index.html
 (DIR) [6] https://www.washingtonpost.com/business/economy/twitter-finds-hundreds-of-accounts-tied-to-russian-operatives/2017/09/28/6cf26f7e-a484-11e7-ade1-76d061d56efa_story.html
 (DIR) [7] https://www.wsj.com/articles/google-conducting-broad-investigation-of-russian-influence-1506724811
 (DIR) [8] https://www.theguardian.com/technology/2016/aug/29/facebook-fires-trending-topics-team-algorithm
 (DIR) [9] /Microsofts-Twitterbot/!5286773
       
       ## AUTOREN
       
 (DIR) Lalon Sander
       
       ## TAGS
       
 (DIR) Autonome Waffen
 (DIR) Selbstfahrendes Auto
 (DIR) Google
 (DIR) Schwerpunkt Facebook
 (DIR) Automatisierung
 (DIR) Roboter
 (DIR) künstliche Intelligenz
 (DIR) Fake News
 (DIR) Harry Potter
 (DIR) Schach
 (DIR) künstliche Intelligenz
 (DIR) Wie weiter, Germans?
 (DIR) Tesla
 (DIR) Drohnenkrieg
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) „Deepfakes“ – gefälschte Videos: Hat er das gerade wirklich gesagt?
       
       Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat.
       Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war.
       
 (DIR) Entwickler über neue Schreibhilfen: Harry Potter und der Halbbotprinz
       
       Mithilfe künstlicher Intelligenz wurde ein neues Harry-Potter-Kapitel
       geschrieben. Ganz allein kann die Maschine das aber nicht, sagt Entwickler
       Jamie Brew.
       
 (DIR) Künstliche Intelligenz und Schach: Erschreckend klug
       
       Alpha Zero hat in nur vier Stunden Schach erlernt. Gegen die künstliche
       Intelligenz haben weder Menschen noch Schachprogramme die leiseste Chance.
       
 (DIR) Künstliche Intelligenz in Saudi-Arabien: Roboterin mit Pass
       
       Saudi-Arabien hat dem humanoiden Roboter „Sophia“ die Staatsbürgerschaft
       verliehen. Im Internet sorgt das für Häme.
       
 (DIR) Serie: Wie weiter, Germans? (4): Das Rennen gegen die Maschine
       
       Die gute Nachricht: Roboter nehmen Ihnen künftig die Scheißarbeit ab. Die
       schlechte: Sie nehmen Ihnen die Arbeit weg. Die Politik muss darauf
       reagieren.
       
 (DIR) Debatte Selbstfahrende Autos: Smart Crash
       
       Die Industrie verspricht, dass schon bald autonome Autos fahren. Doch statt
       ausgereifter Technik gibt es nur „Beta-Versionen“ – ein gefährlicher Trend.
       
 (DIR) Waffen ohne menschliche Kontrolle: Der Aufstieg der Maschinen
       
       Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt
       Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele
       treffen?