# taz.de -- Künstliche Intelligenz und Moral: Guter Roboter, schlechter Roboter > Jobverlust durch Automatisierung? Roboter, die über Recht und Unrecht > entscheiden? Das sind keine Debatten der Zukunft. Wir sind mittendrin. (IMG) Bild: Wer ist schuld, wenn ein selbstfahrendes Auto deinen Roboter umfährt? Ein selbstfahrendes Auto muss entscheiden, ob es in eine Gruppe Kinder fährt oder eine Rentnerin umfährt – wie entscheidet es? Eine autonome Kampfdrohne erschießt einen Zivilisten – wer ist schuld? Was machen die Millionen Menschen, wenn ihre Jobs von Robotern und Computerprogrammen besser erledigt werden können als von ihnen. Was passiert, wenn nicht nur körperliche Arbeit, sondern auch geistige von Computerprogrammen übernommen werden? In der Debatte um künstliche Intelligenz und Automatisierung werden derzeit große moralische Fragen diskutiert und mögliche Dystopien: Computer, die die Welt beherrschen wollen, weitreichende Arbeitslosigkeit. Es sind große und wichtige Debatten, doch ihre Zuspitzung auf die möglichst schrecklichen Szenarien, zu Fragen über Leben und Tod lenken auch ab: Wir sind derzeit mittendrin in solchen Debatten. Kurz nach dem Massaker von Las Vegas, stießen Menschen, die im Netz nach Informationen suchten, auf ein Problem: Plattformen wie Google, Facebook und Youtube verwiesen in ihren Nachrichtenrubriken auf fragwürdige Seiten, [1][auf Falschmeldungen, Hoaxes und Propaganda]. Sowohl Google – dem Konzern gehört auch Youtube – als auch Facebook verwiesen darauf, dass Computerprogramme entschieden hatten, was in dort angezeigt wird, und dass Menschen erst im Nachhinein eingriffen, um sie zu korrigieren. Das Problem gibt es auch an anderer Stelle: Erst vor wenigen Wochen erschien eine Reihe Artikel, die aufzeigte, wie Werbung auf [2][Facebook], [3][Twitter] und [4][Google] zu rassistischen Schlagwörtern ausgespielt werden konnte. Auch hier war Software verantwortlich und auch hier griffen die Konzerne erst ein, als sie von außen darauf hingewiesen wurden. Ähnliche Sicherheitslücken konnten offenbar viel effektiver ausgenutzt werden: Inzwischen mehren sich die Hinweise, dass Agenten der russischen Regierung [5][mit gezielten Anzeigen auf Facebook] und [6][Twitter] (und vielleicht [7][Google]) versuchten, die Wahl zu beeinflussen. Hier sind Entscheidungen, die eine eindeutige moralische Komponente haben, an Computerprogramme ausgelagert worden, an eine sehr einfache Variante von künstlicher Intelligenz. Kein Programmierer konnte im Vorfeld wissen, wie die Algorithmen konkret über die Sortierung von Nachrichten entscheiden sollten, als in Las Vegas das Massaker losging. Stattdessen haben sie allgemeine Regeln verfasst und den Einzelfall der Software überlassen. Und diese entschied falsch. Dass Computerprogramme keine verlässlichen Entscheidungsinstanzen sind, sollte niemanden überraschen. Erst 2016 [8][feuerte Facebook sein gesamtes redaktionelles Team] wegen Vorwürfen der Parteilichkeit und ersetzte sie mit Software. Prompt am nächsten Tag verbreitete der „Trending Topics“-Bereich des Netzwerkes nur noch Falschmeldungen. Das ist auch nicht überraschend, denn Software übernimmt meist die Vorurteile von Menschen. Das beste Beispiel dafür: Der Microsoft-Gesprächsroboter „Tay“, der nach weniger als einem Tag [9][zu einem Hitler- und Sex-Fan wurde]. ## Was bedeutet das für Leben und Tod? Auch in Fragen von Jobverlusten sind wir inzwischen mittendrin. Nur selten läuft es dabei ab wie bei Facebook, dass Menschen konkret gefeuert werden und ein Computerprogramm den Job übernimmt. Google und Facebook dominieren gemeinsam den Online-Werbemarkt und setzen damit jährlich rund 100 Milliarden Dollar um. Früher hätten sie riesige Anzeigenabteilungen beschäftigt, heute regeln Algorithmen den Anzeigenverkauf. Anderswo schrumpft der Anzeigenmarkt und Menschen verlieren ihre Jobs – so übernehmen „Roboter“ leise und ohne große Skandale die Arbeitsplätze. Wenn wir schon jetzt die großen moralischen Fragen verhandeln, was bedeutet das dann für die Zukunft? Konzerne werden sich hüten, irgendwelche Verantwortung für die Untaten ihrer künstlichen Intelligenzen zu übernehmen. Eher werden sie diese durch AGBs an die Käufer abgeben. Das wird auch die Programmierer*innen schützen. Sehr grobe Fehlleistungen werden sie – wie jetzt bei Anzeigen- und Nachrichtenalgorithmen – nachträglich korrigieren. Danach heißt es dann: Dein selbstfahrendes Auto hat jemanden überfahren? Du warst dazu verpflichtet, es während der Fahrt zu überwachen. Deine autonome Waffe hat Unschuldige erschossen? Du hast schriftlich die Verantwortung übernommen. Die Schuldfrage wird formal geklärt und die Verantwortung bleibt bei denjenigen hängen, die vermutlich am wenigsten über das Innenleben der Roboter wissen. 4 Oct 2017 ## LINKS (DIR) [1] https://www.theatlantic.com/technology/archive/2017/10/google-and-facebook-have-failed-us/541794/ (DIR) [2] https://www.propublica.org/article/facebook-enabled-advertisers-to-reach-jew-haters (DIR) [3] http://www.thedailybeast.com/twitter-lets-you-target-millions-of-users-who-may-like-the-n-word (DIR) [4] https://www.buzzfeed.com/alexkantrowitz/google-allowed-advertisers-to-target-jewish-parasite-black (DIR) [5] http://edition.cnn.com/2017/10/03/politics/russian-facebook-ads-michigan-wisconsin/index.html (DIR) [6] https://www.washingtonpost.com/business/economy/twitter-finds-hundreds-of-accounts-tied-to-russian-operatives/2017/09/28/6cf26f7e-a484-11e7-ade1-76d061d56efa_story.html (DIR) [7] https://www.wsj.com/articles/google-conducting-broad-investigation-of-russian-influence-1506724811 (DIR) [8] https://www.theguardian.com/technology/2016/aug/29/facebook-fires-trending-topics-team-algorithm (DIR) [9] /Microsofts-Twitterbot/!5286773 ## AUTOREN (DIR) Lalon Sander ## TAGS (DIR) Autonome Waffen (DIR) Selbstfahrendes Auto (DIR) Google (DIR) Schwerpunkt Facebook (DIR) Automatisierung (DIR) Roboter (DIR) künstliche Intelligenz (DIR) Fake News (DIR) Harry Potter (DIR) Schach (DIR) künstliche Intelligenz (DIR) Wie weiter, Germans? (DIR) Tesla (DIR) Drohnenkrieg ## ARTIKEL ZUM THEMA (DIR) „Deepfakes“ – gefälschte Videos: Hat er das gerade wirklich gesagt? Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat. Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war. (DIR) Entwickler über neue Schreibhilfen: Harry Potter und der Halbbotprinz Mithilfe künstlicher Intelligenz wurde ein neues Harry-Potter-Kapitel geschrieben. Ganz allein kann die Maschine das aber nicht, sagt Entwickler Jamie Brew. (DIR) Künstliche Intelligenz und Schach: Erschreckend klug Alpha Zero hat in nur vier Stunden Schach erlernt. Gegen die künstliche Intelligenz haben weder Menschen noch Schachprogramme die leiseste Chance. (DIR) Künstliche Intelligenz in Saudi-Arabien: Roboterin mit Pass Saudi-Arabien hat dem humanoiden Roboter „Sophia“ die Staatsbürgerschaft verliehen. Im Internet sorgt das für Häme. (DIR) Serie: Wie weiter, Germans? (4): Das Rennen gegen die Maschine Die gute Nachricht: Roboter nehmen Ihnen künftig die Scheißarbeit ab. Die schlechte: Sie nehmen Ihnen die Arbeit weg. Die Politik muss darauf reagieren. (DIR) Debatte Selbstfahrende Autos: Smart Crash Die Industrie verspricht, dass schon bald autonome Autos fahren. Doch statt ausgereifter Technik gibt es nur „Beta-Versionen“ – ein gefährlicher Trend. (DIR) Waffen ohne menschliche Kontrolle: Der Aufstieg der Maschinen Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele treffen?