# taz.de -- Algorithmen im Internet: „Die Maschinen entscheiden für uns“
       
       > Sie regulieren immer mehr Bereiche unseres Lebens – ohne dass wir
       > verstehen, was genau Algorithmen tun. Nicht gut, sagt Techniksoziologin
       > Zeynep Tufekci.
       
 (IMG) Bild: Lebt nicht, handelt aber.
       
       taz: Frau Tufekci, nach den Unruhen von Ferguson waren Posts darüber auf
       Ihrer Facebook-Timeline lange nicht sichtbar. Was ist da passiert? 
       
       Zeynep Tufekci: Facebook hat einen Algorithmus eingesetzt, und der
       bevorzugt Dinge, die gelikt werden. Dadurch werden negative Nachrichten als
       weniger wichtig behandelt. Facebook bietet keine Möglichkeit an,
       auszudrücken, dass man etwas wichtig findet oder etwas nicht mag. Dafür
       gibt es keinen Button. So hat Facebook Regeln aufgestellt. Und die
       diskriminieren eine bestimmte Art von Geschichten und pushen eine andere.
       Während der Ferguson-Proteste war das zum Beispiel die Icebucketchallenge –
       an sich nichts Schlechtes, aber sie begrub alle anderen Nachrichten. In den
       USA bekommen 30 Prozent der Menschen ihre Informationen über Facebook. Bei
       den Jungen sind es vielleicht noch mehr. Facebook hat eine neue
       publizistische Funktion. Sie stellen die Regeln auf, wie Inhalte kuratiert
       werden.
       
       Abstrakt gefragt: Kann Algorithmen eine Ethik innewohnen? 
       
       Ja, und zwar insofern, als sie Konsequenzen für unser tägliches Leben haben
       – und diese Konsequenzen können wir als unethisch empfinden. Die Maschinen
       agieren selbstständig. Sie sind zwar nicht lebendig, aber sie sind
       handlungsmächtig. Das ist etwas Neues: Eine Maschine, die agiert, so als
       wäre sie eine Art Lebewesen. Es ist schwer, einen Begriff dafür zu finden.
       So etwas gab es in der Geschichte bislang noch nicht.
       
       Welche Konsequenzen hat das? 
       
       Wir übertragen unsere Handlungsmacht auf Maschinen. In manchen Fällen kann
       das nützlich sein. Aber häufig gehören die Algorithmen großen Unternehmen –
       und deren Ziel ist es nicht zwangsläufig, unser Leben einfacher oder besser
       zu machen. Meist wollen sie Profite erzielen oder Entscheidungshilfen für
       Regierungen bereitstellen. Darum stellt sich die Frage, wie wir Algorithmen
       für ethische Zwecke anwenden können.
       
       Hört sich an, als würden Sie Algorithmen generell kritisch gegenüberstehen. 
       
       Es mag legitime Anwendungen geben. Selbst bei großen Unternehmen. Aber wenn
       wir so viel Handlungsmacht übertragen, müssen wir mal einen frischen Blick
       auf die Folgen werfen, gerade in Verbindung mit all den Daten, die über uns
       gesammelt werden. Diese Daten werden genutzt, um Entscheidungen über uns zu
       treffen, von denen wir vielleicht noch nicht einmal wissen. Und von denen
       wir nicht verstehen, warum sie getroffen werden.
       
       Noch mal zurück zu den Facebook-Nachrichten über Ferguson: Was hätte
       Facebook danach tun können? 
       
       Sie hätten sich die Konsequenzen ansehen und Fragen stellen können. Wollen
       wir das? Wollen unsere Nutzer das? Auch könnte Facebook den Nutzern mehr
       Macht über ihren Newsfeed geben. Facebook gibt viel Geld aus, um neue
       Produkte zu entwickeln, besonders im Bereich Werbung. Es gibt viel, was man
       tun kann. Das ist eine Frage der Prioritätensetzung. Wenn Unternehmen nur
       einen Bruchteil ihrer Ressourcen, die sie dafür ausgeben, diese Systeme zu
       erschaffen, investieren, um zu hinterfragen, was diese Systeme tun, könnte
       man viel tun.
       
       Verstehen Programmierer heute noch, warum ihre Algorithmen auf eine
       bestimmte Weise reagieren? 
       
       Nein. Besonders dann nicht, wenn es sich um maschinelles Lernen handelt.
       Man setzt den Algorithmus auf einen Datensatz an und befiehlt ihm, sich
       einen Reim darauf zu machen. Man sagt ihm nicht, wie genau er das tun soll,
       sondern gibt ihm einfach jede Menge Daten und verlangt einen Output. Den
       schaut man sich dann an – und gibt der Maschine dann Feedback, wo sie
       richtig gelegen hat. So trainiert man sie. Man kann vermuten, wie sie zu
       dem Ergebnis gekommen ist. Aber wenn das Problem komplex ist, weiß man das
       nicht genau.
       
       Wie können Algorithmen dann gezähmt werden? Muss die Politik eingreifen? 
       
       Nicht unbedingt. Wir unterziehen Autos Sicherheitstests – da stecken wir
       auch Ressourcen rein. Die Frage ist, ob die Firmen das zu einer Priorität
       machen. Man sollte einfach mal anfangen und dann überlegen, wie man
       weitermacht, wenn man auf heikle Fragen stößt.
       
       Das Thema wird immer drängender. Schließlich spielen Algorithmen in immer
       mehr Lebensbereichen eine Rolle: bei der Polizei, manchmal sogar in
       Prozessen … 
       
       … in der Personalpolitik, im Städtebau, bei der Suche nach Terroristen –
       all das überlassen wir mehr und mehr algorithmengestützten Systemen. Und
       das passiert sehr schnell. Aber es gibt sehr wenige Menschen, die das
       tatsächlich wahrnehmen. Das finde ich sehr verwunderlich, weil diese
       Systeme alles beeinflussen werden – von der Frage, wer einen Job bekommt,
       bis zu der, wer als Terrorist eingestuft wird. Facebook ist ein Beispiel
       dafür. Damit können die Menschen etwas anfangen. Aber das ist nur ein
       kleines System in einem riesigen Ökosystem von computergestützten
       Entscheidungsfindungsprozessen, die einen gigantischen Einfluss haben. Wo
       sind die Mechanismen, um Algorithmen zu überprüfen oder sie zu
       kontrollieren? Wo macht man sich Gedanken über die Auswirkungen, wenn
       Algorithmen Fehler machen?
       
       Wie lernen wir, mit Fehlern umzugehen, die Maschinen machen? 
       
       Algorithmen liegen richtig und sie liegen falsch. Beides ist ein Problem.
       Wenn sie identifizieren, wer emotional verletzlich oder deprimiert ist,
       dann ist das ein Problem, zum Beispiel wenn Gesichtserkennung von Werbern
       dafür genutzt wird, uns mithilfe dieser Analyse Produkte zu verkaufen.
       Ebenso, wenn sie die sexuelle Orientierung berechnen oder die Tatsache,
       dass jemand schwanger sein könnte und man ihn deshalb besser nicht
       einstellt. Wenn die Maschinen das richtig erkennen, ist das ein Problem,
       weil sie einen dann auf dieser Basis diskriminieren können. Und wenn sie
       etwas falsch identifizieren, ist das auch ein Problem. Darum müssen wir
       überlegen, wie akkurat solche Prognosen sind. Entstehen Nachteile, wenn der
       Algorithmus korrekt identifiziert, dass jemand schwul ist? In vielen
       Ländern gibt es solche Nachteile. Man stelle sich nur mal vor, die
       Regierung von Uganda hätte die Analyse von Facebook vorliegen, wer schwul
       sein könnte.
       
       Nehmen wir doch mal das Beispiel von Marketing per algorithmengestützte
       Gesichtserkennung. Wie könnte man dagegen vorgehen? 
       
       Die Leute in der Wissenschaftscommunity könnten sich weigern, daran zu
       arbeiten. Unternehmen können sich selbst regulieren und Verhaltenskodizes
       entwickeln, so wie im Bereich Nukleartechnologie. Regierungen können
       Gesetze erlassen, die besagen, dass man nichts verkauft bekommt, wenn
       automatische Erfassung stattfindet. Wenn wir den Maschinen Entscheidungen
       mit so weitreichenden Konsequenzen anvertrauen, dann brauchen wir
       irgendeine Form von Zugang, von Überprüfung und von Transparenz. Das sind
       schwierige Fragen. Aber so war das auch bei Nuklearwaffen. Und da haben wir
       auch nicht gesagt: Dann baut halt jeder eine Atombombe, und wir schauen,
       was passiert.
       
       Sollen wir komplett aufhören, Algorithmen zu nutzen? 
       
       Die Katze ist aus dem Sack. Ich glaube nicht, dass man das aufhalten kann.
       Aber es gibt viele Möglichkeiten, wie sich das entwickeln kann. Und es gibt
       keinen Grund, warum Algorithmen nur für Anwendungen genutzt werden sollten,
       die uns stören oder schaden.
       
       Stehen wir mit all diesen Versuchen unter Zeitdruck? 
       
       Ja. Das muss jetzt passieren. Und wir müssen sehr schnell sein, weil diese
       Technologien sehr schnell angewendet werden. Darum glaube ich, dass
       Industrie und Wissenschaft in der Community gerade in der besten Position
       sind, jetzt zu handeln. Denn die Politik wird noch eine Weile brauchen, um
       aufzuholen.
       
       17 Apr 2015
       
       ## AUTOREN
       
 (DIR) Meike Laaff
       
       ## TAGS
       
 (DIR) Schwerpunkt Facebook
 (DIR) Internet
 (DIR) Algorithmen
 (DIR) Gedöns
 (DIR) Justiz
 (DIR) Polizei
 (DIR) Texas
 (DIR) Internet
 (DIR) Performance
 (DIR) Digitalisierung
 (DIR) Gesichtserkennung
 (DIR) Polizei
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“
       
       Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im
       Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten.
       
 (DIR) Algorithmen im Justizsystem: 72 Prozent Mordwahrscheinlichkeit
       
       In den USA berechnen Computerprogramme, wie gefährlich Menschen sind. Damit
       könne man Leben retten, sagt ein Statistiker.
       
 (DIR) Tierärztin tötet Katze: Pfeil im Kopf
       
       Eine Tierärztin aus Texas sorgt für Empörung. Mit Pfeil und Bogen tötete
       sie einen Kater und posierte mit dem Tier auf Facebook. Belangt wurde sie
       bislang nicht.
       
 (DIR) Personalisierte Doku zum Tracking: Sie folgen dir fast überall
       
       Eine Webdoku von Arte und BR zeigt, wie Verhalten im Netz analysiert wird.
       Der Nutzer kann anhand seiner eigenen Daten sehen, wer ihn überwacht.
       
 (DIR) Überwachungsexperiment in Berlin: Gemeine Verunsicherung
       
       Eine Schnitzeljagd zu den Mechanismen der Angst und Paranoia: Die
       "yoUturn"-Tour macht den Teilnehmer zum Überwachungsopfer. Und zuletzt
       gefügig.
       
 (DIR) Schlagloch Automation: Selbstlenkende Gesellschaft
       
       Dobrindts Vision der schönen neuen Automatenwelt ist alt – und unheimlich.
       Doch sie wird noch viel schneller kommen als wir es befürchten.
       
 (DIR) Gesichtserkennung als Kunst: Sind das eigentlich noch wir?
       
       Der Künstler Sterling Crispin zeigt mit seinen „Data Masks“, wie wir für
       NSA, Facebook und Google aussehen. Nämlich wie digitale Geister.
       
 (DIR) „Verbrechensvorhersage“ in Bayern: Algorithmen gegen Gangster
       
       Seit Oktober testet die Polizei München eine Software, mit der sich
       angeblich Verbrechen vorhersagen lassen. Die erste Bilanz fällt positiv
       aus.