# taz.de -- Algorithmen im Internet: „Die Maschinen entscheiden für uns“ > Sie regulieren immer mehr Bereiche unseres Lebens – ohne dass wir > verstehen, was genau Algorithmen tun. Nicht gut, sagt Techniksoziologin > Zeynep Tufekci. (IMG) Bild: Lebt nicht, handelt aber. taz: Frau Tufekci, nach den Unruhen von Ferguson waren Posts darüber auf Ihrer Facebook-Timeline lange nicht sichtbar. Was ist da passiert? Zeynep Tufekci: Facebook hat einen Algorithmus eingesetzt, und der bevorzugt Dinge, die gelikt werden. Dadurch werden negative Nachrichten als weniger wichtig behandelt. Facebook bietet keine Möglichkeit an, auszudrücken, dass man etwas wichtig findet oder etwas nicht mag. Dafür gibt es keinen Button. So hat Facebook Regeln aufgestellt. Und die diskriminieren eine bestimmte Art von Geschichten und pushen eine andere. Während der Ferguson-Proteste war das zum Beispiel die Icebucketchallenge – an sich nichts Schlechtes, aber sie begrub alle anderen Nachrichten. In den USA bekommen 30 Prozent der Menschen ihre Informationen über Facebook. Bei den Jungen sind es vielleicht noch mehr. Facebook hat eine neue publizistische Funktion. Sie stellen die Regeln auf, wie Inhalte kuratiert werden. Abstrakt gefragt: Kann Algorithmen eine Ethik innewohnen? Ja, und zwar insofern, als sie Konsequenzen für unser tägliches Leben haben – und diese Konsequenzen können wir als unethisch empfinden. Die Maschinen agieren selbstständig. Sie sind zwar nicht lebendig, aber sie sind handlungsmächtig. Das ist etwas Neues: Eine Maschine, die agiert, so als wäre sie eine Art Lebewesen. Es ist schwer, einen Begriff dafür zu finden. So etwas gab es in der Geschichte bislang noch nicht. Welche Konsequenzen hat das? Wir übertragen unsere Handlungsmacht auf Maschinen. In manchen Fällen kann das nützlich sein. Aber häufig gehören die Algorithmen großen Unternehmen – und deren Ziel ist es nicht zwangsläufig, unser Leben einfacher oder besser zu machen. Meist wollen sie Profite erzielen oder Entscheidungshilfen für Regierungen bereitstellen. Darum stellt sich die Frage, wie wir Algorithmen für ethische Zwecke anwenden können. Hört sich an, als würden Sie Algorithmen generell kritisch gegenüberstehen. Es mag legitime Anwendungen geben. Selbst bei großen Unternehmen. Aber wenn wir so viel Handlungsmacht übertragen, müssen wir mal einen frischen Blick auf die Folgen werfen, gerade in Verbindung mit all den Daten, die über uns gesammelt werden. Diese Daten werden genutzt, um Entscheidungen über uns zu treffen, von denen wir vielleicht noch nicht einmal wissen. Und von denen wir nicht verstehen, warum sie getroffen werden. Noch mal zurück zu den Facebook-Nachrichten über Ferguson: Was hätte Facebook danach tun können? Sie hätten sich die Konsequenzen ansehen und Fragen stellen können. Wollen wir das? Wollen unsere Nutzer das? Auch könnte Facebook den Nutzern mehr Macht über ihren Newsfeed geben. Facebook gibt viel Geld aus, um neue Produkte zu entwickeln, besonders im Bereich Werbung. Es gibt viel, was man tun kann. Das ist eine Frage der Prioritätensetzung. Wenn Unternehmen nur einen Bruchteil ihrer Ressourcen, die sie dafür ausgeben, diese Systeme zu erschaffen, investieren, um zu hinterfragen, was diese Systeme tun, könnte man viel tun. Verstehen Programmierer heute noch, warum ihre Algorithmen auf eine bestimmte Weise reagieren? Nein. Besonders dann nicht, wenn es sich um maschinelles Lernen handelt. Man setzt den Algorithmus auf einen Datensatz an und befiehlt ihm, sich einen Reim darauf zu machen. Man sagt ihm nicht, wie genau er das tun soll, sondern gibt ihm einfach jede Menge Daten und verlangt einen Output. Den schaut man sich dann an – und gibt der Maschine dann Feedback, wo sie richtig gelegen hat. So trainiert man sie. Man kann vermuten, wie sie zu dem Ergebnis gekommen ist. Aber wenn das Problem komplex ist, weiß man das nicht genau. Wie können Algorithmen dann gezähmt werden? Muss die Politik eingreifen? Nicht unbedingt. Wir unterziehen Autos Sicherheitstests – da stecken wir auch Ressourcen rein. Die Frage ist, ob die Firmen das zu einer Priorität machen. Man sollte einfach mal anfangen und dann überlegen, wie man weitermacht, wenn man auf heikle Fragen stößt. Das Thema wird immer drängender. Schließlich spielen Algorithmen in immer mehr Lebensbereichen eine Rolle: bei der Polizei, manchmal sogar in Prozessen … … in der Personalpolitik, im Städtebau, bei der Suche nach Terroristen – all das überlassen wir mehr und mehr algorithmengestützten Systemen. Und das passiert sehr schnell. Aber es gibt sehr wenige Menschen, die das tatsächlich wahrnehmen. Das finde ich sehr verwunderlich, weil diese Systeme alles beeinflussen werden – von der Frage, wer einen Job bekommt, bis zu der, wer als Terrorist eingestuft wird. Facebook ist ein Beispiel dafür. Damit können die Menschen etwas anfangen. Aber das ist nur ein kleines System in einem riesigen Ökosystem von computergestützten Entscheidungsfindungsprozessen, die einen gigantischen Einfluss haben. Wo sind die Mechanismen, um Algorithmen zu überprüfen oder sie zu kontrollieren? Wo macht man sich Gedanken über die Auswirkungen, wenn Algorithmen Fehler machen? Wie lernen wir, mit Fehlern umzugehen, die Maschinen machen? Algorithmen liegen richtig und sie liegen falsch. Beides ist ein Problem. Wenn sie identifizieren, wer emotional verletzlich oder deprimiert ist, dann ist das ein Problem, zum Beispiel wenn Gesichtserkennung von Werbern dafür genutzt wird, uns mithilfe dieser Analyse Produkte zu verkaufen. Ebenso, wenn sie die sexuelle Orientierung berechnen oder die Tatsache, dass jemand schwanger sein könnte und man ihn deshalb besser nicht einstellt. Wenn die Maschinen das richtig erkennen, ist das ein Problem, weil sie einen dann auf dieser Basis diskriminieren können. Und wenn sie etwas falsch identifizieren, ist das auch ein Problem. Darum müssen wir überlegen, wie akkurat solche Prognosen sind. Entstehen Nachteile, wenn der Algorithmus korrekt identifiziert, dass jemand schwul ist? In vielen Ländern gibt es solche Nachteile. Man stelle sich nur mal vor, die Regierung von Uganda hätte die Analyse von Facebook vorliegen, wer schwul sein könnte. Nehmen wir doch mal das Beispiel von Marketing per algorithmengestützte Gesichtserkennung. Wie könnte man dagegen vorgehen? Die Leute in der Wissenschaftscommunity könnten sich weigern, daran zu arbeiten. Unternehmen können sich selbst regulieren und Verhaltenskodizes entwickeln, so wie im Bereich Nukleartechnologie. Regierungen können Gesetze erlassen, die besagen, dass man nichts verkauft bekommt, wenn automatische Erfassung stattfindet. Wenn wir den Maschinen Entscheidungen mit so weitreichenden Konsequenzen anvertrauen, dann brauchen wir irgendeine Form von Zugang, von Überprüfung und von Transparenz. Das sind schwierige Fragen. Aber so war das auch bei Nuklearwaffen. Und da haben wir auch nicht gesagt: Dann baut halt jeder eine Atombombe, und wir schauen, was passiert. Sollen wir komplett aufhören, Algorithmen zu nutzen? Die Katze ist aus dem Sack. Ich glaube nicht, dass man das aufhalten kann. Aber es gibt viele Möglichkeiten, wie sich das entwickeln kann. Und es gibt keinen Grund, warum Algorithmen nur für Anwendungen genutzt werden sollten, die uns stören oder schaden. Stehen wir mit all diesen Versuchen unter Zeitdruck? Ja. Das muss jetzt passieren. Und wir müssen sehr schnell sein, weil diese Technologien sehr schnell angewendet werden. Darum glaube ich, dass Industrie und Wissenschaft in der Community gerade in der besten Position sind, jetzt zu handeln. Denn die Politik wird noch eine Weile brauchen, um aufzuholen. 17 Apr 2015 ## AUTOREN (DIR) Meike Laaff ## TAGS (DIR) Schwerpunkt Facebook (DIR) Internet (DIR) Algorithmen (DIR) Gedöns (DIR) Justiz (DIR) Polizei (DIR) Texas (DIR) Internet (DIR) Performance (DIR) Digitalisierung (DIR) Gesichtserkennung (DIR) Polizei ## ARTIKEL ZUM THEMA (DIR) Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“ Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten. (DIR) Algorithmen im Justizsystem: 72 Prozent Mordwahrscheinlichkeit In den USA berechnen Computerprogramme, wie gefährlich Menschen sind. Damit könne man Leben retten, sagt ein Statistiker. (DIR) Tierärztin tötet Katze: Pfeil im Kopf Eine Tierärztin aus Texas sorgt für Empörung. Mit Pfeil und Bogen tötete sie einen Kater und posierte mit dem Tier auf Facebook. Belangt wurde sie bislang nicht. (DIR) Personalisierte Doku zum Tracking: Sie folgen dir fast überall Eine Webdoku von Arte und BR zeigt, wie Verhalten im Netz analysiert wird. Der Nutzer kann anhand seiner eigenen Daten sehen, wer ihn überwacht. (DIR) Überwachungsexperiment in Berlin: Gemeine Verunsicherung Eine Schnitzeljagd zu den Mechanismen der Angst und Paranoia: Die "yoUturn"-Tour macht den Teilnehmer zum Überwachungsopfer. Und zuletzt gefügig. (DIR) Schlagloch Automation: Selbstlenkende Gesellschaft Dobrindts Vision der schönen neuen Automatenwelt ist alt – und unheimlich. Doch sie wird noch viel schneller kommen als wir es befürchten. (DIR) Gesichtserkennung als Kunst: Sind das eigentlich noch wir? Der Künstler Sterling Crispin zeigt mit seinen „Data Masks“, wie wir für NSA, Facebook und Google aussehen. Nämlich wie digitale Geister. (DIR) „Verbrechensvorhersage“ in Bayern: Algorithmen gegen Gangster Seit Oktober testet die Polizei München eine Software, mit der sich angeblich Verbrechen vorhersagen lassen. Die erste Bilanz fällt positiv aus.