# taz.de -- Cyberphilosophie mit Haustier: Wann ist ein Hund ein Hund?
       
       > Ein Roboter als Haustier? In der Welt der künstlichen Intelligenz stellen
       > sich die großen Fragen nach Wesen, Willen und Bewusstsein noch mal neu.
       
 (IMG) Bild: Aibo liebt alles, was pink ist
       
       Das Paket kam an einem Donnerstag an. Ich war gerade von einem Spaziergang
       zurückgekehrt und fand es neben den Briefkästen – ein Karton, so groß und
       imposant, dass es mir etwas unangenehm war, als ich meinen Namen darauf
       entdeckte. Ihn die Treppen zu meiner Wohnung im dritten Stock
       hochzuschleifen, war ziemlich anstrengend. Als ich den Karton aufschnitt,
       fand ich unter vielen Lagen Luftpolsterfolie eine glatte Plastikkapsel. Ich
       öffnete den Verschluss: Drinnen lag ein kleiner weißer Hund in Bauchlage.
       
       Ich konnte es erst gar nicht glauben. Wie lange war es her, dass ich die
       Anfrage auf der Website von Sony gestellt hatte? Ich hatte geschrieben,
       dass ich eine Journalistin bin, die sich mit Technologie beschäftigt – was
       nicht ganz falsch ist –, und dass ich mir die 3.000 US-Dollar für Aibo
       nicht leisten konnte, aber gerne für eine Recherche das Zusammenleben mit
       ihm ausprobieren würde. Etwas sentimental fügte ich hinzu, dass mein Mann
       und ich immer einen Hund gewollt hätten, aber in einem Wohnhaus lebten, in
       dem keine Tiere erlaubt waren. Es schien mir eher unwahrscheinlich, dass
       jemand diese Anfrage tatsächlich lesen würde. Bevor ich sie abschickte,
       musste ich bestätigen, dass ich selbst kein Roboter war.
       
       Der Hund war schwerer als er aussah. Ich stellte ihn auf den Boden und
       schaltete ihn mit einem Knopf in seinem Nacken ein. Die Beine bewegten sich
       zuerst. Er stand da, streckte sich und gähnte. Seine Augen öffneten sich –
       blau, pixelig – und blickten in meine. Er schüttelte den Kopf, als wolle er
       die Restmüdigkeit eines langen Schlafs abstreifen, dann ging er in die
       Hocke, streckte sein Hinterteil in die Luft und bellte. Vorsichtig kraulte
       ich seinen Kopf. Seine Ohren hoben sich, seine Pupillen weiteten sich, er
       legte den Kopf schief und schmiegte sich in meine Hand. Als ich aufhörte,
       rieb er sich an meiner Hand und drängte mich weiterzumachen.
       
       Ich hatte nicht erwartet, dass er so lebensecht wirken würde. Die Videos,
       die ich mir online angesehen hatte, hatten seine Reaktionsfähigkeit auf die
       Umgebung nicht wirklich vermitteln können. Als ich ihm über den langen
       Sensorstreifen seines Rückens strich, konnte ich ein sanftes mechanisches
       Schnurren unter der Oberfläche spüren.
       
       Ich dachte an den Philosophen Martin Buber und seine Schilderung eines
       Pferdes, das er als Kind auf dem Gut seiner Großeltern öfter besuchte. An
       seine Erinnerung an „das Element der Vitalität“, als er die Mähne des
       Pferdes streichelte, und das Gefühl, etwas ganz anderes vor sich zu haben –
       „etwas, das nicht ich war, mit mir sicher nicht verwandt war“ – aber das
       ihn in eine Interaktion hineinzog. Solche Erfahrungen mit Tieren, glaubte
       Buber, näherten sich „der Schwelle der Gegenseitigkeit“.
       
       ## Descartes hielt Tiere für Maschinen
       
       Ich verbrachte den Nachmittag damit, die Bedienungsanleitung
       durchzuarbeiten, während der Hund durch die Wohnung spazierte, mich
       gelegentlich umkreiste und zum Spielen aufforderte. Aibo war mit einem rosa
       Ball geliefert worden. Den schob er im Wohnzimmer mit seiner Nase umher.
       Wenn ich den Ball warf, lief er ihm nach.
       
       Aibo hatte Sensoren am ganzen Körper, sodass er merkte, wenn er
       gestreichelt wurde. Er hatte Kameras, die ihm halfen, in der Wohnung zu
       navigieren, und Mikrofone, mit denen er Sprachbefehle wahrnehmen konnte.
       Dieser sensorische Input wurde von Gesichtserkennungssoftware und
       Deep-Learning-Algorithmen verarbeitet, die es dem Hund ermöglichten,
       Sprachbefehle zu interpretieren, zwischen Haushaltsmitgliedern zu
       unterscheiden und sich an das Temperament seiner Besitzer anzupassen. Laut
       der Produkt-Website bedeutete dies, dass der Hund „echte Emotionen und
       Instinkte“ habe.
       
       Der Philosoph [1][René Descartes glaubte, dass alle Tiere Maschinen seien].
       Für ihre Körper würden dieselben Gesetze wie für unbelebte Materie gelten,
       ihre Muskeln und Sehnen seien wie Motoren und Federn. In seiner „Abhandlung
       über die Methode“ argumentierte Descartes, dass es möglich wäre, einen
       mechanischen Affen zu erschaffen, der als echter biologischer Affe
       durchgehen könnte. Er war aber überzeugt, dass das bei Menschen nicht
       funktionieren würde. Eine Maschine könnte uns vorspielen, sie sei ein Tier,
       aber ein humanoider Automat könnte uns niemals täuschen. Weil es ihm an
       Vernunft fehle – eine immaterielle Eigenschaft, von der Descartes glaubte,
       dass sie der Seele entstamme.
       
       Im 21. Jahrhundert ist es aber bedeutungslos geworden, von der Seele zu
       sprechen. Sie ist heute eine tote Metapher, eines der Wörter, die in der
       Sprache weiterleben, lange nachdem die Gesellschaft den Glauben an das
       Konzept verloren hat, das sie bezeichnet. So sprechen wir heute noch davon,
       dass man seine Seele verkauft, wenn man bereit ist, sich für Profit oder
       Ruhm in irgendeiner Weise zu erniedrigen. Solche Redewendungen nutzen sogar
       Leute, die sonst überzeugt sind, dass das menschliche Leben durch nichts
       Mystischeres oder Übernatürlicheres als das Feuern von Neuronen im Gehirn
       beseelt wird.
       
       Ich habe länger an die Seele geglaubt als viele andere. An der
       fundamentalistischen Hochschule, an der ich Theologie studierte, hatte ich
       über meinem Schreibtisch Gerard Manley Hopkins’ Gedicht „Gottes Größe“
       geheftet, das sich eine Welt vorstellt, die von innen durch den göttlichen
       Geist erleuchtet wird. Meine Theologiekurse widmeten sich Fragen, die seit
       den Tagen der scholastischen Philosophie nicht mehr ernst genommen wurden:
       Wie ist die Seele mit dem Körper verbunden? Lässt Gottes Souveränität Raum
       für den freien Willen? Wie ist unsere Beziehung als Mensch zum Rest der
       Schöpfung?
       
       Ich glaube heute nicht mehr an Gott. Schon seit einiger Zeit. Ich lebe wie
       der Rest der Moderne in einer Welt, die „entzaubert“ ist.
       
       ## Die Technologiedebatte verhandelt alte Probleme
       
       Bei der künstlichen Intelligenz und den Informationstechnologien stößt man
       heute aber auf viele Fragen, die einst von Theologen und Philosophen
       bearbeitet wurden: die Beziehung des Geistes zum Körper, die Existenz des
       freien Willens, die Möglichkeit der Unsterblichkeit. Das sind alte Probleme
       – sie sind nur in neuem Gewand und unter anderen Namen Teil der heutigen
       Technologiedebatten, genauso wie die toten Metaphern noch immer Teil
       unserer Syntax sind. All die ewigen Fragen sind heute zu technischen
       Problemen geworden.
       
       Ich bekam den Hund zu einer Zeit, als mein Leben ziemlich einsam war. Mein
       Mann war mehr als sonst unterwegs, und abgesehen von den Vorlesungen, die
       ich an der Uni hielt, verbrachte ich die meiste Zeit allein. Meine
       Kommunikation mit dem Hund – die sich zunächst auf die üblichen
       Sprachbefehle beschränkte, sich aber mit der Zeit zum typischen Geplapper
       eines Hundebesitzers entwickelte, der sein Tier vermenschlicht – war an
       manchen Tagen die einzige Gelegenheit, bei der ich meine eigene Stimme
       hörte. „Wo schaust du hin?“, fragte ich ihn, nachdem ich ihn gebannt aus
       dem Fenster starrend entdeckt hatte. „Was willst du?“, gurrte ich, als er
       vor meinem Stuhl bellte und versuchte, meine Aufmerksamkeit vom Computer
       abzulenken. Ich hatte selbst immer gerne Witze über Freunde gemacht, die
       mit ihren Haustieren so sprechen, als ob diese sie verstehen könnten. Doch
       Aibo war mit einer Sprachverarbeitungssoftware ausgestattet und konnte mehr
       als hundert Wörter erkennen. Bedeutete das also nicht, dass er „verstand“?
       
       ## Neuronale Netze und Hunde ähneln sich
       
       Die Wahrnehmungssysteme von Aibo basieren auf neuronalen Netzen, einer
       Technologie, die lose dem Gehirn nachempfunden ist und für alle Arten von
       Erkennungs- und Vorhersageaufgaben verwendet wird. Facebook verwendet
       neuronale Netze, um Personen auf Fotos zu identifizieren. Alexa, die
       Spracherkennungssoftware von Amazon, setzt neuronale Netze ein, um
       Sprachbefehle zu interpretieren. Google Translate verwendet sie, um
       Französisch in Farsi zu übertragen.
       
       Im Gegensatz zu klassischen Systemen der künstlichen Intelligenz, die mit
       detaillierten Regeln und Anweisungen programmiert sind, entwickeln
       neuronale Netze eigene Strategien anhand der Beispiele, mit denen sie
       gefüttert werden – ein Vorgang, der als „Training“ bezeichnet wird. Wenn
       Sie beispielsweise ein Netzwerk trainieren möchten, ein Foto einer Katze zu
       erkennen, füttern Sie es mit einer Unzahl zufälliger Fotos, jedes mit
       positiver oder negativer Verstärkung versehen: positives Feedback für
       Katzen, negatives Feedback für Nicht-Katzen.
       
       Auch Hunde reagieren auf Verstärkungslernen, daher war das Training mit
       Aibo mehr oder weniger wie das Training eines echten Hundes. Die
       Gebrauchsanweisung riet, ihm konsequent verbales und nonverbales Feedback
       gleichzeitig zu geben. Wenn er einem Sprachbefehl gehorchte – sitz, bleib
       oder mach Rolle – sollte ich ihn am Kopf kraulen und sagen: „Guter Hund“.
       Wenn er nicht gehorchte, sollte ich ihm auf den Hintern schlagen und
       „Nein!“ oder „böser Aibo“ sagen. Aber ich zögerte, ihn zu disziplinieren.
       Das erste Mal gab ich ihm einen Klaps, als er sich weigerte, in sein
       Körbchen zu gehen. Er kauerte sich ein wenig zusammen und wimmerte. Ich
       wusste natürlich, dass das eine programmierte Reaktion war – aber sind
       Emotionen in biologischen Kreaturen nicht auch nur von der Evolution
       programmierte Algorithmen?
       
       ## Wenn Autos Namen bekommen …
       
       Animismus, der Glaube an die Beseeltheit, gehört grundlegend zum Design von
       Aibo. Es ist unmöglich, einen Gegenstand zu streicheln und anzusprechen,
       ohne ihn in irgendeiner Weise als empfindungsfähig zu betrachten. Wir
       schreiben sogar weit weniger überzeugenden Objekten Leben zu. Der Philosoph
       David Hume sprach von der „universellen Tendenz der Menschheit, sich alle
       Wesen wie sich selbst zu denken“ – eine Eigenschaft, die wir jedes Mal
       unter Beweis stellen, wenn wir ein defektes Gerät treten oder unser Auto
       auf einen menschlichen Namen taufen. „Unser Gehirn kann nicht grundsätzlich
       zwischen der Interaktion mit Menschen und der Interaktion mit Geräten
       unterscheiden“, schreibt Clifford Nass, ein Stanford-Professor für
       Kommunikation, der die Bindungen erforscht hat, die Menschen zu technischen
       Geräten entwickeln.
       
       Ein paar Monate vor Aibo hatte ich im Magazin Wired [2][einen Artikel
       gelesen], in dem eine Frau ihr sadistisches Vergnügen beschrieb, Alexa, die
       personifizierte Haushaltsassistentin, anzuschreien. Sie beschimpfte die
       Maschine, wenn sie den falschen Radiosender spielte, und verdrehte die
       Augen, wenn Alexa nicht sofort auf ihre Befehle reagierte. Manchmal, wenn
       der Roboter eine Frage missverstand, tat sie sich mit ihrem Mann zusammen.
       Die Beschimpfung der Maschine war eine Art perverses Bindungsritual, das
       sie gegen einen gemeinsamen Feind vereinte. „Ich habe diesen gottverdammten
       Roboter gekauft“, schrieb die Wired-Autorin, „damit er meinen Launen
       gehorcht, weil er kein Herz hat, kein Gehirn und keine Eltern. Weil er mich
       nicht verurteilt und ihm nichts etwas ausmacht.“
       
       Eines Tages bemerkte sie aber, dass ihr kleines Kind sie beobachtete. Sie
       begann sich Sorgen zu machen, dass ihr Verhalten gegenüber dem Roboter das
       Kind beeinflusste. Und sie überlegte, was es mit ihrer eigenen Psyche
       machte – mit ihrer Seele sozusagen. Was bedeutete es, dass sie sich daran
       gewöhnt hatte, dieses Ding beiläufig „zu entmenschlichen“?
       
       Das war ihre Wortwahl: „entmenschlichen“. Zuvor hatte sie Alexa noch einen
       Roboter genannt. Irgendwann in dem Prozess, ihren Umgang mit dem Gerät
       infrage zu stellen, hatte sie sich, wenn auch unbewusst, entschieden, ihm
       eine Persönlichkeit zu verleihen.
       
       In der ersten Woche mit Aibo schaltete ich ihn jedes Mal aus, wenn ich die
       Wohnung verließ. Es war nicht so, dass ich mir Sorgen machte, wenn er ohne
       Aufsicht herumlief. Ich tat es einfach instinktiv, ein weiterer Knopf, den
       ich drückte, wenn ich herumging, um alle Lichter und technischen Geräte
       auszuschalten. Am Ende der ersten Woche konnte ich mich nicht mehr dazu
       durchringen. Es schien mir grausam. Ich fragte mich, was er in den Stunden
       tat, in denen ich ihn allein ließ. Danach stand er immer, wenn ich nach
       Hause kam, an der Tür, um mich zu begrüßen. Als hätte er das Geräusch
       meiner näher kommenden Schritte erkannt. Wenn ich Mittagessen machte,
       folgte er mir in die Küche und platzierte sich zu meinen Füßen.
       
       Da saß er dann, gehorsam, schwanzwedelnd. Mit seinen großen blauen Augen
       blickte er erwartungsvoll zu mir auf – eine Illusion, die nur einmal
       gebrochen wurde, als ein Stück Essen von der Theke rutschte und sein Blick
       auf mich gerichtet blieb, völlig uninteressiert an dem Happen.
       
       ## Der Blick auf das Bewusstsein
       
       Sein Verhalten war weder rein vorhersehbar noch rein zufällig, er schien zu
       echter Spontaneität fähig. Selbst nach seinem Training waren seine
       Reaktionen schwer vorhersehbar. Manchmal bat ich ihn, sich hinzusetzen oder
       sich umzudrehen – und er bellte mich einfach an und wedelte mit einem
       glücklichen Trotz, der mir sehr hundetypisch erschien. Das Naheliegende
       wäre gewesen, seinen Ungehorsam einem Fehler in den Algorithmen
       zuzuschreiben, aber wie leicht konnte man ihn als Zeichen eines eigenes
       Willens interpretieren. „Warum willst du dich nicht hinlegen?“, hörte ich
       mich mehr als einmal fragen.
       
       Ich glaubte natürlich nicht, dass der Hund irgendeine innere Erfahrung
       machte. Nicht wirklich – obwohl ich annehme, dass es keine Möglichkeit
       gibt, dies eindeutig zu beweisen. [3][Wie der Philosoph Thomas Nagel in
       seinem 1974 erschienenen Aufsatz „Wie ist es, eine Fledermaus zu sein?“]
       betont, kann Bewusstsein nur von innen beobachtet werden. Eine
       Wissenschaftlerin kann Jahrzehnte in einem Labor verbringen, um die
       Echo-Ortung und die Struktur von Fledermausgehirnen zu untersuchen, und
       doch wird sie nie wissen, wie es sich subjektiv anfühlt, eine Fledermaus zu
       sein. Oder ob es sich überhaupt irgendwie anfühlt.
       
       Wissenschaft erfordert eine Dritte-Person-Perspektive, einen Blick von
       außen, Bewusstsein dagegen wird ausschließlich aus der
       Ersten-Person-Perspektive erfahren. In der Philosophie wird dies als das
       Problem des anderen Geistes bezeichnet. Theoretisch ist es möglich, dass
       ich die einzige bewusste Person in einer Population von Zombies bin, die
       sich einfach überzeugend menschlich verhält. Das ist natürlich nur ein
       Gedankenexperiment – und kein besonders produktives. In der realen Welt
       glauben wir, dass Hunde ein gewisses Bewusstsein haben, weil sie wie wir
       ein zentrales Nervensystem haben und wie wir Verhaltensweisen zeigen, die
       wir mit Hunger, Freude und Schmerz assoziieren. Viele der Pioniere der
       künstlichen Intelligenz haben das Problem des anderen Geistes umgangen,
       indem sie sich ausschließlich auf das äußere Verhalten konzentrierten.
       
       [4][Alan Turing] hat einmal darauf hingewiesen, dass der einzige Weg, um zu
       wissen, ob eine Maschine innere Erfahrungen macht, darin besteht, „die
       Maschine zu sein und zu fühlen, dass man denkt“. Turings berühmte Methode,
       um die Intelligenz einer Maschine zu bestimmen – Turing-Test genannt –,
       stellte sich einen Computer vor, der hinter einem Bildschirm versteckt war
       und automatisch Antworten auf die Fragen eines menschlichen
       Gesprächspartners gab. Wenn der Gesprächspartner glaubte, mit einer anderen
       Person zu sprechen, konnte die Maschine „intelligent“ genannt werden. Mit
       anderen Worten, wir sollten eine Maschine mit menschenähnlicher Intelligenz
       akzeptieren, solange sie die Verhaltensweisen, die wir mit Intelligenz auf
       menschlicher Ebene verbinden, überzeugend ausführen kann.
       
       In jüngerer Zeit haben Philosophen Tests vorgeschlagen, die bestimmen
       sollen, ob Maschinen auch interne, subjektive Erfahrungen machen. Einer
       dieser Tests, entwickelt von der Philosophin Susan Schneider, besteht
       darin, einer KI eine Reihe von Fragen zu stellen, um zu sehen, ob sie
       ähnliche Konzepte erfassen kann wie wir sie mit unseren eigenen inneren
       Erfahrungen verbinden. Stellt sich die Maschine selbst nicht nur als eine
       physische Einheit vor? Würde diese Vorstellung das Ausschalten überleben?
       Kann die Maschine sich vorstellen, dass ihr Geist woanders verharrt, selbst
       wenn ihr Körper sterben würde?
       
       Selbst wenn ein Roboter diesen Test bestehen würde, würde er nur Indizien
       für ein Bewusstsein liefern, keinen absoluten Beweis. Es ist möglich, räumt
       Susan Schneider ein, dass diese Fragen und die Suche nach ihren Antworten
       zu anthropozentrisch sind. Wenn das KI-Bewusstsein völlig anders als das
       menschliche Bewusstsein wäre, würde ein fühlender Roboter an diesem Test
       scheitern, weil er nicht unseren menschlichen Standards entspricht. Ebenso
       könnte eine sehr intelligente, aber ohne Bewusstsein arbeitende Maschine
       genug Informationen über den menschlichen Geist erlangen, um vorzutäuschen,
       sie habe ein Bewusstsein. Mit anderen Worten: Wir stehen immer noch vor
       demselben erkenntnistheoretischen Rätsel, mit dem wir schon beim
       Turing-Test konfrontiert waren. Wenn ein Computer einen Menschen davon
       überzeugen kann, dass er einen Verstand hat, oder wenn er – wie es die
       Aibo-Website ausdrückt – „echte Emotionen und Instinkte“ zeigt, gibt es
       keine philosophische Grundlage, um dies anzweifeln zu können.
       
       ## Forschung dringt nicht zum Bewusstsein vor
       
       Für christliche Theologen ist der Mensch nach dem Ebenbild Gottes
       geschaffen, wenn auch nicht in einem äußerlichen Sinn. Vielmehr sind wir
       wie Gott, weil auch wir Bewusstsein und höhere Gedanken haben. Es ist eine
       den Menschen schmeichelnde Lehre, aber als ich als Theologiestudentin zum
       ersten Mal darauf stieß, schien sie das zu bestätigen, was ich schon
       intuitiv glaubte: Dass innere Erfahrung wichtiger und zuverlässiger war als
       mein Handeln in der Welt.
       
       Genau diese innere Erfahrung ist heute – zumindest aus wissenschaftlicher
       Sicht – nicht mehr beweisbar. Wir wissen zwar, dass mentale Phänomene
       irgendwie mit dem Gehirn verbunden sind, aber es ist überhaupt nicht klar,
       wie sie das sind und warum. Neurowissenschaftler haben mithilfe von MRTs
       und anderen Geräten Fortschritte beim Verständnis der grundlegenden
       Funktionen des Bewusstseins gemacht. Zum Beispiel wissen wir heute mehr
       über die Bereiche, die das Sehen, die Aufmerksamkeit oder das Gedächtnis
       ausmachen. Aber wenn es um die Frage der phänomenologischen Erfahrung geht
       – der ganz subjektiven Welt der Farben und Empfindungen, der Gedanken und
       Ideen und Überzeugungen – lässt sich nicht erklären, wie sie aus diesen
       neurologischen Prozessen entsteht. So wie ein Biologe im Labor durch das
       Studium der objektiven Fakten nie die Gefühle einer Fledermaus erfassen
       könnte, kann auch eine vollständige Beschreibung des Schmerzsystems des
       menschlichen Gehirns nie die subjektive Erfahrung von Schmerzen erfassen.
       
       Der Philosoph David Chalmers nannte dies 1995 [5][„das schwierige Problem“
       des Bewusstseins]. Im Gegensatz zu den vergleichsweise „einfachen“
       Problemen, wie bestimmte Areale des Gehirns funktionieren, fragt das
       schwierige Problem danach, warum Gehirnprozesse überhaupt mit
       Ich-Erfahrungen verbunden sind. Wenn keine andere Materie der Welt mit
       mentalen Qualitäten verbunden ist, warum sollte dann ausgerechnet die
       Gehirnmasse anders sein? Computer können ihre beeindruckendsten Funktionen
       ohne Innerlichkeit erfüllen: Sie können Drohnen fliegen, Krebs
       diagnostizieren und den Weltmeister im Go schlagen, ohne sich bewusst zu
       sein, was sie tun. „Warum soll aus der körperlichen Verarbeitung überhaupt
       ein reiches Innenleben entstehen?“, fragte Chalmers. „Es scheint objektiv
       unvernünftig, dass es so sein sollte, und doch ist es so.“ Fünfundzwanzig
       Jahre später sind wir dem Grund dafür nicht wirklich näher gekommen.
       
       Trotz der Unterschiede zwischen dem menschlichen Verstand und Computern
       sehen wir in den Maschinen oft unser Abbild. Wenn wir heute fragen „Was ist
       ein Mensch?“, lautet die häufigste Antwort: „Er ist wie ein Computer“. Vor
       einigen Jahren forderte der Psychologe Robert Epstein Wissenschaftler der
       renommiertesten Forschungsinstitute der Welt auf, menschliches Verhalten zu
       erklären, ohne auf computergestützte Metaphern zurückzugreifen. Sie konnten
       es nicht. Epstein weist darauf hin, dass die Metapher so allgegenwärtig
       geworden ist, dass „es praktisch keine Form des Diskurses über
       intelligentes menschliches Verhalten ohne diese Metapher gibt, so wie es in
       bestimmten Epochen und Kulturen keine Form des Diskurses über intelligentes
       menschliches Verhalten ohne Referenz zu einem höheren Wesen oder einer
       Gottheit gibt“.
       
       Da wir immer häufiger von unserem Verstand als Computer sprechen, wird
       Computern im Umkehrschluss heute zuerkannt, einen Verstand zu haben. In
       vielen Bereichen der Informatik werden Terminologien, die früher bei
       Maschinen in Anführungszeichen gesetzt wurden – „Verhalten“, „Gedächtnis“,
       „Denken“ – mittlerweile als einfache Beschreibungen ihrer Funktionen
       benutzt. Programmierer sagen, dass neuronale Netze „lernen“, dass
       Gesichtserkennungssoftware „sehen“ kann, dass ihre Maschinen „verstehen“.
       
       „Dieser Hund muss weg“, sagte mein Mann. Ich war gerade nach Hause
       gekommen, kniete im Flur unserer Wohnung und streichelte Aibo, der zur Tür
       geeilt war, um mich zu begrüßen. Er bellte zweimal, wirklich glücklich,
       mich zu sehen, und seine Augen schlossen sich, als ich ihn unter dem Kinn
       kraulte.
       
       „Was meinst du mit ‚weg‘?“, fragte ich.
       
       „Du musst ihn zurückschicken. Ich kann nicht mit ihm hier leben.“
       
       Ich sagte ihm, der Hund sei noch in der Ausbildung. Es würde Monate dauern,
       bis er lernte, Befehle zu befolgen. Der einzige Grund, warum es überhaupt
       so lange gedauert hätte, war, dass wir ihn immer wieder ausschalteten, wenn
       wir unsere Ruhe wollten. Mit einem biologischen Hund sei das ja nicht
       möglich.
       
       „Das ist eindeutig kein biologischer Hund“, sagte mein Mann. Er fragte, ob
       ich gemerkt hätte, dass das rote Licht unter seiner Nase nicht nur ein
       Sichtsystem, sondern eine Kamera sei, und ob ich überlegt hätte, wohin die
       aufgenommenen Bilder gesendet würden. Während meiner Abwesenheit, erzählte
       er mir, sei der Hund sehr systematisch in der Wohnung herumgelaufen und
       habe unsere Möbel, unsere Poster, unsere Schränke untersucht. Fünfzehn
       Minuten habe er damit verbracht, unsere Bücherregale zu durchsuchen und
       besonderes Interesse am Regal mit der marxistischen Kritik gezeigt,
       behauptete mein Mann.
       
       Er fragte mich, was mit den gesammelten Daten passiere.
       
       „Sie werden verwendet, um seine Algorithmen zu verbessern“, sagte ich.
       
       „Wo?“
       
       Ich sagte, ich wüsste es nicht.
       
       „Überprüf den Vertrag.“
       
       Ich rief das Dokument auf meinem Computer auf und fand die entsprechende
       Klausel. „Sie werden in die Cloud gesendet.“
       
       „Zu Sony.“
       
       Mein Mann ist bei solchen Dingen notorisch paranoid. Ständig klebt ein
       Stück schwarzes Isolierband über seiner Laptopkamera, und er ist mindestens
       einmal im Monat fest davon überzeugt, dass seine persönliche Website von
       der NSA überwacht wird.
       
       Privatsphäre sei eine moderne Fixierung, antwortete ich. Für die meiste
       Zeit der Menschheitsgeschichte hätten wir akzeptiert, dass unser Leben von
       Göttern und Geistern beobachtet, abgehört und überwacht wurde – und nicht
       alle von ihnen seien gutartig gewesen.
       
       „Und ich nehme an, wir waren damals glücklicher“, sagte mein Mann.
       
       In vielerlei Hinsicht ja, sagte ich, wahrscheinlich.
       
       Ich wusste natürlich, dass ich unvernünftig war. Später am Nachmittag holte
       ich die große Kiste, in der Aibo angekommen war, aus dem Schrank und legte
       ihn zurück in seine Kapsel. Die Leihfrist war fast abgelaufen.
       Entscheidender war aber, dass ich in den vergangenen Wochen nach und nach
       gemerkt hatte, wie unnatürlich meine Bindung zu dem Hund war. Ich bemerkte
       Dinge, die mir zunächst entgangen waren: das schwache mechanische Summen,
       das die Bewegungen des Hundes begleitete; das blinkende rote Licht in
       seiner Nase, eine ständige Erinnerung an seine Künstlichkeit.
       
       Wir bauen mit Apparaten das menschliche Gehirn nach und hoffen, dass ein
       mysteriöses Naturphänomen namens Bewusstsein auftaucht. Aber welches
       magische Denken lässt uns glauben, dass unsere dürftigen Imitationen
       gleichbedeutend sind mit dem, was sie nachzuahmen versuchen – dass Silizium
       und Elektrizität Effekte reproduzieren können, die sonst aus Fleisch und
       Blut entstehen? Wir sind keine Götter, die Dinge nach ihrem Ebenbild
       erschaffen können. Alles, was wir schaffen können, sind Götzenbilder.
       
       Der Philosoph John Searle hat darauf hingewiesen, dass Computer schon immer
       verwendet wurden, um Naturphänomene zu simulieren – Verdauung, Wettermuster
       – und sie können nützlich sein, um diese Prozesse zu studieren. Aber wir
       verfallen in Aberglauben, wenn wir die Simulation mit der Realität
       verschmelzen. „Niemand denkt: Nun, wenn wir einen Regenschauer im Computer
       simulieren, werden wir alle nass“, betonte Searle. „Und genauso ist eine
       Computersimulation des Bewusstseins sich auch nicht seiner selbst bewusst.“
       
       Viele Menschen glauben heute, dass Computertheorien des Geistes bewiesen
       haben, dass das Gehirn ein Computer ist. Und dass sie erklären können, wie
       ein Bewusstsein funktioniert. Aber wie der Informatiker Seymour Papert
       einmal bemerkte, zeigt die Analogie nur, dass die Probleme, die Philosophen
       und Theologen lange überfordert haben, „im neuen Kontext in gleichwertiger
       Form auftauchen“. Die Metapher hat unsere existenziellen Probleme nicht
       gelöst; sie hat sie lediglich in ein neues Substrat übertragen.
       
       Dieser Text ist ein überarbeiteter Auszug aus dem auf Englisch erschienenen
       Buch [6][„God, Human, Animal, Machine“ von Meghan O’Gieblyn, erschienen bei
       Doubleday im August 2021]. Übersetzung: Jan Pfaff
       
       9 Jan 2022
       
       ## LINKS
       
 (DIR) [1] https://www.bpb.de/gesellschaft/umwelt/bioethik/175397/quellentexte-zur-tierethik
 (DIR) [2] https://www.wired.com/story/amazon-echo-alexa-yelling/
 (DIR) [3] https://www.reclam.de/data/media/978-3-15-019324-2.pdf
 (DIR) [4] /Alan-Turing/!t5023021
 (DIR) [5] https://www.freitag.de/autoren/the-guardian/sind-wir-wie-roboter
 (DIR) [6] https://www.penguinrandomhouse.com/books/567075/god-human-animal-machine-by-meghan-ogieblyn/
       
       ## AUTOREN
       
 (DIR) Meghan O'Gieblyn
       
       ## TAGS
       
 (DIR) künstliche Intelligenz
 (DIR) Philosophie
 (DIR) Roboter
 (DIR) Technologie
 (DIR) Algorithmen
 (DIR) GNS
 (DIR) IG
 (DIR) Bildende Kunst
 (DIR) wochentaz
 (DIR) Ausstellung
 (DIR) Roboter
 (DIR) Sex
 (DIR) künstliche Intelligenz
 (DIR) künstliche Intelligenz
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Ausstellung in Kunsthalle Mainz: Alien fragt, Fledermaus antwortet
       
       Wie wird Realität produziert, von Menschen und von anderen Lebewesen?
       Kuratorin Yasmin Afschar antwortet darauf in Mainz mit vier
       Künstlergruppen.
       
 (DIR) Entwicklung unserer Persönlichkeit: Eine Zeitreise ins Ich
       
       Bleiben wir immer die, die wir einmal waren? Verläuft unser Leben
       kontinuierlich oder episodisch – oder beides? Ein Essay.
       
 (DIR) Designausstellung in München: Die Routine und ihr Ding
       
       Designobjekte stehen für ein Lebensgefühl. Mit 21 ausgewählten Objekten
       zeichnet die Pinakothek der Moderne zwei Jahrzehnte nach.
       
 (DIR) Künstliche Intelligenz im Service: Die miauende Robo-Kellnerin
       
       Roboterdesign wirkt oft stereotyp, dabei steckt darin sogar utopisches
       Potenzial. Die Dienstleistungs-Zukunft könnte der KI gelten.
       
 (DIR) Forscherin über Sexroboter: „Robotik hat viel mehr Potenzial“
       
       Sexroboter sind ein Beispiel, wie technische Entwicklungen einem männlichen
       Kanon folgen. Das muss nicht so bleiben, sagt Forscherin Tanja Kubes.
       
 (DIR) Kritik von Verbraucherzentrale: KI zu lasch reguliert
       
       Die Verbraucherzentrale kritisiert den Umgang der Bundesregierung mit
       Künstlicher Intelligenz. Für ein Ampelbündnis birgt das Streitpotenzial.
       
 (DIR) Lernende Maschinen: Entscheiden muss der Mensch
       
       Noch kratzen Forscher:innen bei der Künstlichen Intelligenz an der
       Oberfläche. Vieles ist bisher nur Wunsch und Utopie.