# taz.de -- Künstliche Intelligenz im Krieg: Im Angesicht des Todes
       
       > Das ukrainische Militär setzt Gesichtserkennung ein, um tote russische
       > Soldaten zu identifizieren. Die Technik wirft seit einiger Zeit Fragen
       > auf.
       
 (IMG) Bild: Die Software der Firma Clearview AI soll helfen, Leichen russischer Soldaten zu identifizieren
       
       Auf den Schlachtfeldern der Ukraine liegen unzählige tote Soldaten:
       russische, ukrainische, Söldner. Viele dieser jungen russischen Männer
       wussten oder wissen nicht, in welchen mörderischen und verbrecherischen
       Krieg sie ihr Präsident geschickt hat, einige glauben, sie führen [1][ein
       Militärmanöver] durch. Und auch zu Hause sollen die Eltern nicht erfahren,
       dass ihr Sohn im Krieg gefallen ist.
       
       Die ukrainische Regierung will nun Gesichtserkennung einsetzen, um die
       Leichen russischer Soldaten zu identifizieren und Familienangehörige zu
       informieren. Wie die Nachrichtenagentur Reuters berichtet, greift das
       Verteidigungsministerium dabei auf die Software [2][der Firma Clearview AI
       zurück]. Mit dem System, das von Tausenden US-Regierungsbehörden eingesetzt
       und [3][der Ukraine nun kostenlos] zur Verfügung gestellt wird, lassen sich
       automatisiert Gesichter mit Fotos von Social-Media-Profilen abgleichen.
       
       Ob die Technik nur zur Identifizierung von Leichen oder auch zur Enttarnung
       russischer Spione genutzt wird, ist unklar. Die Meldung ist jedenfalls
       brisant: Die Überwachungsfirma hat [4][nach eigenen Angaben] eine
       biometrische Datenbank von zehn Milliarden Fotos aufgebaut, die sie aus
       öffentlich zugänglichen Plattformen wie Facebook, Instagram und Twitter
       abgesaugt hat. Zum Vergleich: [5][Das FBI] hat in seiner Datenbank rund 640
       Millionen Fotos aus Gesichtserkennungssystemen. Pikant: Ein nicht
       unbeträchtlicher Teil der Datengrundlage, nämlich zwei Milliarden Fotos,
       speist sich aus dem russischen Onlinedienst VKontakte.
       
       Datenschützer laufen seit Jahren Sturm gegen die Gesichtersuchmaschine –
       nicht zuletzt, weil die Software zum Missbrauch einlädt: Polizisten können
       anlasslos Daten abfragen und damit Personen stalken. In zahlreichen Ländern
       gibt es juristische Verfahren. So hat beispielsweise Kanadas oberster
       Datenschützer Clearview AI [6][als illegale Massenüberwachun]g eingestuft,
       [7][die französische Datenschutzbehörde CNIL] hat die Firma unter Verweis
       auf eine Verletzung der europäischen Datenschutzgrundverordnung (DSGVO)
       aufgefordert, die Daten zu löschen, die britische und italienische
       Datenschutzbehörde haben [8][Millionenstrafen verhängt.] Vor diesem
       Hintergrund ist der Einsatz der Software in der Ukraine rechtlich
       fragwürdig. Ist eine dubiose Datenfirma ein geeigneter Verbündeter? Klar,
       es ist Krieg, es herrscht Ausnahmezustand. Aber rechtfertigt dies Abstriche
       beim Datenschutz? Vorwiegend handelt es sich ja um Tote, deren Fotos durch
       den Computeralgorithmus von Clearview AI gejagt werden.
       
       ## Postmortaler Persönlichkeitsschutz
       
       Zwar erlischt der Datenschutz grundsätzlich nach dem Tod einer Person, doch
       Rechtswissenschaftler diskutieren, ob einem Verstorbenen auch ein
       „postmortaler Persönlichkeitsschutz“ zukommt. Das Argument: Die
       Menschenwürde, aus der Daten- und Persönlichkeitsschutz abgeleitet sind,
       gelte über den Tod hinaus.
       
       Natürlich steht da auch das berechtigte Interesse der Hinterbliebenen, die
       ein Recht darauf haben, die Wahrheit über diesen furchtbaren Krieg und
       seine Opfer zu erfahren. Doch die Frage ist, ob man eine Technologie
       einsetzen darf, die in autoritären Regimen wie Russland und China zur
       Aufspürung sogenannter Dissidenten genutzt wird. Jedes Werkzeug ist
       ambivalent: Man kann mit einem Hammer Häuser bauen und Schädel zertrümmern.
       Und ja: Mit Gesichtserkennungstechnik lassen sich auch Kriegsverbrecher
       entlarven und später zur Rechenschaft ziehen. Man braucht dafür keine
       Geheimdienstexpertise- oder Instrumente: Die Tools stehen zum Teil zum
       freien Download im Internet zur Verfügung.
       
       Überwachungs- wie etwa Tracking-Technologien, mit denen einst nur Militärs
       operierten, sind heute in den täglichen Konsum eingebettet. Man trackt auf
       dem Handy nicht nur seine Schritte und Routen und Kontakte, sondern
       verfolgt mithilfe von Flugradar-Apps auch das Reiseverhalten russischer
       Oligarchen. Auch Mobilfunktelefone und das Internet sind genuine
       Militärtechnologien; die ersten Gesichtserkennungsprogramme wurden in den
       1960er von der CIA entwickelt.
       
       Der Philosoph Michel Foucault hat mal von einem „Bumerang-Effekt“
       gesprochen: Techniken wie Fingerabdruckverfahren, mit denen im 19.
       Jahrhundert Menschen in (britischen) Kolonien registriert wurden, kehren in
       den Westen zurück – allerdings, und hier muss man Foucault weiterdenken,
       nicht nur in repressiver Form wie etwa an US-Flughäfen, wo sich Einreisende
       einem Gesichtsscan unterziehen und Fingerabdrücke abgeben müssen, sondern
       auch in überwachungskapitalistischer Form: Heute ist es „normal“, sein
       iPhone per FaceID zu entsperren. Allein, das Rastern biometrischer Merkmale
       lässt sich ja auch nicht durch schicke Apps und Gadgets kaschieren. Umso
       wichtiger ist die Frage, wie Gesichtserkennung reguliert werden kann.
       
       ## Informationen sind immer sozial
       
       [9][San Francisco] hat den Einsatz der Technologie 2019 wegen
       datenschutzrechtlicher Bedenken verboten, in Deutschland ist
       Gesichtserkennung wie etwa am Berliner Bahnhof Südkreuz weiterhin die
       Ausnahme. Beim Thema Datenschutz geht es aber nicht, wie der Begriff
       fälschlicherweise suggeriert, um den Schutz von Daten, sondern von
       Menschen. Und weil Menschen in sozialen Beziehungsnetzen leben, offenbaren
       Informationen über einen selbst auch solche über seine Freunde und Familie.
       
       Das US-amerikanische [10][Technik-Magazin Wired] hat in einer Demoversion
       des russischen Dienstes FindClone mit einem Foto nach einem Mann gesucht,
       bei dem es sich nach Angaben von ukrainischen Offiziellen um einen
       russischen Kriegsgefangenen handelte. Es dauerte keine fünf Minuten, bis
       der Algorithmus einen Treffer ausspuckte: ein Profil im sozialen Netzwerk
       VKontakte. Name, Geburtsdatum, Familienfotos, alles einsehbar. Wenn nun
       publik wird, dass man die Schwester oder den Bruder eines russischen
       Soldaten oder gar eines gesuchten Kriegsverbrechers ist, wird man schnell
       zum Hassobjekt im Netz.
       
       Das heißt nicht, dass Datenschutz Täterschutz bedeutet, wie es gern so oft
       behauptet wird, sondern, dass die Integrität personenbezogener Daten
       relational ist. Anders gewendet: Informationen sind immer sozial. Wer den
       Täter enttarnt, muss auch sein soziales Umfeld offenbaren. Und hinzu kommt,
       dass die Fehlerrate der Gesichtserkennung erfahrungsgemäß sehr hoch ist. So
       haben automatisierte Systeme nach wie vor Probleme, [11][Gesichter von
       Schwarzen Menschen] zu erkennen. Ob die Computerprogramme die Gesichter
       entstellter Soldaten identifizieren können, ist also nicht nur eine
       technische, sondern vor allem auch eine ethische Frage.
       
       ## Der Krieg schert sich nicht um Menschenwürde
       
       Der US-amerikanische Philosoph und Kulturtheoretiker Michael Betancourt
       schreibt in seinem Essayband „Kritik des digitalen Kapitalismus“, dass der
       Aufbau digitaler Kontrollsysteme und Datenbanken zu einer „systemischen
       Krise für die kapitalistische Wertproduktion“ führe: „Der Einsatz von
       Überwachung ist – unabhängig von irgendeinem besonderen Zweck – mit der
       wesensmäßigen Instabilität des digitalen Kapitalismus verbunden.“ Die
       Überwachungssysteme liefern jede Menge Daten, die jedoch selbst
       Ungewissheit bzw. Unwissen produzieren, sodass neue Daten gewonnen werden
       müssen. Ein absoluter Teufelskreis. Die Überwachungsmaschinerie folgt damit
       derselben expansiven Logik wie der Kapitalismus.
       
       Wenn Clearview AI der Ukraine nun also kostenlosen Zugang zu seiner
       Gesichtserkennungssoftware gewährt, dehnt sich der Überwachungskapitalismus
       auch auf das Schlachtfeld aus und es gibt eine direkte Rückkopplung
       zwischen militärischer und ziviler Nutzung. Millionen Menschen, die gar
       nicht wissen, dass ihr Konterfei in einer riesigen biometrischen Datenbank
       gelandet ist und der Nutzung wahrscheinlich auch gar nicht zugestimmt
       haben, müssen nun also ihren Kopf hinhalten, um tote Soldaten zu
       identifizieren.
       
       Man kann das mit Recht für pietätlos und abstoßend halten. Doch der Krieg
       ist am Ende auch eine Stätte der Datenproduktion – und schert sich um die
       Würde der Menschen herzlich wenig.
       
       3 Apr 2022
       
       ## LINKS
       
 (DIR) [1] https://www.atlanticcouncil.org/blogs/new-atlanticist/whats-behind-russias-logistical-mess-in-ukraine-a-us-army-engineer-looks-at-the-tactical-level/
 (DIR) [2] https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html
 (DIR) [3] https://www.reuters.com/technology/exclusive-ukraine-has-started-using-clearview-ais-facial-recognition-during-war-2022-03-13/
 (DIR) [4] https://www.wired.com/story/clearview-ai-new-tools-identify-you-photos/
 (DIR) [5] https://www.aclu.org/blog/privacy-technology/surveillance-technologies/fbi-has-access-over-640-million-photos-us-through
 (DIR) [6] https://netzpolitik.org/2022/biometrie-clearview-ai-zieht-gegen-kanadische-datenschutzbehoerde-vor-gericht/
 (DIR) [7] https://www.theverge.com/2021/12/16/22840179/france-cnil-clearview-ai-facial-recognition-privacy-gdpr
 (DIR) [8] https://mixed.de/clearview-ai-italien-verhaengt-millionenstrafe/
 (DIR) [9] https://www.nytimes.com/2019/05/14/us/facial-recognition-ban-san-francisco.html
 (DIR) [10] https://www.wired.com/story/facial-recognition-identify-russian-soldiers/
 (DIR) [11] /Dekolonialisierung-von-Algorithmen/!5706540
       
       ## AUTOREN
       
 (DIR) Adrian Lobe
       
       ## TAGS
       
 (DIR) Schwerpunkt Krieg in der Ukraine
 (DIR) künstliche Intelligenz
 (DIR) Datenschutz
 (DIR) Menschenwürde
 (DIR) Gesichtserkennung
 (DIR) GNS
 (DIR) Strafvollzug
 (DIR) Schwerpunkt Krieg in der Ukraine
 (DIR) Schwerpunkt Krieg in der Ukraine
 (DIR) Schwerpunkt Krieg in der Ukraine
 (DIR) künstliche Intelligenz
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Überwachungskameras in Gefängnissen: Lückenlose Auswertung
       
       Niedersachsens Landtag erlaubt Künstliche Intelligenz zur Auswertung von
       Überwachungsvideos in Gefängnissen. Dabei bleiben Fragen offen.
       
 (DIR) Mutmaßliche Kriegsverbrechen: Was tun. Irgendwas
       
       Die EU und Berlin versuchen, angemessen auf die Bilder aus der Ukraine zu
       reagieren. Ein Stopp für Energieimporte aus Russland ist umstritten.
       
 (DIR) Türkische Diplomatie im Ukrainekrieg: Vom Paria zum Staatsvermittler
       
       Bis vor Kurzem war der türkische Präsident Erdoğan noch international
       isoliert. Nun könnte er eine Schlüsselrolle bei einem Friedensschluss
       spielen.
       
 (DIR) Inszenierung des Kriegs auf Tiktok: Moonwalk auf dem Schlachtfeld
       
       Manche nennen den Krieg in der Ukraine schon den ersten „Tiktok-Krieg“: Was
       bedeutet das für unsere Wahrnehmung des Konflikts?
       
 (DIR) Künstliche Intelligenz und Ethik: Stimmen aus dem Jenseits
       
       Mit künstlicher Intelligenz klonen Filmstudios Stimmen verstorbener
       Menschen. Das wirft dringende ethische und gesellschaftspolitische Fragen
       auf.