# taz.de -- Debatte um Künstliche Intelligenz: KI für alle
       
       > Regulierungen müssen sicherstellen, dass vom KI-Einsatz nicht nur ein
       > paar Unternehmen profitieren, sondern die ganze Gesellschaft.
       
 (IMG) Bild: Gut vernetzt – Mensch mit Maschine
       
       Dubai führt ein System zur Gesichtserkennung im öffentlichen Nahverkehr
       ein. In Japan hilft Roboterhund Aibo Menschen durch die Einsamkeit der
       Coronazeit. Deutschland und Frankreich veröffentlichen eine gemeinsame
       Förderrichtlinie zur Erforschung von Vorhaben im Bereich Künstlicher
       Intelligenz.
       
       Drei Meldungen aus der aktuellen Woche. Aus der Woche, in der die
       [1][Enquetekommission Künstliche Intelligenz] des Bundestages das letzte
       Mal tagte und am Mittwoch schließlich ihren Abschlussbericht an
       Bundestagspräsident Wolfgang Schäuble (CDU) übergab. Drei Meldungen, die
       ganz exemplarisch skizzieren, wie die Welt bezüglich der Künstlichen
       Intelligenz (KI) aussieht: In den Industrieländern ist sie längst im
       Einsatz. In einigen im Alltag präsenter, mit Roboterhunden, mit digitalen
       Barkeeper:innen oder einem weitgehend von Robotern betriebenen Hotel, wie
       in einem japanischen Vergnügungspark. Doch auch in Deutschland verwenden
       Nutzer:innen [2][KI im Alltag]. Sie steckt etwa in Sprachassistenten wie
       Siri oder Alexa. Sie ermöglicht die Bilderkennung in Onlinenetzwerken und
       das automatische Optimieren von Fotos in Smartphones. Sie findet sich in
       Einparkhilfen von Autos, in der Überwachung von Passant:innen, wie bei
       einem Projekt am Berliner Fernbahnhof Südkreuz, und in medizinischen
       Diagnosehilfen.
       
       Dass KI-Anwendungen mittlerweile in der Praxis angekommen sind, haben auch
       die Mitglieder der jeweils zur Hälfte mit Bundestagsabgeordneten und mit
       externen Expert:innen besetzten Enquetekommission mitbekommen. Was
       allerdings fehlt: Konsequenzen. Allen voran sperrte sich die Union gegen
       klare Empfehlungen zur Regulierung von KI-Anwendungen. Dass solche in naher
       Zukunft auf anderem Weg Eingang in den parlamentarischen Prozess finden
       werden, ist eher unwahrscheinlich. Eine Fehlentscheidung, deren Folgen die
       Gesellschaft spätestens in einigen Jahren zu spüren bekommen wird.
       
       Denn auch wenn KI-Anwendungen längst im Alltag angekommen sind –
       unumgänglich sind sie nicht, noch nicht. Und das betrifft beide Seiten:
       Sowohl Verbraucher:innen und Bürger:innen als auch Unternehmen oder
       Behörden, die die Anwendungen nutzen wollen, sind aktuell noch nicht auf
       ihren Einsatz angewiesen. Medizin, Strafverfolgung, Haushalt – kein System
       wird hierzulande zusammenbrechen, wenn KI strenger reguliert wird. Und das
       ist eine Chance. Auch wenn seit mehr als 50 Jahren rund um KI geforscht
       wird – lange ging es dabei um akademisch und technisch spannende, aber
       praktisch ziemlich nutzlose Projekte. Doch jetzt befinden wir uns in der
       Anfangsphase der Marktreife. Und die bietet die Möglichkeit, ein paar
       Fragen zu stellen, zu diskutieren und im besten Fall als Gesellschaft einen
       möglichst breit getragenen Ansatz für den Umgang mit KI zu finden, bevor
       sie unverzichtbar wird.
       
       Zum Beispiel: Was wollen wir überhaupt von KI? Was soll sie leisten? Wo
       können und sollen wir Grenzen setzen? Wie sieht es aus in Sachen
       Transparenz? Wer überprüft, ob eine KI das macht, was sie soll? Oder das,
       was ihr Auftraggeber behauptet? Wer haftet, falls das nicht der Fall ist?
       Wer haftet überhaupt? Wie lässt sich vermeiden, dass KI diskriminiert? Und
       wie lässt sich das überprüfen? Wie gehen wir mit dem Datenhunger um, den
       ein guter Teil der KI-Anwendungen mitbringt? Und dem Energiehunger? Und ist
       KI überhaupt gleich KI? Wäre es nicht sinnvoll, eine KI, die Waldbrände
       anhand von Satellitenbildern erkennen soll, anders zu behandeln als eine,
       die entscheidet, ob Bewerber:innen zum Vorstellungsgespräch eingeladen
       werden?
       
       Stichwort Haftung. Ein Unternehmen programmiert die KI-Anwendung. Der
       Autokonzern baut sie in sein selbstfahrendes Auto ein. Das verursacht einen
       Unfall. Wer zahlt nun? Der Hersteller der Software? Oder der
       Autohersteller? Oder eine Versicherung? Oder der:die Fahrer:in? Und, noch
       komplizierter: Wie lässt sich überhaupt herausfinden, ob der Fehler in der
       KI lag? Ist doch das Wesen dieser Anwendungen mitunter das, was als Black
       Box bezeichnet wird: Was darin passiert, ist auch für die Entwickler:innen
       längst nicht immer nachvollziehbar.
       
       Stichwort Diskriminierung. Legendär ist das Beispiel von Seifenspendern,
       deren Sensoren nur dann die Aufforderung zum Seifenspenden erkannten, wenn
       eine weiße Person ihre Hand darunter hielt. Noch gravierender wird es, wenn
       Algorithmen selbstfahrender Autos People of Color schlechter erkennen als
       weiße Menschen. Oder: Ein selbstlernender Algorithmus bevorzugte bei der
       Bewerberauswahl männliche Kandidaten – einfach deshalb, weil sich in der
       Vergangenheit vorwiegend Männer beworben hatten. Anhand dieser
       Trainingsdaten stufte die Software Männer damit als geeigneter ein.
       Jüngstes Beispiel: Weil Schüler:innen in der Pandemie ihre
       Abschlussarbeiten nicht schreiben konnten, errechnete in Großbritannien ein
       Algorithmus die Schulabschlussnoten. Das Nachsehen hatten eigentlich gute
       Schüler:innen von Schulen, bei denen die Ergebnisse der gesamten Schule in
       der Vergangenheit unter dem Durchschnitt lagen. Deren durch den Algorithmus
       errechnete Noten lagen deutlich unter denen, die ihre Lehrer:innen
       vorhergesagt hatten. Auf öffentlichen Druck hin stoppte die britische
       Regierung schließlich das Projekt.
       
       Stichwort Transparenz. Automatisierte Entscheidungsfindung ist ein
       beliebtes Gebiet von KI-Anwendungen. Ob es um den Tarif einer
       Autoversicherung geht oder die Risikoeinstufung bei einem Kredit oder
       darum, vorherzusagen, in welcher Region Wohnungseinbrüche zu erwarten sind.
       Der aktuelle „Automating Society“-Report, den AlgorithmWatch und die
       Bertelsmann-Stiftung passenderweise ebenfalls diese Woche veröffentlicht
       haben, kommt zu dem Ergebnis: Transparent geht es bei der automatischen
       Entscheidungsfindung selten zu. Schon bei der Einführung gebe es meist
       keine breite gesellschaftliche Debatte. Symptomatisch dafür ist auch, dass
       es die Enquetekommission Künstliche Intelligenz mit Transparenz nicht so
       hatte. Die Vorträge waren zwar öffentlich, die – mutmaßlich weitaus
       interessanteren – Diskussionen aber nicht. Dabei hätten genau die Anstöße
       geben können zu einer allgemeinen Auseinandersetzung mit Künstlicher
       Intelligenz.
       
       Denn aktuell verläuft die gesellschaftliche Debatte in Deutschland analog
       zur Debatte über Technologie allgemein. Diese ist entweder das große
       Versprechen und die Lösung für alles. Oder aber eine riesige Bedrohung und
       mindestens der erste Schritt in Richtung Auslöschung der Menschheit. Die
       Realität liegt üblicherweise ungefähr in der Mitte. Entscheidend ist daher
       die Umsetzung. Es spricht überhaupt nichts gegen einen Staubsaugerroboter,
       der saugend lernt, wie die Wohnung zugeschnitten ist, wo er sinnvollerweise
       häufiger entlangsaugen sollte, weil dort der Küchentisch steht, und wo es
       seltener nötig ist. Es spricht aber etwas dagegen, dass derart gewonnene
       Grundrisse und Kundendaten auf den Servern des Herstellers landen und
       möglicherweise auch noch bei Drittanbietern.
       
       Die genannten Beispiele sind nur ein kleiner Ausschnitt. Es sind die, die
       erkannt und publik wurden, und es lässt sich vermuten, dass es dahinter ein
       nennenswertes Dunkelfeld gibt. Die Konsequenz sollte klar sein: Es braucht
       Regulierung. Und zwar dringend, klar und europaweit einheitlich. Denn was
       passiert, wenn diese zu spät kommt, ist aktuell beispielsweise bei der
       Plattformökonomie sichtbar und dabei, wie Facebook, Amazon oder Google
       mit persönlichen Daten umgehen. Sinnvolle Regulierungsvorschläge gibt es
       eine ganze Reihe: von einem Algorithmen-TÜV bis hin zu öffentlich
       einsehbaren Registern, in denen die Bürger:innen nachschauen können, welche
       Unternehmen oder Behörden für welche Zwecke auf algorithmische
       Entscheidungsfindung setzen und welche Modelle dabei zum Einsatz kommen. so
       geschaffene Transparenz würde gleichzeitig das Wissen über KI in der
       Gesellschaft erweitern. Und sie würde neue Anreize für Bürger:innen
       schaffen, sich mehr damit zu beschäftigen – über das Nutzen einer bunten
       Oberfläche hinaus.
       
       ## Die Demokratie schneller machen
       
       Denn ein Gegensatz lässt sich derzeit nicht auflösen: Im digitalen
       Zeitalter gehen die Entwicklung von Geschäftsmodellen, neuen Technologien
       und der Aufbau riesiger Datensammlungen schnell. Die Demokratie ist aber
       immer noch so langsam wie in Zeiten, als Faxe als modern und Videotext als
       fortschrittliche Art, sich zu informieren, galten. Die Demokratie schneller
       zu machen, wäre sicher häufig wünschenswert, aber keine flächendeckende
       Lösung. Was daher schneller sein muss: das Denken in der Demokratie. Und
       hier sind wir wieder bei der Künstlichen Intelligenz: Regulierung zu einem
       späteren Zeitpunkt zurückzunehmen oder abzuschwächen ist viel einfacher,
       als sie zu verstärken. Denn dann schreit die Lobby der Unternehmen, die
       schon Geschäftsmodelle auf der problematischen Basis aufgebaut haben.
       
       Vermutlich wünschen sich Teile der Regierungskoalition, allen voran der
       Union, insgeheim ein Silicon Valley in Deutschland. Dass das Facebook des
       KI-Zeitalters aus Dresden kommt statt aus Menlo Park. Und scheuen daher
       Regulierung. Aber der kapitalismuszentrierte KI-Ansatz mit
       milliardenschweren Risikoinvestoren ist schon an die USA vergeben. Und der
       staatliche Ansatz der digitalen Totalüberwachung an [3][China].
       
       Dass die EU und Deutschland nur mit einem eigenen, menschenfreundlichen
       Ansatz punkten können, hat sich auch schon bis zur Enquetekommission
       rumgesprochen. Doch es reicht nicht, ihn zu proklamieren. Man muss ihn auch
       ausgestalten. Dabei sollte Technik immer so realisiert sein, dass nicht nur
       bestimmte Gruppen – Wohlhabende, technisch Versierte oder anderweitig
       Privilegierte – von ihr profitieren. Sondern die gesamte Gesellschaft. Das
       mitzudenken ist die Basis, um das Zeitalter der Künstlichen Intelligenz auf
       ethische, ökologische, soziale Weise zu realisieren.
       
       1 Nov 2020
       
       ## LINKS
       
 (DIR) [1] /Leben-mit-kuenstlicher-Intelligenz/!5724514&s=K%C3%BCnstliche+Intelligenz/
 (DIR) [2] /Kuenstliche-Intelligenz-im-Alltag/!5724515&s=K%C3%BCnstliche+Intelligenz/
 (DIR) [3] /Firma-Zhenhua-wertet-Social-Media-aus/!5715076&s=K%C3%BCnstliche+Intelligenz/
       
       ## AUTOREN
       
 (DIR) Svenja Bergt
       
       ## TAGS
       
 (DIR) künstliche Intelligenz
 (DIR) Internet der Dinge
 (DIR) Schwerpunkt Überwachung
 (DIR) Alexa
 (DIR) Wir retten die Welt
 (DIR) Schwerpunkt Facebook
 (DIR) Schwerpunkt Überwachung
 (DIR) künstliche Intelligenz
 (DIR) künstliche Intelligenz
 (DIR) künstliche Intelligenz
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Algorithmen bei Bilderkennung: Wenn die KI Beine zählt
       
       Es gibt Dinge, die können Computer gut, aber Menschen nicht – und
       umgekehrt. Das kann für Verwirrung sorgen.
       
 (DIR) Europäischer Aktionsplan für Demokratie: Werbung via Desinformation
       
       Die EU-Kommission will mit einem Aktionsplan gegen Desinformation auf
       Tech-Plattformen vorgehen. Besser wäre ein neues Geschäftsmodell.
       
 (DIR) Immobilienmarkt in US-Metropolen: 3 Zimmer, Küche, Gesichtserkennung
       
       „Proptech“-Anwendungen, die Daten über Mieter*innen sammeln können, spitzen
       die Lage auf dem prekären US-Immobilienmarkt nachhaltig zu.
       
 (DIR) Künstliche Intelligenz im Alltag: Längst unter uns
       
       Anwendungen künstlicher Intelligenz sind keine Science-Fiction, sondern
       längst Alltag. Vier Beispiele aus ganz unterschiedlichen Bereichen.
       
 (DIR) Leben mit künstlicher Intelligenz: Datenfreigabe nur freiwillig
       
       Die Enquetekommission „Künstliche Intelligenz“ des Bundestags legt ihren
       Bericht vor. Konkreter wird ein anderer Report.
       
 (DIR) KI-Einsatz in Deutschland: Firmen kaum künstlich intelligent
       
       Eine Umfrage zeigt: Viele Firmen sind skeptisch, was den Nutzen künstlicher
       Intelligenz angeht. Sie fordern verbindliche Regeln.