# taz.de -- Mozilla-Chef Mark Surman über KI: „Wir wissen nicht, was kaputtgeht“
       
       > In Kürze treten die neuen EU-Regeln zu KI in Kraft. Mark Surman,
       > Präsident der Mozilla-Stiftung, über einflussreiche Tech-Konzerne und
       > lustige Hüte.
       
 (IMG) Bild: „Die Technologie so nutzen, dass sie gut für uns ist“
       
       taz: Herr Surman, welches KI-Werkzeug haben Sie als letztes verwendet? 
       
       Mark Surman: (denkt nach)
       
       taz: Nutzen Sie KI so wenig? 
       
       Surman: Nein, im Gegenteil, ständig. Und ich hätte jetzt gerne eine
       amüsante Geschichte erzählt, die etwas über den Stand der Technik und
       unseren Umgang damit aussagt. Etwa als ich versucht habe, mit ChatGPT ein
       Foto von mir zu generieren mit einem lustigen Hut. Die 4oer-Version kann ja
       eigentlich Bilder erzeugen. Aber es war komplett hoffnungslos. Ja, die Hüte
       waren lustig, aber die Person auf den ersten Bildern sah mir nicht im
       entferntesten ähnlich, vielleicht abgesehen von dem Bart. Also habe ich ein
       Bild von mir hochgeladen – und die KI hat einfach einen roten Kreis auf
       meinen Kopf gesetzt. Nun ja, die Wahrheit ist: Das KI-Tool, das ich als
       letztes, also wahrscheinlich vor etwa 15 Minuten genutzt habe, war Siri.
       Das nutze ich ständig.
       
       taz: Siri ist das KI-Assistenzwerkzeug von Apple. Würden Sie Siri als
       vertrauenswürdige KI bezeichnen? 
       
       Surman: Für die Zwecke, für die ich Siri verwende – um kurze Sprachnotizen
       aufzunehmen zum Beispiel –, ist es ausreichend vertrauenswürdig. Ich will
       keine Apple-Werbung machen, aber immerhin bekommt Apple es hin, dass nicht
       alle Daten ständig in die Cloud geschickt werden. Privatsphäre hat bei
       Apple schon einen Wert, und das ist etwas, das wir bei Mozilla mit Apple
       teilen.
       
       taz: Ist Vertrauen ein Thema bei der Nutzung von [1][KI]? 
       
       Surman: Ja, absolut. Zum Thema Vertrauen gehören zwei wichtige Punkte:
       Wirkung und Verantwortung. Man kann sich also verschiedene Fragen stellen:
       Macht die KI, was ich will? Kann ich sie an die eigenen Bedürfnisse
       anpassen? Ist ihre Funktionsweise transparent? Und wenn etwas schiefgeht:
       Ist klar, wer haftet? Wendet man diese Definition auf Siri an, kommt man zu
       dem Ergebnis, dass Siri eigentlich wenig vertrauenswürdig ist. Man kann da
       nichts anpassen, und das System ist eine ziemliche Blackbox. Wie sie
       funktioniert – keine Ahnung. Andererseits ist ihr Einsatz nicht besonders
       risikobehaftet. Wenn also etwas schiefgeht, ist es extrem unwahrscheinlich,
       dass jemand zu Schaden kommt. Anders sieht das bei dem Einsatz von KI in
       der Gesundheitsbranche oder bei Versicherungen aus.
       
       taz: Von Siri bis ChatGPT – die meisten der bekannten KI-Tools sind in der
       Hand großer Techkonzerne. Vergrößert die junge Technologie die Macht von
       [2][Big Tech]? 
       
       Surman: Danach sieht es leider derzeit aus. Die größten sechs Konzerne –
       Apple, Google, Meta, Amazon, Microsoft und der Chiphersteller Nvidia –
       kontrollieren den überwiegenden Teil des Markts. Das ist etwas, das mich
       sehr beunruhigt.
       
       taz: Dabei wäre eine neue Technologie ja eigentlich eine Chance, bestehende
       Marktstrukturen aufzubrechen. Warum passiert das nicht? 
       
       Surman: Ich weiß nicht, ob es diese theoretische Chance wirklich gibt oder
       ob die Macht von Big Tech dafür nicht schon viel zu groß ist. Der Markt
       wird sich hier nicht mehr selbst regeln. Das muss die Politik machen mit
       Gesetzen, die für Wettbewerb sorgen, aber auch dafür, dass ein Gegengewicht
       zu den gewinnorientierten KI-Entwicklungen der großen Konzerne entsteht.
       
       taz: Was meinen Sie damit? 
       
       Surman: Zwei Beispiele: In gut funktionierenden Demokratien gibt es
       üblicherweise öffentliche oder nicht kommerzielle Medien. Das ist das
       Gegengewicht zu den kommerziellen Anbietern. Und erinnert sich noch jemand
       daran, dass es vor Wikipedia ein kommerzielles Onlinenachschlagwerk von
       Microsoft gab? Hier zeigt sich also: Die nicht kommerzielle Entwicklung
       kann sogar erfolgreicher sein.
       
       taz: Und wie soll dieses Gegengewicht bei KI entstehen? 
       
       Surman: Ich glaube, die Basis ist schon da. Es gibt bereits ganz viel nicht
       kommerzielle Forschung rund um KI, zum Beispiel an Universitäten, aber auch
       an unabhängigen Institutionen. Und der nächste Schritt ist, dass wir ein
       ganzes Ökosystem von Open-Source-KI brauchen: von der Datenbasis über die
       Modelle bis zu der Software, die am Ende rauskommt. Und Open Source meint
       tatsächlich offen in all seinen Facetten: Es muss transparent sein, man
       muss es ändern, anpassen und kostenlos nutzen können. Und, ebenso wichtig:
       Es muss gemeinwohlorientiert sein.
       
       taz: Und wenn wir von den Funktionen her denken? 
       
       Surman: Ich glaube, das Wichtigste ist, dass die KI-Modelle Open Source
       sind.
       
       taz: Ein Modell ist quasi der Algorithmus, der beispielsweise dafür sorgt,
       dass auf Basis einer Texteingabe ein Bild generiert wird. 
       
       Surman: Ist ein Modell Open Source, lässt es sich verändern, anpassen oder
       auf Basis anderer Daten trainieren – wenn zum Beispiel die ursprünglichen
       Trainingsdaten dazu geführt haben, dass das Modell rassistische Stereotype
       reproduziert. Viele Regierungsvertreter sprechen derzeit, und das ist auch
       wichtig angesichts der Weltlage, über digitale Souveränität. Und mit
       Open-Source-KI ist das machbar: Sie ist transparent, man kann sie mit der
       eigenen Sprache oder Informationen über das eigene politische System
       trainieren.
       
       taz: Wo soll das Geld herkommen? 
       
       Surman: Ich glaube nicht, dass wir ein Finanzierungsproblem haben. Fast
       alle Regierungen stecken jetzt schon Milliarden in IT-Projekte und
       -Forschung. Klar, mit mehr Geld ließe sich immer noch mehr machen. Aber
       wichtiger ist, dass das Geld, was jetzt schon fließt, dort ankommt, wo es
       dieses Gegengewicht stützen kann.
       
       taz: Das große [3][Gesetzeswerk der EU zu KI] tritt Anfang August in Kraft.
       Während der Gesetzgebung wurde debattiert, ob Open-Source-KI weniger streng
       reguliert werden sollte. In der Community sorgt man sich, dass strenge
       Auflagen sie unmöglich machen würden. Zugleich könnten Ausnahmen auch von
       den großen Techkonzernen ausgenutzt werden. Was meinen Sie? 
       
       Surman: Es gibt da keine perfekte Lösung. Aber am Ende des Tages ist es
       doch so, dass jedes KI-System, egal ob Open Source oder nicht, für extrem
       risikoreiche Anwendungen genutzt und missbraucht werden kann. Ich finde
       daher den Weg, den die EU gegangen ist, sehr nachvollziehbar: Das Gros der
       Vorgaben gilt für jene, die die Software in den Verkehr bringen. Wenn eine
       Versicherungsgesellschaft oder die Polizei ein KI-System nutzt, müssen sie
       sicherstellen, dass es mit dem Gesetz vereinbar ist.
       
       taz: Reicht das? Schließlich kann man nicht bei allen, die KI einsetzen,
       von guten Absichten ausgehen. 
       
       Surman: Fürs Erste würde ich sagen, es ist okay. Natürlich muss man in den
       kommenden Jahren bewerten, ob es ausreicht. Aber: Wie lange, nachdem die
       ersten Autos auf den Straßen waren, hat es gedauert, bis Gurte
       verpflichtend wurden? Das waren Jahrzehnte.
       
       taz: Was halten Sie für die größten [4][Gefahren], die von KI ausgehen? 
       
       Surman: Ich glaube, die dadurch noch steigende Machtkonzentration der
       Techkonzerne ist eine große Gefahr. Egal, ob ich Deutscher bin oder
       Kanadier – es ist keine gute Nachricht, wenn vieles von dem, was ich online
       tue, in der Kontrolle weniger Konzerne an der US-Westküste liegt. Und
       meine zweite große Sorge ist die Haltung, mit der manche Konzerne oder
       Akteure KI entwickeln. Nicht immer steht hier Sorgfalt im Vordergrund. Oft
       ist es auch eine Move-fast-and-break-things-Haltung.
       
       taz: Schnell sein, auch wenn dabei Dinge kaputtgehen. 
       
       Surman: Und wir wissen nicht, was dabei kaputtgeht. Die Demokratie?
       Menschen?
       
       taz: Kann die EU mit ihrem KI-Gesetz hier überhaupt etwas tun? 
       
       Surman: Es wird interessant sein, das zu sehen. Die EU spekuliert
       natürlich, dass sie als Markt groß genug ist, dass Unternehmen sie nicht
       einfach verlassen, sondern sich den Regeln beugen. Und dass die daraus
       resultierenden Verbesserungen weltweit gelten. Ob das funktioniert, werden
       wir sehen.
       
       taz: Was halten sie für das größte Potenzial von KI? 
       
       Surman: Dass wir als Gesellschaften gemeinsam einen Weg finden, wie wir die
       Technologie so nutzen können, dass sie gut für uns ist. Für unsere
       Demokratie, für die Wirtschaft, für das Gesundheitssystem, für die
       Steuerung erneuerbarer Energien und im Kampf gegen den Klimawandel.
       
       taz: Wo werden wir in zehn Jahren stehen? 
       
       Surman: Wenn ich mal optimistisch bin, was die politische Entwicklung
       angeht, und wir immer noch in demokratischen pluralistischen Gesellschaften
       leben …
       
       taz: … es kommt also vor allem auf die Politik an und die, die sie wählen? 
       
       Surman: Ja, wahrscheinlich. Ein autokratisches Regime wird auch in guter
       Absicht entwickelte Technologie missbrauchen. Aber wenn wir optimistisch
       bleiben, dann sind in zehn Jahren allerhand KI-Systeme niedrigschwellig und
       stehen einfach zugänglich zur Verfügung, sie helfen Menschen bei allem
       Möglichen: beim Zugang zu Wissen, bei kreativen Prozessen, beim
       Kommunizieren mit Menschen, die eine andere Sprache sprechen, bei der
       Früherkennung von Krankheiten, beim Gründen von Unternehmen. Wir müssen
       aber immer daran denken, den Menschen ins Zentrum zu stellen – und nicht
       die Gewinninteressen privater Unternehmen.
       
       25 Jul 2024
       
       ## LINKS
       
 (DIR) [1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174
 (DIR) [2] /Ausgaben-fuer-EU-Lobbyismus-steigen/!5958975
 (DIR) [3] /Vor-Inkrafttreten-der-EU-Regeln/!6010291
 (DIR) [4] /Deutschland-muss-KI-Regeln-umsetzen/!6007821
       
       ## AUTOREN
       
 (DIR) Svenja Bergt
       
       ## TAGS
       
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Digitalisierung
 (DIR) Mozilla
 (DIR) Mozilla Foundation
 (DIR) Firefox
 (DIR) Open Source
 (DIR) Google
 (DIR) wochentaz
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Google
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) US-Gericht urteilt: Google ist Monopolist
       
       Ein US-Gericht fällt ein wichtiges Urteil: Google habe ein Internet-Monopol
       – und verteidige es auf unfaire Weise. Der Techgigant will sich wehren.
       
 (DIR) Mozilla-Chefin über KI: „Aufregend und beängstigend“
       
       Künstliche Intelligenz ist die Technologie des Jahrzehnts. Mozilla-Chefin
       Mitchell Baker über Chancen und warum Open Source ökologischer ist.
       
 (DIR) Künstliche Intelligenz und Datenschutz: Wer die KI füttert
       
       Mit den persönlichen Daten von Nutzer:innen eine KI trainieren? Das
       erlauben sich immer mehr Tech-Konzerne. Doch es gibt noch eine Chance.
       
 (DIR) KI-Expertin über Daten und Macht: „Die Branche ist eine Monokultur“
       
       Meredith Whittaker ist Expertin für Künstliche Intelligenz und wechselte
       von Google zur Signal Foundation. Ein Gespräch über das
       Überwachungs-Geschäftsmodell.