# taz.de -- OpenAI in der Kritk: Transparent gewaschen
       
       > Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf
       > ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso
       > problematischer.
       
 (IMG) Bild: Je besser KI wird, desto dringender stellen sich Fragen: Wie wurde dieser Algorithmus trainiert?
       
       Es war eine turbulente Woche für OpenAI, das Unternehmen hinter der
       [1][KI-Anwendung ChatGPT]: Vorstellung der neuen Softwareversion, die alles
       übertrifft, was zuvor an KI zu sehen war. Neue Kritik an dem schon
       bekannten Problem, dass ChatGPT Quellen generiert, die nicht existieren.
       Und mutmaßlich ein gespannter Blick nach China, wo Konkurrent Baidu mit
       seinem Ernie Bot aber letztlich enttäuschte.
       
       OpenAI lässt sich vermutlich gerade zu den bedeutendsten Unternehmen
       weltweit zählen. Es ist eines der ersten, die das Potenzial von
       [2][künstlicher Intelligenz (KI)] für die breite Masse an Menschen erahnbar
       und den aktuellen Stand erfahrbar gemacht hat. Und damit zeigt: Die KI der
       Zukunft wird mehr sein als eine Siri, die Anweisungen ständig missversteht,
       oder die beunruhigend fehleranfällige Software eines selbstfahrenden Autos.
       Sondern ein mächtiges, ernst zu nehmendes Werkzeug, dessen Möglichkeiten
       und Entwicklungspotenziale wir aktuell nur erahnen können.
       
       Mit der Version 4.0 von ChatGPT wird das deutlich: Es ist eine
       [3][KI-Anwendung], die nicht entweder Wörter oder Bilder verarbeiten kann,
       sondern beides. Eine Entwicklung hin von einer sogenannten schwachen KI,
       die nur eine Disziplin beherrscht, zu einer zumindest etwas stärkeren. Es
       zeigt die Potenziale, aber gleichzeitig auch, dass noch viel an Weg übrig
       bleibt.
       
       Nun ist OpenAI allerdings in einer anderen Disziplin überhaupt nicht stark.
       Und darauf haben Expert:innen ebenfalls in der vergangenen Woche
       hingewiesen. Da hat OpenAI seine 4er Version von ChatGPT vorgelegt – und in
       der selben Woche auch das [4][Forschungsdokument zur Software]
       veröffentlicht, unter dem schlichten Titel „GPT-4 Technical Report“. Darin
       zeigt sich das Unternehmen jedoch alles andere als „open“.
       
       ## OpenAI total verschlossen
       
       Im Gegenteil: Auf 99 Seiten erzählt es zwar viel, sagt aber wenig:
       „Angesichts der Konkurrenzsituation und der sicherheitstechnischen
       Implikationen von Großmodellen wie GPT-4 enthält dieser Bericht keine
       weiteren Details über die Architektur (einschließlich der Modellgröße), die
       Hardware, die Trainingsberechnung, Datensatzkonstruktion, Trainingsmethode
       oder Ähnliches.“ Also genau über die interessanten Punkte.
       
       Die Verschlossenheit ist eine deutliche Abkehr von den Wurzeln und dem
       zugehörigen Namen. OpenAI – damit wollte die Firma signalisieren, dass es
       KI-Technologien mit einem Offenheits- ja, sogar einem
       Gemeinnützigkeitsanspruch in die Welt setzen wollte. Ein Gegengewicht zu
       Big Tech, bei denen Verschlossenheit und Intransparenz zum Geschäftsmodell
       dazugehören.
       
       Doch Name und Anspruch von OpenAI sind nun zu einem bloßen
       Transparenz-Washing verkommen. Sogar die Verpackung ist angepasst: Stimmen
       aus der Open-Access-Community, die sich für einen freien Zugang zu
       Forschungsliteratur einsetzen, weisen darauf hin, dass die Vorlage zur
       Erstellung des Reports die gleiche ist, die auch bei
       Open-Access-Publikationen verwendet wird.
       
       ## Selbst für Entwickler:innen eine Black Box
       
       Das Problem geht über den konkreten Fall hinaus. Denn OpenAI setzt mit
       seinen Entwicklungen nicht nur Standards, was die Funktionen und die
       technische Raffinesse angeht. Sondern auch für den ethischen Umgang mit KI.
       Und da wäre Transparenz noch mal wichtiger als bei den klassisch
       programmierten Algorithmen. Schließlich sind KI-Anwendungen meist auch für
       die Entwickler:innen selbst eine Black Box.
       
       Während etwa bei einem herkömmlich programmierten Empfehlungsalgorithmus
       vorhersagbar ist, mit welcher Datenbasis er zu welcher Empfehlung kommt,
       ist das bei einer KI meist nicht der Fall. Fragen wie: Wie wurde dieser
       Algorithmus trainiert? Mit welchen Trainingsdaten? Wo und wie haben
       Menschen nachgeholfen?, rücken stärker in den Vordergrund. Ein bisschen
       „ihr könnt uns vertrauen“ reicht da nicht.
       
       Der [5][Deutsche Ethikrat, der am Montag eine Stellungnahme zum Thema KI
       vorlegte], spielt das Thema eine Ebene höher: Die Autor:innen benennen
       zwar das Spannungsfeld zwischen Geschäftsgeheimnis und Offenheit. Doch sie
       schreiben ebenfalls: „Auch dort, wo Systeme eine Quasi-Monopolstellung
       erlangen, sind hohe Anforderungen an Transparenz, Erklärbarkeit und
       Nachvollziehbarkeit zu stellen.“
       
       Man kann es als Aufforderung an die Unternehmen selbst lesen. Aber vor
       allem ist es eine Hausaufgabenliste für die Politik, KI-Anwendungen noch
       genauer in den regulatorischen Fokus zu nehmen. Jetzt, wo langsam absehbar
       wird, wohin es gehen könnte.
       
       20 Mar 2023
       
       ## LINKS
       
 (DIR) [1] /ChatGPT-loest-Bildungskrise-aus/!5920652
 (DIR) [2] /KI-und-ChatGPT/!5909029
 (DIR) [3] /KI-und-freies-Handeln/!5914333
 (DIR) [4] https://cdn.openai.com/papers/gpt-4.pdf
 (DIR) [5] https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf
       
       ## AUTOREN
       
 (DIR) Svenja Bergt
       
       ## TAGS
       
 (DIR) künstliche Intelligenz
 (DIR) Transparenz
 (DIR) Ethik
 (DIR) Open Data
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Technologie
 (DIR) künstliche Intelligenz
 (DIR) Technologie
 (DIR) wochentaz
 (DIR) künstliche Intelligenz
 (DIR) Bot
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Moratorium über Umgang mit KI: Pause mit Problemen
       
       Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken?
       Expert:innen finden, die Forderung gehe an den echten Gefahren vorbei.
       
 (DIR) KI in Wissenschaft und Journalismus: Mensch und Maschine
       
       Die Angst, die Maschine könne den Mensch ersetzen, ist so alt wie die
       Maschine. Bewahrheitet hat sie sich nie, und das wird sie auch bei der KI
       nicht.
       
 (DIR) ChatGPT mit Tücken: Kein Entkommen vor der KI
       
       Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den
       Anfang einer rasanten Entwicklung – die auch Risiken birgt.
       
 (DIR) Kolumne einer Künstlichen Intelligenz: Kreativ kann ich auch!
       
       Von wegen bald abgesetzt – unsere KI-Kolumnist*in Anic T. Wae schreibt
       einzigartigere Kolumnen als alle Literaten zusammen.
       
 (DIR) KI und freies Handeln: Der berechnete Mensch
       
       Von Algorithmen über Textbausteine bis smarte Kühlschränke: KI-Systeme
       nehmen Einfluss auf Entscheidungen. Wo bleibt da die Autonomie?
       
 (DIR) KI und ChatGPT: Wenn Maschinen schreiben
       
       Eine künstliche Intelligenz, die schreibt – wird der Mensch als Autor:in
       bald überflüssig sein?