# taz.de -- Chatbots aus China: Ernie statt ChatGPT > Die chinesische Regierung hat erstmals mehrere KI-Chatbots für die > Öffentlichkeit freigegeben. Diese dienen vor allem der politischen > Kontrolle. (IMG) Bild: Peking, 16.08.: Besucher des „Wave Summit“ probieren den Chatbot Ernie aus PEKING taz | Als die kalifornischen Entwickler von „[1][Open AI]“ ihren [2][ChatGPT] auf den Markt brachten, reagierte die chinesische Regierung wie zu erwarten: Nach einem kurzen Zeitfenster der Neugierde ließ sie die Software für die eigene Bevölkerung sperren. Im Hintergrund jedoch arbeiteten die heimischen Programmierer bereits unter Hochdruck an einer chinesischen Alternative. Am Donnerstag schließlich hat Peking eine Lizenz an gleich mehrere Anbieter vergeben, die nun ihre Chatbots der Öffentlichkeit zugänglich machen dürfen. Als vielversprechendster [3][Konkurrent] zu ChatGPT gilt insbesondere „Ernie“ vom Internetriesen [4][Baidu], dem chinesischen Pendant zu Google. Der Markt reagierte euphorisch: Die Baidu-Aktie stieg am Donnerstag um über 3,1 Prozent. Bislang wurde die Entwicklung von KI-Software vor allem von den politischen Regulierungen in China gelähmt. Künstliche Intelligenz wird einerseits zwar von der Parteiführung in Peking als Zukunftstechnologie massiv gefördert, bietet aber gleichzeitig auch ein ungemein subversives Potenzial – nicht zuletzt, weil die Software selbst dazu lernt. Doch die Zentralregierung hatte es bereits vor über zehn Jahren erfolgreich gemeistert, die digitalen Möglichkeiten für den eigenen Machterhalt erfolgreich zu nutzen. Als nämlich die sozialen Medien aufkamen, reagierte Peking zunächst mit flächendeckenden Verboten und Zensur. Zu sehr hatte man Angst vor dem Mobilisierungspotenzial von Twitter und Facebook, wie es die Jugend beim „arabischen Frühling“ nutzte: Man organisierte sich, teilte kritische Informationen gegen autoritären Herrscher, verabredete sich zu Protesten. ## Eigene Alternativen von kritischen Inhalten gesäubert Doch Peking lernte schnell dazu. Schon bald, nachdem die ausländischen Plattformen verboten waren, brachte man eigene Alternativen auf den Markt. Diese wurden nicht nur von sämtlichen kritischen Inhalten gesäubert, sondern dienten dem Regime schließlich als Werkzeug zur Kontrolle und Überwachung. Ohne Wechat, Weibo und Co. würde die staatliche Propaganda mittlerweile weitaus weniger effektiv funktionieren: Der Algorithmus sorgte zum Beispiel während der drakonischen Corona-Lockdowns dafür, dass die Postings verzweifelter und wütender Bürger gelöscht wurden, während die „heroischen“ Videos der Gesundheitsmitarbeiter ganz prominent auf den Apps platziert wurden. Ähnlich läuft es nun bei den Chatbots. Sämtliche Anbieter müssen nicht nur ihre Algorithmen bei den Behörden hinterlegen, sondern sich sowohl den chinesischen Bestimmungen als auch den [5][sozialistischen Grundwerten] verpflichten. Dass dies die Entwicklung verlangsamen würde, muss die kommunistische Partei in Kauf nehmen: ChatGPT hatte schließlich bereits kurz nach seiner Einführung über 100 Millionen Nutzerinnen und Nutzer. Und mit jeder Sucheingabe lernt die Software dazu. Wie stark die chinesische Konkurrenz zensiert wird, zeigt ein erster Praxistest: Wer „Ernie“ von Baidu nutzen möchte, muss sich erst einmal mit seiner Telefonnummer registrieren. Diese ist in China stets auch mit dem eigenen Pass verknüpft. Anonymität gibt es also keine. ## Keine Antwort zu Peking 1989 Inhaltlich ist das Programm ohnehin extrem eingeschränkt. Zunächst die erwartbare Zensur: Wer nach der Situation der Muslime in Xinjiang fragt, erhält natürlich nur eine Fehlermeldung als Antwort. Auch „Was ist die Kulturrevolution?“ kann Ernie nicht beantworten; genauso wenig, was 1989 auf dem Platz des Himmlischen Friedens in Peking geschah. Absurd wird es allerdings, wenn man simple Fragen zur chinesischen Politik stellt: Wie viele Mitglieder hat die kommunistische Partei? Wie lautet die Biografie von Staatschef Xi Jinping? Wer war Wirtschaftsreformer Deng Xiaoping? All dies ist bereits zu „sensibel“, als dass es von der chinesischen KI beantwortet werden kann. Ja, selbst die Frage „Wo liegt Tibet?“ wird bereits als Verstoß gegen die Regeln gewertet. Genau wie die einfache Frage: „Wer ist Staatschef von China?“. Vor allem aber legen die Algorithmen die Scheinmoral der chinesischen Zensur offen. „Ernie“ kann etwa genau beantworten, wie viele Covid-Tote es in den USA gab und wie hoch dort die Arbeitslosigkeit ist. Wer jedoch dieselben Fragen zu China stellt, bekommt nur einen Warnhinweis. Es bleibt aus der Perspektive liberaler Demokratien nur zu wünschen, dass die chinesische KI aufgrund der endlosen Regulierungen hinter der Entwicklung zurückbleibt. Denn wenn das Modell „Ernie“ Schule macht und chinesische Firmen ihre Software ins Ausland exportieren, dürften wohl weltweit diktatorische Regime Interesse daran finden. Chatbots wie „Ernie“ dienen schließlich vor allem als Werkzeug der politischen Manipulation. 1 Sep 2023 ## LINKS (DIR) [1] /OpenAI-in-der-Kritk/!5922783 (DIR) [2] /Kuenstliche-Intelligenz/!5948779 (DIR) [3] /Google-Chatbot-Bard-in-Deutschland/!5947380 (DIR) [4] /USA-versus-China/!5953799 (DIR) [5] /Automarkt-in-China/!5943401 ## AUTOREN (DIR) Fabian Kretschmer ## TAGS (DIR) Schwerpunkt Künstliche Intelligenz (DIR) China (DIR) Internet (DIR) China (DIR) China (DIR) Schwerpunkt Künstliche Intelligenz (DIR) Server (DIR) Schwerpunkt Künstliche Intelligenz ## ARTIKEL ZUM THEMA (DIR) Chinas Verteidigungsminister: Wo steckt Li Shangfu? Erst wurden zwei Generäle geschasst, dann der Außenminister. Nun hat ein weiterer Minister länger keinen Auftritt mehr absolviert. (DIR) G20-Gipfel ohne Chinas Staatschef: Warum Xi nicht kommt Chinas Staatschef kommt nicht zum G20-Gipfel am Wochenende in Indien. Das Verhältnis ist angespannt. Gönnt Peking Delhi keinen Erfolg? (DIR) Textgenerator „Poetron“: Gedichte? Vorsicht vor KI Günter Gehl entwickelte schon 1985 den skurrilen Textgenerator „Poetron“. Als KI-Pionier und Vorläufer von ChatGPT möchte er aber nicht gelten. (DIR) Ökologischer Fußabdruck von KI: Die Klimakiller-Intelligenz Künstliche Intelligenz gilt als neue Schlüsseltechnologie, auch gegen die Klimakrise. Doch sie hat ein schmutziges Geheimnis – im wahrsten Sinne. (DIR) Künstliche Intelligenz: ChatGPT wird dümmer Forscher*innen der Stanford Universität und der UC Berkeley haben Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt.