# taz.de -- Hate Speech im Netz: Wenn Maschinen moderieren
       
       > Hasskommentare sind in den sozialen Medien allgegenwärtig. Sie zu melden
       > ist oft frustrierend – denn hinter den Entscheidungen stecken
       > Algorithmen.
       
 (IMG) Bild: Facebook-Rechenzentrum in Luleå in Schweden
       
       [1][Beleidigungen und Schmähungen im Internet] sind ein wachsendes Problem.
       Mit 94 Prozent gab 2020 die überwältigende Mehrheit der Nutzer*innen im
       Alter von 14 bis 24 Jahren an, bereits Hass im Netz erlebt zu haben. Wie
       die Forsa-Umfrage zu Hassrede im Netz ebenfalls herausfand, melden immer
       mehr Menschen entsprechende Kommentare: Waren es 2015 nur 34 Prozent der
       Befragten, so stieg die Zahl 2020 mit 67 beinahe auf das Doppelte an.
       
       Doch was danach passiert, ist für viele Nutzer*innen der großen sozialen
       Plattformen wie Facebook und Twitter oft ärgerlich: Während oft eigentlich
       unbedenkliche Inhalte aufgrund von bestimmten Schlagwörtern gelöscht
       werden, können tatsächliche Beschimpfungen eine solche umgehen,
       insbesondere wenn sie subtiler ausfallen.
       
       Ein Grund dafür ist, dass die Moderation von Beiträgen und Kommentaren
       gerade bei besonders mitgliederstarken Netzwerken oft nicht mehr von
       Menschen, [2][sondern Künstlicher Intelligenz übernommen wird]. „KI ist
       schwach darin, sinnerfassend Texte zu verstehen. Subtilen Humor, Slang oder
       selbstermächtigte Sprache kann sie nicht begreifen. Sie erkennt den
       Beschimpfungskontext nicht“, erklärt Matthias C. Kettemann.
       
       Er ist Forschungsprogrammleiter des internationalen Projektes „Ethik der
       Digitalisierung – Von Prinzipien zu Praktiken“ unter der Schirmherrschaft
       von Bundespräsident Frank-Walter Steinmeier, das vom Alexander von Humboldt
       Institut für Internet und Gesellschaft (HIIG) initiiert wurde. An der
       Forschung beteiligt sind außerdem das Berkman Klein Center an der Harvard
       University, der Digital Asia Hub und das Leibniz-Institut für
       Medienforschung.
       
       ## Künstliche Intelligenz ermittelt Straftatbestand
       
       Um der Flut an Hetze etwas entgegenzusetzen, ist erst im April ein
       Gesetzespaket gegen Hasskriminalität in Kraft getreten, das härtere Strafen
       für Beleidigungen im Internet (bis zu zwei Jahre Haft) sowie bei Mord- und
       Vergewaltigungsdrohungen (bis zu drei Jahre Haft) vorsieht. Darüber hinaus
       sind die sozialen Plattformen dazu verpflichtet worden, volksverhetzende
       Äußerungen und andere strafbare Inhalte künftig nicht nur zu löschen,
       sondern außerdem zu melden. Beim Bundeskriminalamt soll dafür eigens eine
       Zentralstelle eingerichtet werden.
       
       Auch wegen dieser Verpflichtung ist die Notwendigkeit zum Einsatz von
       Künstlicher Intelligenz, die strafrechtlich relevante Fälle von Hassrede
       erkennt, deutlicher geworden. Kettemann sieht diese Entwicklung allerdings
       skeptisch: „Es ist sehr schwierig, Inhalte einem bestimmten Straftatbestand
       zuzuordnen. Selbst Juristinnen und Juristen müssen jahrelang studieren,
       damit sie in der Lage sind, das zu tun. Eine Künstliche Intelligenz kann
       das nur sehr unscharf. Eine solche Verpflichtung zur Meldung ist
       problematisch, weil es sehr viel Beifang geben wird.“
       
       Bereits während der Pandemie, als ein Großteil der Belegschaft ins
       Homeoffice geschickt werden musste, haben die großen Plattformen damit
       begonnen, den Einsatz von Algorithmen bei der Moderation von Beiträgen und
       Kommentaren drastisch zu erhöhen – und damit verdoppelte sich etwa bei
       Facebook in der zweiten Jahreshälfte 2020 tatsächlich auch die Menge des
       entfernten Materials.
       
       Während die Algorithmen insgesamt wesentlich großzügiger aussortierten,
       nahm die Zahl der gelöschten Inhalte jedoch ausgerechnet in besonders
       sensiblen Bereichen – wie Nacktheit und Missbrauch von Kindern – wiederum
       stark ab, wie aus dem Transparenzbericht des Konzerns hervorgeht.
       
       Ein Hauptproblem in der Moderationspraxis sieht Kettemann darin, dass die
       Plattformen weiterhin nicht offenlegen, nach welchen Kriterien Löschungen
       vorgenommen werden oder über die genauen Funktionsweisen der Algorithmen
       aufklären: „Die Autonomie und Würde des Einzelnen muss im Fokus stehen.
       Menschen dürfen nicht einfach Entscheidungen unterworfen werden, die sie
       nicht verstehen. Das führt zu diffusen Gefühlen der Ohnmacht, die zu ebenso
       diffusen Ausbrüchen gegen „die Medien“ oder „die Politik“ führen. Wir
       plädieren deswegen beispielsweise für Infoboxen, die die Nutzerinnen und
       Nutzer darüber aufklären, wie die Algorithmen funktionieren.“
       
       Die im Juni in Kraft getretene Reform des Netzwerkdurchsetzungsgesetzes
       („NetzDG“), wonach zumindest Forscher*innen von den
       Plattform-Betreiber*innen nun im öffentlichen Interesse Auskünfte über
       Einsatz und Wirkweise von Verfahren zur automatisierten Erkennung von
       Inhalten, die entfernt oder gesperrt werden sollen, einholen können, könnte
       ein erster Schritt zu mehr Transparenz sein.
       
       ## Neues Tool „Decoding Antisemitism“
       
       Immerhin ist auch ein sogenanntes Gegenvorstellungsverfahren vorgesehen,
       in dem Nutzer*innen die Überprüfung von Moderationsentscheidungen
       einfordern können. Die Betreiber*innen müssen dann eine Begründung für
       ihr Urteil liefern. Eine Offenlegung der genauen Funktionsweisen der
       Künstlichen Intelligenz ist nicht vorgesehen.
       
       Erhebliche Missstände beim Einsatz von automatisierter Moderation auf den
       sozialen Plattformen sieht auch Matthias J. Becker, der Transparenz als
       eine zentrale Priorität des von ihm geleiteten Projektes „Decoding
       Antisemitism“ betrachtet. Das von der Alfred Landecker Foundation, dem
       Zentrum für Antisemitismusforschung der Technischen Universität Berlin und
       dem King’s College London entwickelte Forschungsvorhaben soll der
       Unfähigkeit der bislang verwendeten Algorithmen zur Erkennung von Hassrede
       ein wirksames, smarteres Moderationstool entgegensetzen:
       
       „Die Suche der verwendeten Algorithmen nach verbalem Antisemitismus
       funktioniert schon fast nach einem schablonenhaften Muster, das stets mit
       dem Ausdruck von Emotionen verbunden ist. Dabei weiß jeder, der in der
       Antisemitismusforschung tätig ist, dass die Reproduktion von Stereotypen
       auch ohne Gefühlsausdrücke auskommt. Jemand kann ein bestimmtes Vorurteil
       gegenüber jüdischen Personen vorbringen, ohne die zugrundeliegende
       Vorstellung in explizite Worte zu gießen oder dabei Hass, Argwohn oder Ekel
       zum Ausdruck zu bringen.“
       
       Derzeit untersuchen Forscher*innen in Deutschland, Frankreich und
       Großbritannien, wie judenfeindliche Stereotype versprachlicht werden. Das
       geplante Tool soll später in der Lage sein, besonders impliziten
       Antisemitismus zu erkennen. Wichtig ist Becker dabei vor allem, dass der
       Algorithmus ausführlich getestet und von Menschen trainiert wird.
       
       ## Wie verändern sich Ressentiments mit der Zeit?
       
       Auch die Entscheidungsgrundlagen der Anwendung sollen vollkommen
       offengelegt werden. Die Künstliche Intelligenz soll dabei später nicht nur
       definieren können, dass es sich um Antisemitismus handelt – sondern auch
       feststellen können, welche Stereotype und Sprachmuster bedient werden. Das
       soll wiederum nicht nur zu einem weniger hasserfüllten Klima im Netz
       beitragen, sondern spätere Beobachtungen dazu ermöglichen, wie sich
       antisemitische Ressentiments und ihre Artikulation im Laufe der Zeit
       verändern.
       
       Am Ende soll das Tool in den Kommentarspalten von News-Websites zum Einsatz
       kommen und auch bei Facebook, Twitter und Instagram ein Umdenken anregen –
       vielleicht sogar direkt dort eingesetzt werden. Das ist wichtig, weil
       Sprache Denkmuster schafft und so wiederum ein bestimmtes Handeln
       hervorrufen kann, betont Becker.
       
       Ambitionierte Projekte wie „Decoding Antisemitism“, die sich gleich David
       gegen Goliath in den Ring wagen, um die großen Konzerne zum Nachjustieren
       zu zwingen, machen Hoffnung auf Veränderung. Dass die Moderation auf
       sozialen Plattformen jemals ganz in die Hände von Maschinen gelegt werden
       kann, hält aber zumindest Kettemann für unwahrscheinlich: „Der Mensch ist
       ein kommunikatives Wesen, wir entwickeln das Bild unseres Selbst erst in
       den Augen der anderen. Solange die Menschen reden, werden sie also kreativ
       sein – und solange sie kreativ sind, haben die Algorithmen ein Problem.“
       
       21 Jul 2021
       
       ## LINKS
       
 (DIR) [1] /Hate-Speech/!t5221773
 (DIR) [2] /Kuenstliche-Intelligenz/!5720691
       
       ## AUTOREN
       
 (DIR) Arabella Wintermayr
       
       ## TAGS
       
 (DIR) Schwerpunkt Facebook
 (DIR) Hate Speech
 (DIR) Soziale Medien
 (DIR) künstliche Intelligenz
 (DIR) Algorithmus
 (DIR) GNS
 (DIR) Instagram
 (DIR) Kommunalpolitik
 (DIR) Soziale Medien
 (DIR) Hasskriminalität
 (DIR) Soziale Netzwerke
 (DIR) Twitter
 (DIR) künstliche Intelligenz
 (DIR) Schwerpunkt Rassismus
 (DIR) Realität
 (DIR) TikTok
 (DIR) Schwerpunkt Facebook
 (DIR) Hate Speech
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Instagram will unpolitisch werden: Subtile Botschaften
       
       Der Meta-Konzern kündigt an, politische Inhalte auf seinen Plattformen
       einzuschränken. Das wird zu einer noch subtileren politischen Kommunikation
       führen.
       
 (DIR) Gewalt gegen Landtagsabgeordneten: Grünen zu Boden gerungen
       
       Beschimpfungen ist der niedersächsische Landtagsabgeordnete Christian
       Schroeder gewohnt, nun wurde er zum ersten Mal körperlich attackiert.
       
 (DIR) Medienforschung am Hans-Bredow-Institut: Interdisziplinäres Schritt halten
       
       Das Hamburger Hans-Bredow-Institut erforscht, wie sich Medien über die Zeit
       verändern und was das für Gesellschaft, Politik und Wirtschaft bedeutet.
       
 (DIR) Hass im Netz: Müder Kampf gegen Hasskriminalität
       
       Nach einer Medienrecherche räumen Polizeibehörden Versäumnisse ein.
       Forderungen nach besserer Ausstattung der Dienststellen werden laut.
       
 (DIR) Schätzung des Bundeskriminalamts: 150.000 Verfahren pro Jahr
       
       Das BKA geht wegen des neuen Gesetzes gegen Hass im Netz von jährlich
       150.000 Strafverfahren aus. Die neue Meldestelle geht im Februar an den
       Start.
       
 (DIR) Twitter-KI diverser machen: Suche nach dem Superprogrammierer
       
       Das US-Netzwerk Twitter lässt seine Algorithmen von Externen prüfen. Aber
       reicht das am Ende, um die Diskriminierung zu stoppen?
       
 (DIR) KI-Ausstellung in München: Mensch trifft Maschine
       
       Das Verhältnis des Menschen zum technischen Diener bleibt ambivalent. Eine
       KI-Ausstellung in der Münchner Pinakothek der Moderne erörtert das.
       
 (DIR) Antisemitismus in Deutschland: Das Schweigen brechen
       
       Der Hass gegen Jüdinnen:Juden in Deutschland lebt. Er zieht seine Fäden
       durch die gesamte Gesellschaft – mal verhalten, mal ganz offen.
       
 (DIR) Sky-Serie „Ich und die Anderen“: Die Hölle, das sind die anderen
       
       Die experimentelle Serie „Ich und die Anderen“ ergründet
       existenzialistische Fragen. Die sechs Folgen feuern ein wahres
       Dialogfeuerwerk ab.
       
 (DIR) Frauenhass auf TikTok: Ohne Respekt, ohne Kultur
       
       Junge Frauen erleben besonders viel Hass in sozialen Netzwerken wie TikTok.
       Antifeministen beleidigen systematisch alle, die ihr Weltbild bedrohen.
       
 (DIR) Klarnamenpflicht auf Plattformen: Wenn Dieter auf Facebook hetzt
       
       Das Netzwerk Facebook darf Nutzer:innen Pseudonyme verbieten, urteilt ein
       Gericht. Doch hält eine Klarnamenpflicht von Hasspostings ab?
       
 (DIR) Gesetze gegen Hate Speech: Digitale Internationale
       
       Wer gegen illegale Inhalte in sozialen Medien vorgehen möchte, muss
       international agieren. Das funktioniert bisher noch nicht einmal in Europa.