Innovative Forschung mit echten Folgen.

Wie HateLab die Entlarvung und Bekämpfung von Hassrede im Internet in nahezu Echtzeit ermöglicht


Hass und Hetze im digitalen Raum hat in den letzten Jahren enorm zugenommen. Das Dashboard von HateLab hat einen Ansatz für maschinelles Lernen und menschliche Intelligenz zur Überwachung von Hate-Speech entwickelt. Prof. Matthew Williams, Gründer und Direktor von HateLab, erläutert, wie die Überwachung dieser Social-Media-Daten dazu beiträgt, Hassreden online und Kriminalität offline zu verhindern.

In weiten Teilen der westlichen Welt hat die Zahl der polizeilich erfassten Hassverbrechen in den letzten Jahren zugenommen. Strafverfolgungsbehörden, Regierungen und zivilgesellschaftliche Organisationen müssen diesem Problem sowohl offline als auch online entgegenwirken. Der in Online- und Offline-Welt stets weiter anschwellende Hass macht mich persönlich betroffen. In den späten 1990er Jahren wurde ich Opfer von homophoben Übergriffen auf der Straße und von Hassrede in einem Online-Chatroom. Diese fürchterlichen Erlebnisse haben meinen beruflichen Werdegang verändert. Anstatt wie ursprünglich geplant Journalist zu werden, wurde ich Kriminologe. Ich wollte ergründen, woher dieser Hasst stammt, und herausfinden, warum meine Angreifer mich als Ziel wählten.

In meiner 20-jährigen Laufbahn habe ich mich mit allen möglichen Formen des Hasses befasst. Zuletzt galt meine Aufmerksamkeit der Frage, wie die neuen Kommunikationstechnologien den Hass in der modernen Welt verändert haben. 2016 gründete ich HateLab, ein akademisches Zentrum für Daten und Erkenntnisse über Hass im Internet. Die Hauptaufgabe von HateLab besteht in der Entwicklung und Demokratisierung von Technologien, die die Überwachung und Bekämpfung von Hassrede und polarisierenden Desinformationen im Internet ermöglichen. Das Lab hat ein hochmodernes Dashboard entwickelt, das wichtige Erkenntnisse für grundsätzliche und praktische Entscheidungen über das Vorkommen, die Auswirkungen und die Prävention dieser schädigenden Verhaltensweisen im Netz liefert.

Auf der Grundlage von zukunftsweisenden akademischen Forschungsprojekten und neuartigen Partnerschaften zum Austausch von Technologie und Daten mit Organisationen, die gegen Hass im Internet vorgehen, hat HateLab einen einzigartigen Ansatz zur Kontrolle von Hassrede entwickelt, der maschinelles Lernen mit menschlicher Intelligenz vereint. Unsere Algorithmen, die ständig anhand der Erkenntnisse von Fachleuten für Hassdelikte auf dem neuesten Stand gehalten werden, sind in der Lage, den beispiellosen Umfang und die Geschwindigkeit von Social-Media-Daten zu bewältigen. Dies war bisher ein Hindernis für Überwachungsmaßnahmen durch Unternehmen, die nicht zu den Tech-Riesen zählen. Unsere eigens entwickelte Technologie ermöglicht es uns, Hassrede und polarisierende Desinformationen verschiedenen sozialen Netzwerken zu überwachen, darunter Twitter, Reddit, 4chan und Telegram.

Dank der Finanzierung durch den britischen Wirtschafts- und Sozialforschungsrat und die Alfred Landecker Foundation konnten wir unsere Technologien in die richtigen Hände geben. Das Dashboard wurde von einer Reihe von zivilgesellschaftlichen Organisationen eingeführt, die es sich zur Aufgabe gemacht haben, Minderheiten zu schützen, aufgeheizte Debatten zu entschärfen und die Demokratie zu stärken.

Die Verwendung des Dashboards von HateLab hat zu neuen Forschungsergebnissen und konkreten Auswirkungen in der Offline-Welt geführt. Moderne Formen des Hasses scheinen sehr empfindlich auf sogenannte „Trigger-Ereignisse“ zu reagieren. Unsere Untersuchungen haben ergeben, dass Terroranschläge, Gerichtsverfahren, große Sportveranstaltungen, politische Abstimmungen sowie eine Vielzahl weiterer Ereignisse für einen begrenzten Zeitraum als „freisetzende Faktoren“ für Vorurteile wirken können. Diese Trigger-Ereignisse können Angehörige von rechtsextremen Gruppierungen in ihrem Hass bestärken, und – was vielleicht noch besorgniserregender ist – sie können auch Durchschnittsbürger “aktivieren“, sie also dazu ermutigen, ihre normalerweise unterdrückten Vorurteile zu äußern. Die Leute gehen dann zwar nicht direkt auf die Straße, um Hassverbrechen zu begehen, aber sie loggen sich vielleicht bei Twitter ein und posten dort beleidigende Inhalte. Diese „spontanen Hass-Twitterer“ geraten im Netz in eine Negativitätsspirale, die in der Regel durch Ereignisse von nationalem und internationalem Interesse angestoßen wird. Anhand des Dashboard von HateLab haben wir Hinweise darauf gefunden, dass das Verhalten eines „durchschnittlichen“ Social-Media-Nutzers in Bezug auf Hasspostings, der durch ein Trigger-Ereignis aktiviert wurde, eine „Halbwertszeit“ hat. Die Aktivierung ist nur von kurzer Dauer, und schon wenige Tage nach dem auslösenden Ereignis werden die Hass-Tweets eingestellt.

Untersuchungen von HateLab haben auch ergeben, dass Menschen, die im Internet hetzerische Inhalte verbreiten, in eine Typologie unterteilt werden können. An der Spitze der „Hasserhierarchie“ stehen Poster mit Sendungsbewusstsein. Sie neigen dazu, sich auf hetzerische Beiträge zu spezialisieren, werden durch ihre Moralvorstellungen zum Handeln verleitet und halten es für ihre Aufgabe, bestimmte Minderheitengruppen im Internet zu unterdrücken. Nutzer, die aus Rache posten, reagieren auf gelegentlich eintretende Ereignisse, durch die sie sich bedroht fühlen und die ihnen Angst machen. Defensive Hassposter werden aktiviert, wenn sie das Gefühl haben, dass ihr Territorium oder ihre moralischen Normen angegriffen oder bedroht werden. Erlebnisorientierte Hassposter schließlich empfinden mitunter gar keinen Hass für die Personen, gegen die sie sich wenden, sondern werden durch ihre Peergroup und den Wunsch, zu einer Gruppe zu gehören, motiviert. Manche Poster bewegen sich zwischen diesen Typen. So kann beispielsweise ein aus Rache postender Nutzer zu einem Poster mit Sendungsbewusstsein „aufsteigen“, und ein defensiver Hassposter kann zu einem erlebnisorientierten Hassposter „absteigen“. Das Wissen, dass nicht alle Hassposter gleich sind, ist wichtig, wenn es darum geht, zu beurteilen, welche am ehesten für welche Maßnahmen zur Bekämpfung von Hassinhalten empfänglich sind.

In den meisten Statistiken zu Hasskommentaren im Netz wird das Ausmaß des Problems deutlich unterschätzt, da die meisten Vorfälle nicht gemeldet werden. Weil das Dashboard von HateLab das Nutzerverhalten in Echtzeit überwacht und nicht erst darauf warten muss, dass die Betroffenen anstößige Inhalte melden, ermöglicht es eine direkte Beobachtung des tatsächlichen Aufkommens von Hasskommentaren. Es wurde konzipiert, um die zeitnahe Erkennung von und Reaktion auf Hassrede im Internet erleichtern, einschließlich gezielter Gegenrede bei Wiederholungstätern und der Vorbeugung von durch Hass motivierten Übergriffen auf der Straße. Die Forschung von HateLab hat gezeigt, dass Gegenreden, die sich an die dafür empfänglichsten Personen richten (z. B. an Hassposter, die kein Sendungsbewusstsein haben), die Verbreitung von Hass im Internet wirksam eindämmen können.

Am wichtigsten ist vielleicht, dass gezeigt werden konnte, dass sich anhand von Hasskommentaren im Internet physische „Offline“-Hassverbrechen in Großbritannien vorhersagen lassen. Dies bestätigt ähnliche Ergebnisse von Studien in Deutschland und den USA. Während es offensichtlich sein mag, dass Trigger-Ereignisse in der Offline-Welt (wie Covid, Brexit und Reden von Politiker und Persönlichkeiten des öffentlichen Lebens) Hasswellen im Netz auslösen können, ist es vielleicht weniger offensichtlich, dass ein bestimmtes Ausmaß und ein bestimmtes Timing von Online-Hasskommentaren mit einem höheren Maß an physischer Gewalt in Verbindung gebracht werden und diese hervorrufen können. Die Kenntnis über dieses Muster ist der Schlüssel zum Schutz von Minderheiten-Communities. HateLab hat sich zum Ziel gesetzt, seine Technologie noch intensiver zu nutzen, um die zuständigen Organisationen bei der Vorhersage von und dem Schutz gegen diese Art der Gewalt zu unterstützen.

Dank einer großzügigen Zuschussförderung können wir das Dashboard derzeit einer kleinen Gruppe von zivilgesellschaftlichen Organisationen zur Verfügung stellen. Auch in Zukunft haben wir Großes vor. Wir möchten die Anzahl der zivilgesellschaftlichen Organisationen, die Zugang zu unserer Technologie haben, vergrößern, damit wir bei der Schaffung eines weltweiten Netzwerks zur Überwachung und Bekämpfung von Hasskommentaren im Internet und polarisierenden Desinformation helfen und so die Big-Tech-Unternehmen zur Verantwortung ziehen können.

Matthew Williams ist Gründer und Leiter von HateLab und Autor des Buchs The Science of Hate, das bei Faber und Faber erscheint. Er ist Professor für Kriminologie an der Universität Cardiff und gilt weithin als einer der weltweit führenden Experten für Hasskriminalität. Er berät und forscht u. a. für die britischen Innen-, Außen und Justizministerien, das US-Justizministerium und Google. Seine Forschungsarbeiten wurden in Dokumentarfilmen für BBC One (Panorama, Crimewatch), BBC Two, BBC Radio 4 (Today, File on 4), ITV (Exposure), CBS, Amazon Studios sowie in namhaften Publikationen wie dem Guardian, dem Independent, der Times, dem Herald, der Los Angeles Times, Scientific American und New Scientist veröffentlicht.

Unsere Themen

Sich der Vergangenheit stellen

Antisemitismus bekämpfen

Minderheiten schützen

Demokratie sichern

Urteilskraft stärken

Auf Twitter teilen
Twitter
Auf Facebook teilen
Facebook
Per E-Mail teilen
Share-mail
Link kopieren
Link kopiert
Copy link
Zurück
back arrow