Der vorliegende Beitrag beschäftigt sich mit dem Phänomen Hassrede, seinen Folgen und möglichen Interventionen. Hassrede ist in digitalen Medien weitverbreitet, findet oft im Kontext von Flucht und Integration statt und kann für Angegriffene, aber auch Beobachtende negative Folgen haben, etwa psychische Belastungen, Empathie-Verluste und reduziertes Hilfeverhalten. Wenn Hassrede ignoriert wird, besteht die Gefahr, sie „salonfähig“ zu machen. Um das zu verhindern, können Nutzende Hassrede zum Beispiel melden und Betroffenen ihre Solidarität kommunizieren. Öffentliche Gegenrede kann—wenn gut gemacht—die Sachlichkeit von Online-Diskussion erhöhen. Auch wer selbst von Angriffen betroffen ist, sollte möglichst zeitnah und konstruktiv reagieren. Hierbei helfen verschiedene Stellen, u. a. durch Ratgeber oder, im Ernstfall, kostenlose Rechtsberatung. Auch eine psychosoziale oder therapeutische Begleitung kann als hilfreich erlebt werden. In Zukunft könnte dabei auch künstliche Intelligenz unterstützen, allerdings sind hierzu aktuell noch verschiedene Fragen zur Effektivität offen.
Hassrede ist in digitalen Medien, z. B. bei Instagram, TikTok oder Facebook, oder auch in den Kommentarspalten mancher Online-Zeitungen weit verbreitet. Unter Hassrede werden Äußerungen von Hass, Feindseligkeit und herabwürdigenden Einstellungen gegenüber Personen aufgrund ihrer wahrgenommenen Zugehörigkeit zu sozialen Gruppen verstanden.1 Hassrede kann dabei in Texten, Bildern, Videos, oder (non-)verbaler Kommunikation auftreten. 2024 gaben 45% der über 16-Jährigen deutschsprachigen Bevölkerung an, schon einmal Hass im Netz gesehen zu haben2. Besonders oft betroffen sind junge Frauen, Personen, denen aufgrund ihres Aussehens oder Namens eine Migrationsgeschichte zugeschrieben wird, sowie Personen, die einer sexuellen Minderheit angehören. In Deutschland richten sich Hasskommentare laut dieser Studie oft gegen Menschen mit Fluchterfahrung, Politiker*innen und Aktivist*innen.
Der Umgang mit Hasskommentaren gehört damit oft zum Alltag von Praktiker*innen im Bereich Flucht und Integration. Einerseits, weil beispielsweise Klient*innen betroffen sind, andererseits, weil das Engagement das Risiko erhöhen kann, selbst zum Ziel von Angriffen zu werden. Hassrede kann damit als eine Form digitaler Gewalt verstanden werden.3
Ist Hassrede überhaupt ein Problem?
Hass im Netz kann Schaden anrichten. Angegriffene erleben ähnliche psychologische Beschwerden nach Hassrede wie nach traumatischen Erfahrungen,4 unter anderem wird von sozialem Rückzug, psychischen Beschwerden und Selbstbildproblemen berichtet.2
Vier von zehn Angegriffenen äußern sich zudem anschließend nicht mehr öffentlich im Netz.2 Damit kann Hassrede zu einem Verlust von Vielfalt in digitalen Debatten führen.
Die wiederholte Konfrontation mit Hassrede schadet zudem nicht nur den Angegriffenen. Bei Beobachtenden kann es zu emotionalen Abstumpfungen, Empathieverlust5 und einer reduzierten Fähigkeit, den Schmerz anderer wahrzunehmen, kommen.6 Zudem sinkt die Bereitschaft, den Angegriffenen zu helfen.7 Dadurch kann Hassrede den öffentlichen Austausch und den gesellschaftlichen Zusammenhalt gefährden.
Studien zeigen, dass Hassrede als weniger schwerwiegend eingeschätzt wird, wenn sie sich als Humor tarnt (z. B. als sexistischer Witz)8 oder sich gegen sexuelle Minderheiten richtet9, als wenn sie es sich um humorlosen Sexismus oder eindeutigen Rassismus handelt. Allerdings können auch solche eher impliziten oder verdeckten Inhalte dem individuellen und gesellschaftlichen Wohlbefinden schaden3 und sollten daher nicht einfach ignoriert werden.
Abbildung 1: Symbolbild Hassrede (Quelle: Lena Frischlich)
Warum sollte Hassrede nicht ignoriert werden?
Hassrede sollte aus mindestens drei Gründen nicht einfach ignoriert werden.
(1) Menschen orientieren sich in ihrem Verhalten am Verhalten anderer im gleichen Kontext, vor allem in anonymen Online-Umgebungen.10 Dominiert Hassrede in einer Diskussion, steigt daher die Wahrscheinlichkeit, dass auch weitere Personen hasserfüllt kommentieren.11 Gleichzeitig führt das Schweigen bzw. Ignorieren von Hassrede dazu, dass sich immer weniger Nutzer*innen trauen, einzugreifen (weil alle anderen ja auch schweigen).
(2) Gegenrede deeskaliert und trägt zur Verbesserung des digitalen Diskussionsklimas bei. Angegriffene, die neben einem Hasskommentar, der sich gegen ihre religiöse Identität richtete, auch einen Gegenkommentar sahen, waren weniger bereit, selbst mit hasserfüllten Kommentaren in die Diskussion einzusteigen.12 Auch Inhaltsanalysen großer Datenmengen zeigen, dass Gegenrede mit einer Verbesserung des Diskussionsklimas einhergeht.13
(3) Der Rechtsrahmen ist auf Eingriffe durch Nutzende angewiesen. In Deutschland verpflichtet das Netzwerkdurchsetzungsgesetz (NetzDG) große digitale Plattformen illegale Hasskommentare innerhalb von 24 Stunden zu entfernen, nachdem diese gemeldet wurden. Auch der europäische Digital Service Act regelt, dass illegale Inhalte inklusive Hassrede nach der Meldung zügig entfernt wird. Das Gesetz selbst schreibt Nutzenden sozialer Netzwerke also eine wichtige Rolle beim Umgang mit Hass im Netz zu.
Wie kann man beobachteter Hassrede im Netz begegnen?
Beim Umgang mit Hass im Netz sind alle gefordert: Politik, Plattformbetreibende, Moderator*innen und Zivilgesellschaft. Hier soll angesichts der Ausrichtung des Fachnetzwerks aber lediglich auf Nutzende eingegangen werden, die Hass im Netz beobachten. Wenn man sich als Zeug*in nicht öffentlich äußern möchte, kann man Hassrede melden: zum Beispiel bei den Plattformen direkt, bei verschiedenen Bundesländern, oder über die Nicht-Regierungsorganisation Hate-Aid.13 Zudem kann man den Angegriffen seine Solidarität versichern und zeigen, dass sie nicht allein sind, entweder im Rahmen einer Privatnachricht oder durch öffentliche Gegenrede.
Der digitale Diskurs verändert sich durch Gegenrede—vor allem dann, wenn diese nicht alleine steht, sondern von vielen geäußert wird und wenn die Gegenrede selbst konstruktiv ist, also sachlich bleibt, keine eigenen Angriffe enthält und sich auf Fakten bezieht. So zeigt eine Auswertung von Facebook-Kommentaren durch die Aktivist*innen von #IchBinHier, einer Vereinigung die sich gegen Hass im Netz durch konstruktive Kommentare positioniert, dass nach höflichen und diskursorientierten Kommentaren (z. B. Argumenten, Zusatzwissen und konstruktiven Lösungsvorschlägen) eher höfliche und diskursorientierte Kommunikation stattfindet als ohne derartige Kommentare.15 Fakten gegen hasserfüllte Vorurteile gegenüber Geflüchteten stellt u. a. die Antonio-Amadeu Stiftung gemeinsam mit Pro-Asyl, Verdi und der IG-Metall zur Verfügung.16
Selbst Widerspruch löst weniger aggressive Diskussionen aus, wenn er zivilisiert und respektvoll (statt aggressiv und unhöflich) formuliert wird, also etwa sachliche Argumente vorgebracht werden.17 Von solchen Kommunikationsstrategien profitieren auch professionelle Moderator*innen: Wertschätzende Kommentare, die die Perspektive der Kommentierenden anerkennen und sich nicht über diese lustig machen, werden von anderen Nutzer*innen positiver bewertet und können damit eher zur Diskursverbesserung beitragen.18 Kommentare, die die Emotionen der angreifenden Person anerkennen und trotzdem klar widersprechen („Hey, ich kann verstehen, dass dich das aufregt, aber wir versuchen hier… höflich zu bleiben“/ „alle Menschen zu respektieren“, etc.) führen zudem dazu, dass die Organisation auf deren Webseite der Angriff stattfindet (z. B. die Zeitung) besser bewertet wird, als wenn auf den Angreifenden gar nicht eingegangen wird19.
In Zukunft könnte auch künstliche Intelligenz einen Beitrag zu digitaler Gegenrede leisten. Eine Studie, bei der (getarnte) Social Bots Verbreiter*innen von Hassrede an respektvolle Verhaltensnormen erinnerte oder an ihre Empathie appellierten, zeigte, dass eine solche Intervention hasserfülltes Kommentieren anschließend reduzierte.20 Allerdings sehen menschliche Gegenrede-Aktivist*innen und Mediennutzende aktuell noch einige Barrieren, bevor eine solche Technologie tatsächlich einsatzreif wäre. So wird etwa befürchtet, dass algorithmische Gegenrede unerwünschte Nebenwirkungen haben könnte – etwa Vertrauensverluste in menschliche Interaktionspartner*innen im Netz.21
Abbildung 2: Symbolbild künstliche Intelligenz (Quelle: Lena Frischlich)
Was, wenn man selbst angegriffen wird?
Knapp 15% der über 16-jährigen deutschsprachigen Bevölkerung wurde bereits selbst im Netz angegriffen, bei Frauen sind es 24% und bei Personen mit sichtbarer Migrationsgeschichte ist es fast jede*r Dritte.2 Es ergibt also Sinn, sich bereits vor einem Angriff zu überlegen, wie mit einem solchen umgegangen werden sollte und welche Ressourcen im Ernstfall mobilisiert werden können. Verschiedene kleinere und größere Organisationen unterstützen dabei. Neben den bereits erwähnten wie HateAid u.a. auch das NETTZ oder Hatefree. Hierüber ist (Stand 2024) teilweise auch der Zugang zu kostenfreier Rechtsberatung möglich.
Hate Aid bietet zudem einen Ratgeber für Betroffene digitaler Gewalt an.22 Für „Shitstorms“ (hohe Anzahl an Hasskommentaren in kurzer Zeit) wird unter anderem empfohlen, erst einmal durchzuatmen und dann zeitnah zu reagieren, dabei aber respektvoll und knapp zu bleiben und Regeln für den zivilen Austausch konsequent zu benennen und durchzusetzen (z. B. rassistische Kommentare zu löschen oder zu blockieren). Dabei kann auch Unterstützung weiterer Personen (etwa zur Sichtung der persönlichen Emails) helfen. Die meisten Angriffswellen sind nach wenigen Tagen wieder vorbei. Zudem wird empfohlen, sich auch mit positiven und konstruktiven Kommentaren auseinanderzusetzen und sich für Unterstützer*innen zu bedanken. Letztlich gelten hier also die gleichen Empfehlungen wie bei der Beobachtung von Hassrede, die sich gegen andere richtet.
Angesichts der negativen Konsequenzen für das eigene Wohlbefinden könnte zudem psychosoziale Unterstützung bis hin zu therapeutischer Begleitung als hilfreich erlebt werden. Allerdings fehlen bislang empirische Untersuchungen zur Wirksamkeit unterschiedlicher Bewältigungsstrategien im Hinblick auf die Abfederung der negativen Konsequenzen, die Hassrede für das individuelle und kollektive Wohlbefinden haben kann.
Auf einen Blick
• Hassrede kann dem individuellen Wohlbefinden und dem gesellschaftlichen Zusammenhalt schaden
• Beobachtende sollten Hassrede nicht einfach ignorieren, da es dadurch zur Etablierung von Hassnormen kommen kann.
• Als Zeug*in kann man Hassrede durch Meldungen, Solidarität und Gegenrede entgegentreten.
• Gegenrede sollte zivilisiert und konstruktiv sein.
• Künstliche Intelligenz könnte in Zukunft Gegenrede unterstützen, allerdings fehlt noch Forschung zu langfristigen Wirkungen.
• Auf Angriffe bereitet man sich am besten im Vorfeld vor – etwa mit der Hilfe der verfügbaren Ratgeber.
• Auch persönlich Betroffene sollten möglichst konstruktiv reagieren.
• Professionelle Unterstützung kann als hilfreich erlebt werden.
Literatur
1 Schwertberger, U., & Rieger, D. (2021). Hass und seine vielen Gesichter: Eine sozial- und kommunikationswissenschaftliche Einordnung von Hate Speech. In S. Wachs, B. Koch-Priewe, & A. Zick (Hrsg.), Hate Speech—Multidisziplinäre Analysen und Handlungsoptionen: Theoretische und empirische Annäherungen an ein interdisziplinäres Phänomen (S. 53–77). Springer Fachmedien. https://doi.org/10.1007/978-3-658-31793-5_4
2 Bernhard, L., & Ickstadt, L. (2024). Lauter Hass leiser Rückzug Wie Hass im Netz den demokratischen Diskurs bedroht. Online verfügbar unter: https://hateaid.org/wp-content/uploads/2024/04/Studie_Lauter-Hass-leiser-Rueckzug.pdf
3 u.a. Schwarz-Friesel, M. (2013). „Dies ist kein Hassbrief – sondern meine eigene Meinung über Euch!“ – Zur kognitiven und emotionalen Basis der aktuellen antisemitischen Hassrede. In J. Meibauer (Hrsg.), Hassrede/Hate Speech: Interdisziplinäre Beiträge zu einer aktuellen Diskussion. (S. 143–164). Gießener Elektronische Bibliothek.
4 Leets, L. (2002). Experiencing hate speech: Perceptions and responses to anti-semitism and antigay speech. Journal of Social Issues, 58(2), 341–361. https://doi.org/10.1111/1540-4560.00264
5 Bilewicz, M., & Soral, W. (2020). Hate speech epidemic. The dynamic effects of derogatory language on intergroup relations and political radicalization. Political Psychology, 41(S1), 3–33. https://doi.org/10.1111/pops.12670
6 Pluta, A., Mazurek, J., Wojciechowski, J., Wolak, T., Soral, W., & Bilewicz, M. (2023). Exposure to hate speech deteriorates neurocognitive mechanisms of the ability to understand others’ pain. Scientific Reports, 13(1), Article 1. https://doi.org/10.1038/s41598-023-31146-1
7 Ziegele, M., Koehler, C., & Weber, M. (2018). Socially destructive? Effects of negative and hateful user comments on readers’ donation behavior toward refugees and homeless persons. Journal of Broadcasting & Electronic Media, 62(4), 636–653. https://doi.org/10/gf8pn4
8 Schmid, U. K., Kümpel, A. S., & Rieger, D. (2022). How social media users perceive different forms of online hate speech: A qualitative multi-method study. New Media & Society, 14614448221091185. https://doi.org/10.1177/14614448221091185
9 Obermaier, M., Schmid, U. K., & Rieger, D. (2023). Too civil to care? How online hate speech against different social groups affects bystander intervention. European Journal of Criminology, 20(3), 817–833. https://doi.org/10.1177/14773708231156328
10 Postmes, T., & Spears, R. (o. J.). Deindividuation and antinormative behavior: A meta-analysis. Psychological Bulletin, 123(3), 238–259.
11 Hsueh, M., Yogeeswaran, K., & Malinen, S. (2015). “Leave your comment below”: Can biased online comments influence our own prejudicial attitudes and behaviors? Human Communication Research, 41(4), 557–576. https://doi.org/10.1111/hcre.12059
12 Obermaier, M., Schmuck, D., & Saleem, M. (2021). I’ll be there for you? Effects of Islamophobic online hate speech and counter speech on Muslim in-group bystanders’ intention to intervene. New Media & Society, 1–20. https://doi.org/10.1177/1461444821101752
13 Garland, J., Ghazi-Zahedi, K., Young, J.-G., Hébert-Dufresne, L., & Galesic, M. (2022). Impact and dynamics of hate and counter speech online. EPJ Data Science, 11(1), 3. https://doi.org/10.1140/epjds/s13688-021-00314-6
14 https://hateaid.org/meldeformular/, Zugriff am 27.12.2024, 16:44.
15 Ziegele, M., Jost, P., Frieß, D., & Naab, T. (2019). Aufräumen im Trollhaus. Zum Einfluss von Community-Managern und Aktionsgruppen in Kommentarspalten. Düsseldorf Institute for Internet and Democracy.
16 https://www.belltower.news/14-argumente-gegen-vorurteile-44312/, Zugriff am 27.12.2024, 16:46
17 Masullo Chen, G., & Lu, S. (2017). Online political discourse: Exploring differences in effects of civil and uncivil disagreement in news website comments. Journal of Broadcasting & Electronic Media, 61(1), 108–125. https://doi.org/10.1080/08838151.2016.1273922
18Masullo, G. M., Riedl, M. J., & Huang, Q. E. (2022). Engagement moderation: What journalists should say to improve online discussions. Journalism Practice, 16(4), 738–754. https://doi.org/10.1080/17512786.2020.1808858
19 Masullo, G. M., Ziegele, M., Riedl, M. J., Jost, P., & Naab, T. K. (2022). Effects of a high-person-centered response to commenters who disagree on readers’ positive attitudes toward a news outlet’s facebook page. Digital Journalism, 10(3), 493–515. https://doi.org/10.1080/21670811.2021.2021376
20 Bilewicz, M., Tempska, P., Leliwa, G., Dowgiałło, M., Tańska, M., Urbaniak, R., & Wroczyński, M. (2021). Artificial intelligence against hate: Intervention reducing verbal aggression in the social network environment. Aggressive Behavior, 47(3), 260–266. https://doi.org/10.1002/ab.21948
21 Mun, J., Buerger, C., Liang, J. T., Garland, J., & Sap, M. (2024). Counterspeakers’ Perspectives: Unveiling Barriers and AI Needs in the Fight against Online Hate. Proceedings of the CHI Conference on Human Factors in Computing Systems, 1–22. https://doi.org/10.1145/3613904.3642025
22 HateAid (2024). Ratgeber. Online verfügbar unter: https://hateaid.org/ratgeber/
Bitte zitieren als: Frischlich, Lena & Seeger, Christina. (2025). Wie kann man Hassrede (z. B. im Internet) begegnen? Magazin des Fachnetzwerks Sozialpsychologie zu Flucht und Integration. Online abrufbar unter http://www.fachnetzflucht.de/wie-kann-man-hassrede-im-internet-begegnen