Die Bekämpfung von Hate Speech und Extremismus im Netz
Lösungsansätze aus Zivilgesellschaft und Politik
Die Ausgangslage
Die kommunikativen Vorzüge der Digitalisierung sind spätestens mit der Coronakrise für nahezu jede und jeden spürbar geworden. Doch der virtuelle Raum bietet neben einfachen Kommunikations- und Vernetzungsmöglichkeiten, der freien Meinungsäußerung und dem Zugang zu Wissen auch Platz für toxische Entwicklungen: Hassrede, Falschnachrichten und anti-demokratische und extremistische Inhalte finden seit geraumer Zeit im Internet und auf digitalen Plattformen rapide Verbreitungswege und beeinflussen unsere „analoge Realität“ in bisher ungeahntem Maße.
Dies schadet Individuen und Gruppierungen, aber auch dem Kern unserer Demokratie. Der virtuelle Raum ist nicht nur Spiegelbild gesellschaftlicher Schieflagen, er verstärkt und potenziert diese sogar. Grund dafür sind spezielle Mechanismen, Regeln und Geschäftsmodelle von Onlineplattformen.
Dies macht die Bekämpfung von Hate Speech und Extremismus im Netz zu einem vielschichtigen Problem, nicht zuletzt da es eng mit Themen wie der digitalen Plattformarchitekturen, Datenschutz und Meinungsfreiheit verwoben ist. Es gilt somit einen differenzierten Blick auf die konkreten Herausforderungen zu werfen. Mögliche Lösungsansätze sind gleichermaßen vielfältig und sollen in diesem Artikel für den deutschen Kontext mit ihren Vor- und Nachteilen beleuchtet werden.
Grundlage für die anschließenden Ausführungen ist unter anderem die langjährige Fördererfahrung der Robert Bosch Stiftung im Themenfeld, hauptsächlich durch das Projekt „das NETTZ – die Vernetzungsstelle gegen Hate Speech“.
Folgen von Hassrede im Internet
Es existiert keine einheitliche Definition des Begriffs Hate Speech. Ein Großteil zivilgesellschaftlicher sowie internationaler Organisationen (Bsp. Europarat) orientiert sich an dem folgenden Verständnis: Hate Speech bedeutet die Beleidigung einer Person (im Internet) aufgrund ihrer Zugehörigkeit zu einer (marginalisierten) Gruppe oder Minderheit sowie jegliche verbale Propaganda, Anstiftung oder Rechtfertigung dieser Intoleranz und Diskriminierung. Das aus der Sozialwissenschaft stammende Konzept der Gruppenbezogenen Menschenfeindlichkeit (GMF) findet hiermit im digitalen Raum Anwendung und verdeutlicht, dass die Wurzel des Problems nicht in der Technik (alleine) begründet liegen kann.
Hassrede und Hetze im Netz kann verheerende Folgen für Individuen und ganze Gruppen haben. Neben psychischen Folgen für Betroffene wie Angstzuständen und Depressionen, gefährdet Hate Speech die Meinungsvielfalt sowie den individuellen Datenschutz und die eigene Sicherheit (durch Doxxing). Es lässt sich zudem ein „silencing“ Effekt erkennen: Nutzerinnen und Nutzer zensieren sich im vorauseilenden Gehorsam oder legen sogar öffentliche und ehrenamtliche Ämter ab. Darüber hinaus entsteht durch eine lautstarke, aktive Minderheit (siehe Studie „Hass auf Knopfdruck“) auf sozialen Medien häufig ein verzerrtes Meinungsbild. Gezielte Desinformationskampagnen, Verschwörungsmythen sowie extremistische Ideologien tragen zusätzlich zur Polarisierung der Gesellschaft bei.
Unter der Prämisse, dass Hate Speech und Extremismus im Netz primär gesellschaftliche Herausforderungen sind, die sich im Internet verstärkt darstellen, ist es folgerichtig auf bekannte Ansätze wie Aufklärung, positive Beeinflussung der Debattenkultur und Präventionsarbeit zu setzen. Im Folgenden werden die Herangehensweisen überwiegend zivilgesellschaftlicher Initiativen für eine bessere Debattenkultur in Kürze dargestellt, eine umfängliche Übersicht aller Akteure ist hier zu finden.
Gegenrede und weiteres zivilgesellschaftliches Engagement
Wie kann Hass im Internet bekämpft werden? Der erste Schritt erfordert, dass menschenverachtende, diskriminierende und illegale Inhalte erkannt und an die jeweiligen Plattformen oder Meldestellen als Zwischeninstanz gemeldet werden. In den meisten Fällen findet erst dann eine aktive Prüfung statt, ob strafrechtliche Aussagen vorliegen. In Anbetracht der großen Menge an Kanälen, Foren und digitalen Plattformen, ist diese fundamental wichtige Aufgabe mit großem (personellen) Einsatz verbunden.
Oft dominiert eine überdurchschnittlich aktive Minderheit Debatten im Netz und befeuert hasserfüllte Äußerungen und persönliche Angriffe auf (marginalisierte) Gruppen.
Die oben zitierte Studie zeigt anschaulich, dass oftmals eine überdurchschnittlich aktive Minderheit Debatten im Netz dominiert und des Weiteren hasserfüllte Äußerungen und persönliche Angriffe auf (marginalisierte) Gruppen befeuert. Dieser negativen Dynamik versuchen Vereine und Einzelpersonen entgegenzutreten und eine Versachlichung von Online Debatten zu erwirken. Auch wenn das Engagement der „Gegenrede“ im Internet wie ein Kampf gegen Windmühlen erscheinen mag, gibt es ausreichend Gründe sich zu beteiligen. Zum einen zeigt das Engagement Zivilcourage und Solidarität mit den Betroffenen von Hate Speech. Des Weiteren legt eine Studie nahe, dass aktive Gegenrede weiteren Hass in einer Online-Debatte verringert. Aus diesem Grund geht man von einem positiven Effekt für die „stille“ Mitleserschaft aus. Außerdem wird das Geschäftsmodell der Aufmerksamkeitsökonomie zum Guten genutzt – bei einer Mehrheit an konstruktiven und sachlichen Kommentaren werden diese für andere Leserinnen und Leser an oberster Stelle gelistet. Damit die aktive „Gegenrede“ im Internet Erfolg hat, konzentrieren sich die aktiven Initiativen in den meisten Fällen auf reichweitenstarke Medienkanäle großer deutscher Zeitungen auf Facebook.
Weitere Akteure fokussieren sich auf Aufklärungsarbeit zum Thema Hate Speech für verschiedene Altersgruppen oder die Vermittlung notwendiger Medienkompetenzen. Es gibt zudem viele positive Beispiele von Organisationen, die gebündelten Hass im Netz plattformübergreifend „aufspüren“, zurückverfolgen und die dahinterliegenden Strukturen grafisch aufbereiten und veröffentlichen. Differenzierte und gut aufbereitete Faktenchecks sind ebenfalls herausragende Beispiele für ziviles und ehrenamtliches Engagement im Internet, welche zu einer positiven Online-Debattenkultur beitragen können.
Der negativen Dynamik versuchen zivilgesellschaftliche Initiativen durch Vermittlung von Medienkompetenz, Faktenchecks, Digital Streetwork sowie Aufklärungsarbeit entgegenzuwirken.
Es existieren zudem (präventive) Ansätze, die dem Thema Extremismus im Netz entgegentreten möchten. So versuchen zum Beispiel Projekte des sogenannten Digital Streetwork durch eine One-to-One Kommunikation eine persönlichere und weniger aufgeheizte Konversation auf Augenhöhe herzustellen und Beweggründe für das aggressive Verhalten des Nutzers oder extremistische Äußerungen zu bearbeiten.
Beim Blick auf das Engagementfeld ist augenscheinlich, dass es nachhaltige und systemisch verankerte Maßnahmen benötigt, um der gesamtgesellschaftlichen Herausforderung entgegenzutreten. Dies ist in der Vergangenheit oftmals durch projektbasierte Mittel und Modellprojekte nicht ausreichend gelungen. Die neuen Maßnahmen des Kabinettsausschusses gegen Rechtsextremismus und Rassismus bieten vielversprechende Anknüpfungspunkte für die Online-Extremismusprävention sowie das digitale Engagement für eine plurale, demokratische Gesellschaft.
Die Vielfalt der dargestellten zivilgesellschaftlichen Initiativen zeigt die Notwendigkeit sich auch im virtuellen Raum für eine wehrhafte Demokratie sowie eine freie, offene Gesellschaft einzusetzen. Trotzdem erscheint das verhältnismäßig geringfügige Engagement oftmals nur die Symptomlinderung eines größeren Problems zu sein. Um an die Wurzel zu gelangen bedarf es eines holistischen Ansatzes, der weitreichend Sektoren zusammenbringt. Einige Ansätze, mit dem Fokus auf staatliche und technische Regulierungsmöglichkeiten, werden im Folgenden diskutiert.
Plattformregulierung und Strafverfolgung
Der Umgang mit strafwidrigen Inhalten sowie die straf- und zivilrechtliche Sanktionierung von Hasskriminalität steckt an vielen Stellen noch in ihren Kinderschuhen. Viele Jahre wurden die Auswirkungen von Hassrede gegen Individuen und (marginalisierte) Gruppen als „Nischenproblem“ für Digitalaffine betrachtet oder stiefmütterlich behandelt. Mittlerweile wird die gesellschaftliche Relevanz des Themas glücklicherweise zunehmend von Entscheidungsträgerinnen und –trägern anerkannt und erste politische Maßnahmen wurden eingeleitet. Denn leider häuften sich alleine in den vergangenen Jahren Vorfälle, die zeigten, dass diskriminierende Narrative im Internet den Weg für analoge Übergriffe auf bestimmte Gruppen ebnen und eine Radikalisierung im Internet fatale Auswirkungen haben kann.
Viele digitale Plattformen ermöglichen ein hohes Maß an Mobilisierung für Extremisten. Des Weiteren besteht die Gefahr, dass durch das sogenannte „Mainstreaming“ extremistische und unwahre Botschaften sukzessiv bis in die Mitte der Gesellschaft reichen können. „Deplatforming“, die Löschung oder Sperrung von Accounts, ist gemäß einer Studie des Instituts für Demokratie und Zivilgesellschaft sowie laut eines Forschungsberichts des Institute for Strategic Dialogue eine effektive Möglichkeit, die Reichweite sehr aktiver rechtsextremer und demokratiefeindlicher Nutzerinnen und Nutzer einzugrenzen. Weniger schwerwiegende Regulierungsmöglichkeiten sind z.B. die Verpflichtung zur Moderation oder strengere Richtlinien.
Die dargestellten Entwicklungen verschärften den Ruf nach einer stärkeren Regulierung des Internets und der strafrechtlichen Verfolgung rechtswidriger Inhalte. Doch wie immer steckt der Teufel im Detail und die konkrete Umsetzung gestaltet sich als überaus komplex. Denn das systematische Vorgehen gegen Hass und Extremismus ist immer mit dem hohen Gut der Meinungsfreiheit sowie grundlegenden datenschutzrechtlichen Fragen abzuwägen.
Darüber hinaus werden die Sanktionierungsmechanismen durch die Tatsache erschwert, dass die große Mehrheit der Technologieunternehmen ihren Firmensitz in den USA haben.
Der Ruf nach stärkerer Regulierung des Internets und der strafrechtlichen Verfolgung rechtswidriger Inhalte muss abgewogen werden gegen das hohe Gut der Meinungsfreiheit.
Ein Blick auf die Praxis der Rechtsdurchsetzung zeigt, dass Hassrede im Netz juristisch nicht leicht zu fassen ist: Hate Speech ist kein Straftatbestand, sondern vor allem ein politischer Terminus, der zudem teilweise umstritten ist. Für die Ausübung von Hassrede können Straftatbestände wie Beleidigung, Verleumdung, Nötigung oder Volksverhetzung geltend gemacht werden. Des Weiteren ist eine zivilrechtliche Rechtsdurchsetzung zwar im Rahmen einer Persönlichkeitsverletzung möglich, wird aber aufgrund des erhöhten Aufwands und geringer Erfolgschancen seltener in Anspruch genommen. Bei verschwörerischen und extremistischen Inhalte im Netz gibt es große Schnittmengen mit den oben genannten Straftatbeständen. Wie im analogen Raum sind auch online eine Vielzahl an Zeichen, Symbolen und Gesten verschiedener extremistischer Strömungen strafwidrig.
Die Bearbeitung des Problems führt zu den Plattformbetreibern. Das bereits 2017 in Kraft getretene Netzdurchsetzungsgesetz (NetzDG) nimmt soziale Plattformen ab einer Größe von zwei Mio. Nutzerinnen und Nutzern in die Pflicht, gemeldete rechtswidrige Inhalte innerhalb von 24 Stunden zu löschen. Obwohl die geplante Novelle von April 2020 erste Mängel ausräumte, konnte sich auch dieser Entwurf nicht der prinzipiellen Kritik entziehen, dass die Anzeigepflicht der Unternehmen eine Verlagerung von Rechtseinschätzungen auf Privatunternehmen darstelle. Darüber hinaus greift das NetzDG nicht bei kleinere Plattformen und Messenger-Diensten wie Telegram, welche vor allem in der Coronakrise für die schnelle Verbreitung von Falschnachrichten und Verschwörungsmythen sorgte. Zu guter Letzt zeigte ein Stresstest im Frühjahr 2020, dass die Plattformen Facebook und Youtube einen Großteil offensichtlich rechtswidriger gemeldeter Inhalte nicht in der angegebenen Zeit löschen.
All diese Gründe führen zu vermehrten Forderungen, dass eine klare und rechtmäßige Aufteilung zwischen nationaler Justiz und Privatwirtschaft (Tech-Unternehmen) für Straftaten im Netz erfolgen muss. Zudem bedarf es an beiden Stellen einen enormen personellen Kapazitäts- und Kompetenzaufbau, um der großen Menge an Strafverfolgung gerecht zu werden.
Weitere Abhilfe sollte das im Sommer 2020 von Bundestag und Bundesrat verabschiedete Gesetz gegen Rechtsextremismus und Hasskriminalität schaffen. Neben positiv zu bewertenden Ansätzen für einheitliche Beschwerdewege und aussagekräftigere Transparenzberichte der Plattformen, beinhaltet es zudem einschneidende Änderungen am Telemediengesetz wie die unverhältnismäßig große direkte Weiterleitung von IP-Adressen, Passwörtern und weiteren personenbezogenen Daten an das Bundeskriminalamt im Falle eines gemeldeten Inhaltes. Bedenken in Bezug auf Datenschutz und Privatsphäre sowie ein Urteil des Bundesverfassungsgerichts zur Bestandsdatenauskunft führten dazu, dass Bundespräsident Steinmeier dem Gesetz die Unterschrift verweigerte und ein „Reparaturgesetz“ beauftragte. Es bleibt spannend zu beobachten, in welcher Form das Gesetz angepasst wird. Gleichermaßen ist das Beispiel bezeichnend dafür, wie schmal der Grat zwischen dem konsequenten Vorgehen gegen Hate Speech und Extremismus im Internet und der Missachtung datenschutzrechtlicher Prinzipien ist.
Für den Gesetzgeber bleibt der schmale Grad zwischen konsequentem Vorgehen gegen Hate Speech und Extremismus und der Missachtung datenschutzrechtlicher Prinzipien eine Herausforderung.
Für den im Dezember 2020 veröffentlichten Gesetzesentwurf der EU-Kommission konnten zivilgesellschaftliche Organisationen im Vorfeld konkrete Vorschläge und Anliegen einreichen. Nun bleibt es noch ausführlich zu prüfen in welcher Art und Weise der geplante Digital Services Act als großer Wurf der Plattformregulierung bewertet und umgesetzt werden kann.
Insgesamt lässt sich festhalten, dass juristische Lösungen unter Abwägung mit anderen Grundrechtseinschränkungen eine effektive Eindämmung von Hass und Hetze im Netz erwirken können. Gleichermaßen stellen sie eine Schadensbegrenzung der menschenverachtenden und illegalen Inhalte dar, keine vollumfängliche Bekämpfung der jeweiligen Ideologie.
Fazit
Die Phänomene Hate Speech und Extremismus im Internet sind gesamtgesellschaftliche Herausforderungen, die allerdings aufgrund der speziellen Gegebenheiten und Marktmechanismen des virtuellen Raums, potenziert werden und schwieriger zu lösen sind. Die dargestellten (zivil)gesellschaftlich geprägten Ansätze sowie die hinreichende juristische Verfolgung menschenverachtender und illegaler Inhalte im Netz sind zwei Seiten einer Medaille.
Ein gutes Zusammenspiel zwischen Zivilgesellschaft, Tech-Unternehmen, Politik, Justiz und Medien ist somit essenziell für die Entwicklung sinnvoller und langfristiger Lösungen.