Analyse von Hass-Kommentaren Lautstarke Minderheit
Eine Daten-Analyse zeigt: Die meisten Hass-Kommentare im Netz werden von wenigen Nutzern unterstützt. Diese lautstarke Minderheit will gezielt Diskussionen manipulieren.
Von Svea Eckert, NDR, und Patrick Gensing, tagesschau.de
Sie wollen sich als Volkes Stimme inszenieren, doch tatsächlich steht hinter vielen Hass-Kommentaren im Netz nur eine verschwindend kleine Minderheit der Nutzer. Das belegt eine Analyse von Hunderten Diskussionen in sozialen Netzwerken aus dem Januar.
Der IT-Experte Philip Kreißel wertete dafür in Kooperation mit dem Institute for Strategic Dialogue in London Hunderte Diskussionen auf Facebook zu Beiträgen von Bild, Focus-Online, Kronen-Zeitung, Spiegel-Online, tagesschau.de, Welt sowie ZDF heute aus. Zentrale Ergebnisse: Lediglich fünf Prozent der Accounts waren im Januar für 50 Prozent der Likes bei Hass-Kommentaren verantwortlich.
Eine Analyse zeigt: Die meisten Likes für Hass-Kommentare kommen von einer kleinen Minderheit der Nutzer.
Extrem aktiv - aber nur bei Hass-Kommentaren
Und in dieser lautstarken Minderheit findet sich sogar noch ein extrem aktiver Kern: Ein Prozent der Profile waren demnach für 25 Prozent der Likes verantwortlich. Diese Profile agieren oft gemeinsam und sind generell deutlich aktiver als "normale" Nutzer. Das gilt allerdings nur für Diskussionen, in denen Hass-Inhalte auffallen - bei anderen Themen seien diese Accounts weitestgehend passiv, erklärt Kreißel. Die meisten der bei Hass-Inhalten hochaktiven Accounts ließen sich als Anhänger von AfD und "Identitären" identifizieren.
Julia Ebner, Wissenschaftlerin am Institute for Strategic Dialogue, spricht von Kampagnen, die mit zahlreichen gefälschten Accounts von rechtsextremen Kreisen koordiniert würden.
IT-Experte Kreißel entwickelte zur Analyse einen sogenannten "Hate-Finder". Dieses Instrument identifiziert Profile, die Hass-Kommentare oft liken, und beobachtet, wo diese wieder aktiv werden. Er analysierte insgesamt rund 3000 Meldungen und 18.000 Kommentare, die auf den Facebookseiten der erwähnten Medien gepostet worden waren. Mit einem Programm wertete er diese im Hinblick auf die Aktivität der Nutzer aus.
"Facebook belohnt polarisierende Beiträge"
"Was wir in der Analyse sehen, ist vor allem eine große Täuschung", erklärt Kreißel. Rechtsextreme versuchten, gesellschaftliche Mehrheiten zu simulieren. Dabei komme ihnen die Funktionsweise von Facebook entgegen. Denn polarisierende Debatten, die oft erst durch koordinierte Aktionen ausgelöst werden, erhielten durch den Facebook-Algorithmus eine höhere Reichweite als sachliche Diskussionen. IT-Experte Kreißel sieht in von einer "sich selbst verstärkende Polarisierung".
Julia Ebner vom Institute for Strategic Dialogue warnt, die Strategien der rechtsextremen Trolle könne dazu führen, dass diese den Online-Diskurs bestimmen könnten.
Medien sollen sich nicht täuschen lassen
Die Gefahr sei zudem, dass andere Nutzer und Politiker sowie Medienmacher glauben könnten, die Kommentarspalten seien repräsentativ für die Stimmung in der Bevölkerung. Kreißel und Ebner appellieren daher an die Verantwortung der Medien. Sie sollten bei der Themensuche und Gewichtung nicht auf rechtsextreme Trolle hereinfallen.
Für den Informationskrieg in den sozialen Medien werden gezielt Bildmotive, genannt Memes, produziert.
Zudem sei es wichtig, dass Medien die Diskussionen zu ihren Inhalten moderierten. "Es ist eine schöne Sache, wenn man sich in Kommentarspalten über ein politisches Thema austauschen kann. Es wird nur dann schwierig, wenn die jeweilige Diskussion von einer bestimmten Richtung dominiert wird, die das nutzt, um ihre Propaganda zu verbreiten."
Kreißel betont, dass die politische Ausrichtung von aktiven Profilen bei moderierten Diskussionen eher ausgeglichen sei. Ohne Moderation finde man bis zu 100 Prozent mehr rechtsradikale, oft extrem aktive Accounts in den Kommentarspalten. Es scheine so, als würden es viele kommerzielle Medien zu Gunsten von hohen Zugriffszahlen billigend in Kauf nehmen, dass der Hass sich ausbreite.
Facebook-Nutzer schließen sich gegen den Hass zusammen
IT-Experte Kreißel engagiert sich in der Facebook-Gruppe "Ichbinhier". Die Mitglieder wollen Diskussionen wieder in geregelte Bahnen lenken. Ihre eigenen Kommentare markieren sie mit dem Hashtag "#ichbinhier", um kenntlich zu machen, dass man zu dieser Gruppe gehört. Das Ziel der Initiative: Jeder soll an Diskussionen im Netz teilnehmen können, ohne dass man beleidigt oder Ziel von Hass wird.
Die Gruppe "#ichbinhier" wurde mit dem Grimme Online Award ausgezeichnet.
Die Initiative wurde bereits mit dem Grimme Online Award ausgezeichnet. Und die Polizei Berlin lobte in dieser Woche auf Twitter, unter "#Ichbinhier versammeln sich Menschen, die im Netz für die Werte der freiheitlich demokratischen Grundordnung einstehen. Dazu zählen wir uns." Für diesen Kommentar erntete die Polizei wiederum innerhalb kürzester Zeit Dutzende Anfeindungen von Profilen aus dem AfD- und Pegida-Umfeld.
Facebook unterstützt #ichbinhier im Rahmen der Online Civil Courage Initiative (OCCI), um den Hass in dem sozialen Netzwerk besser zu verstehen und NGOs dabei zu unterstützen, ihm besser zu entgegnen.
Warnung vor Normalisierung
Wissenschaftlerin Julia Ebner warnt davor, dass sich die Hass-Rhetorik im Netz normalisiert und Strategien der Einschüchterungen ausbreiten. Dann könnte es passieren, dass sich niemand mehr gegen den Hass ausspricht. Die lautstarke Minderheit hätte ihr Ziel dann erreicht.