In Gedenken an den Anschlag in Halle

Vechta hält inne

Der Rechtsextremist Stephan B. versuchte am 9. Oktober 2019 in Halle an der Saale schwer bewaffnet in eine Synagoge einzudringen und dort ein Massaker anzurichten – ähnlich wie der Attentäter im neuseeländischen Christchurch bei seinem Anschlag auf eine Moschee. Der Attentäter aus Halle scheiterte jedoch an der massiven Holztür, welche den Schüssen seiner Waffe standhielt, tötete daraufhin zwei Menschen und verletzte bei seiner Flucht zwei weitere.

Mit der Installation möchten wir an diese schreckliche Tat erinnern und uns klar gegen Rassismus und Antisemitismus positionieren.

Die Macher der Installation

Amadou Diallo & Muhammed Yasin Kiratli

4. Lehrjahr – Fachpraktiker für Metallbau

„Wir müssen zeigen, dass wir keine Form von Antisemitismus, ob alten oder neuen, linken oder rechten, tolerieren - mehr noch, dass wir ihn aktiv bekämpfen“
Frank-Walter Steinmeier
Halle (Saale), 9. Oktober 2020

Was ging in Stefan B. vor?

Wenige Stunden nach der Tat durchsuchte die Polizei das Zimmer des Attentäters Stephan B. und drang in das Leben eines Mannes ein, das im Internet stattfand. Stephan B., 27 Jahre alt, lebte zusammen mit seiner Mutter. Nachbarn sagten, der junge Mann sei ihnen kaum aufgefallen, aber er hinterließ eigentlich einen netten Eindruck.

Er sieht sich in einem Kampf des „weißen Mannes“ gegen das Fremde. In Chat-Rooms hatte er u.a. über eine „jüdische Weltverschwörung“ geschrieben. Wie er in seinem Tatplan erklärte, hält er „die Juden“ für die „Wurzel aller Probleme“. Ursprünglich jedoch, hatte er auch einen Angriff auf eine Moschee oder ein „Antifa Kulturzentrum“ ins Auge gefasst.

 
Der Angriff zeigt einmal mehr Verbindungen zwischen rechtsextremen Tätern und der Radikalisierung über Internetforen. Die Ermittler fanden auf dem Rechner des Attentäters zahlreiche rassistische, faschistische und antisemitische Bilder und Videos. B. verbrachte seine Zeit u.a. auf Imageboards wie 4chan und 8chan auf denen genau diese Inhalte geteilt werden.
 
Bei Imageboards handelt es sich quasi um Foren. Nutzer publizieren hier für gewöhnlich Bilder, Memes, kommentieren und diskutieren. Oft bestehen Imageboards aus Unterkategorien über verschiedene Themen, wie Filme oder Comics, aber auch Politik oder Sex. Das Besondere an vielen Imageboards ist, dass Inhalte selten moderiert werden. Daraus folgt leider oft, dass menschenverachtende Kommentare veröffentlicht werden und stehen bleiben. Auf den beiden angeführten Imageboards geht es um Verschwörungstheorien, Provokation, Rassismus und eine Mischung aus schlechtem Scherz und bitterem Ernst. Anschläge wie in Halle werden auf solchen Plattformen teilweise sogar gefeiert.
 
8chan erreichte beispielsweise mediale Aufmerksamkeit, nachdem der Attentäter von Christchurch seine Tat in einem Unterforum ankündigte. Auch der Amokläufer von El Paso kündigte seine Tat auf 8chan an. Seit  August 2019 ist das Imageboard offline.
Auch Stefan B. kündigte seine Tat auf einem Imageboard mit einem Manifest an. Um noch größere Aufmerksamkeit zu erzielen filmte er seinen Amoklauf mit einer Kamera und übertrug dies live auf der bei Videospielern beliebten Streaming-Plattform „Twitch“. Der Live-Stream hatte ca. 2000 Zuschauer*innen und wurde abseits der Imageboards beispielsweise in „White Supremacists“ Gruppen auf Telegram verbreitet.
 

Seine Tat setzte er auch musikalisch in Szene. Kurz bevor er sich mit dem Auto der Synagoge näherte, spielte er Musik des neonazistischen Rappers „Mr. Bond“ ab. Der Musiker veröffentlicht seit Jahren anonym rechtsradikale Musik auf verschiedenen Internetportalen. Auf YouTube ist sein Konto bereits gelöscht. Das Lied, das B. hörte, hatte dort vor der Löschung hunderttausende Aufrufe. Kopien findet man bis heute auf YouTube-Alternativen.

Radikalisierung im Internet

„[…] ich denke, dass Facebook unsere Kinder schädigt, Zwietracht sät und unsere Demokratie schwächt.“

Radikalisierung durch Algorithmen

Stephan B. speiste seine Ideologie aus dem Netz. Für die meisten Nutzer*inenn sind Memes und Livestreams unpolitischer Zeitvertreib. Sie können aber auch radikale Ideen transportieren und verstärken.

Wer online nach einem Thema sucht, bekommt seine Antworten auf Plattformen von Google, wie z.B. YouTube, von einer künstlichen Inteligenz vorgeschlagen. Der Empfehlungs-Algorithmus sorgt dafür, dass wir immer die für uns passende Information finden bzw. vorgeschlagen bekommen. Ohne ihn müssten wir uns in einer überwältigenden Anzahl an Inhalten allein orientieren. Beispiel: Auf YouTube werden jede Minute 500 Stunden Videomaterial hochgeladen. Die Vielfalt der Inhalte setzt also einen optimierte Suchfunktion voraus, um Nutzer*innen möglichst lange an die Plattform zu binden und nicht zu überfordern.

Doch so hilfreich und unterhaltsam beispielsweise YouTube, durch auf unsere Interessen abgestimmte Inhalte in vielen Belangen sein kann, so dunkel sind die Tiefen der Videoplattform, in denen sich allerlei extreme Inhalte tummeln. Diese Inhalte erreichen leider besonders durch den Algorithmus Reichweite. Algorithmen unterscheiden nicht „gute Inhalte“ von „schlechten Inhalten“. Hat ein*e Internetnutzer*in beispielsweise extremistische Inhalte auf sozialen Netzwerken angesehen, in ihrer Timeline erhalten oder entsprechende Webseiten aufgerufen, schlägt der Algorithmus passende Inhalte vor und verbreitet und verknüpft so weitere extremistische Inhalte.

Besonders Kinder und Jugendliche können durch den Empfehlungs-Algorithmus in eine Filterblase aus extremistischen Inhalten gezogen werden. Im jungen Alter fehlt es oft noch an den Fähigkeiten zur Reflektion und Selektion. Gepaart mit der Suche nach Identität bildet dieser Umstand einen idealen Nährboden für extremistische Strömungen, die dies zur Verbreitung ihrer Ansichten zu nutzen wissen.

Wie man in einen Strudel radikaler Videos gezogen wird, zeigte beispielsweise eine Reportage der „New York Times“ mit dem Titel „The Making of a YouTube Radical“. Darin beschreibt der 26-jährige Caleb Cain eindrücklich, wie er auf YouTube radikalisiert wurde. Er suchte in einer Lebenskrise nach Selbsthilfevideos und landete am Ende bei rechtsextremen Inhalten.

Cains gewährte der „New York Times“  Zugriff auf seine komplette YouTube-Historie mit über 12 000 Videos. Somit konnten die Journalisten genau nachvollziehen, welches Video er wann angeklickt hatte, bis er aufgrund von Empfehlungen in das sogenannte „rabbit hole“ fiel. Dies ist erreicht, wenn der oder die Nutzer*in nach neuen Videos süchtig wird und dadurch in einem virtuellen Loch landet.

Eine besondere Gefahr für Kinder & Jugendliche

„Wir müssen die Autonomiefähigkeit von Kindern und Jugendlichen im virtuellen Raum fördern und schützen.“
André Jachting
Referent für Medienkompetenz

Was unternimmt die PfD bereits?

Die Partnerschaft für Demokratie setzt sich für Vielfalt und ein buntes Miteinander ein. Im Rahmen dieses Ziels organisieren wir u.a. Workshops und Projektwochen für Medienkompetenz und Rassismus- sowie Extremismusprävention an schulischen und außerschulischen Einrichtungen.

Zudem organisieren wir eigene Veranstaltungen und Projekte. 

 

Hier geht´s zur Übersicht

Du möchtest dich selbst für Vielfalt und ein buntes Miteinander engagieren?

Cool. Nimm einfach Kontakt zu uns auf. Wir freuen uns auf dich.

Julian Hülsemann

Projektkoordinator

Dein Ansprechpartner für alle Fragen rund um das Thema Projektanträge und Durchführung.