Stephan B. speiste seine Ideologie aus dem Netz. Für die meisten Nutzer*inenn sind Memes und Livestreams unpolitischer Zeitvertreib. Sie können aber auch radikale Ideen transportieren und verstärken.
Wer online nach einem Thema sucht, bekommt seine Antworten auf Plattformen von Google, wie z.B. YouTube, von einer künstlichen Inteligenz vorgeschlagen. Der Empfehlungs-Algorithmus sorgt dafür, dass wir immer die für uns passende Information finden bzw. vorgeschlagen bekommen. Ohne ihn müssten wir uns in einer überwältigenden Anzahl an Inhalten allein orientieren. Beispiel: Auf YouTube werden jede Minute 500 Stunden Videomaterial hochgeladen. Die Vielfalt der Inhalte setzt also einen optimierte Suchfunktion voraus, um Nutzer*innen möglichst lange an die Plattform zu binden und nicht zu überfordern.
Doch so hilfreich und unterhaltsam beispielsweise YouTube, durch auf unsere Interessen abgestimmte Inhalte in vielen Belangen sein kann, so dunkel sind die Tiefen der Videoplattform, in denen sich allerlei extreme Inhalte tummeln. Diese Inhalte erreichen leider besonders durch den Algorithmus Reichweite. Algorithmen unterscheiden nicht „gute Inhalte“ von „schlechten Inhalten“. Hat ein*e Internetnutzer*in beispielsweise extremistische Inhalte auf sozialen Netzwerken angesehen, in ihrer Timeline erhalten oder entsprechende Webseiten aufgerufen, schlägt der Algorithmus passende Inhalte vor und verbreitet und verknüpft so weitere extremistische Inhalte.