Blickwinkel

YouTube: Moneten statt Moral

Influencer Marketing

YouTube-Manager sollen jahrelang Mitarbeiter-Warnungen vor Videos mit extremistischen Inhalten und Verschwörungstheorien ignoriert haben. Diverse Vorschläge zur Eindämmung solchen Contents seien abgeblockt worden, um das inoffizielle Firmenziel nicht zu kannibalisieren: so viel Engagement wie möglich zu generieren. Dies behauptet die amerikanische Nachrichtenagentur Bloomberg unter Berufung auf Informationen von 20, teilweise ehemaligen, YouTube-Mitarbeitern.

Empörung = Aufmerksamkeit

Eine Milliarde Stunden Sehdauer zu erreichen, soll seit 2012 das interne Ziel gewesen sein – und zwar pro Tag. Eine ambitionierte Zielvorgabe, die bereits 2016 erreicht wurde. Dank eines Algorithmus`, welcher folgende Formel verinnerlichte: „outrage equals attention“. Zu Deutsch: Empörung ist gleich Aufmerksamkeit. Für den Begriff „outrage“ bietet das Englisch-Wörterbuch noch weitere Übersetzungen an, als da wären „Gewalttätigkeit“, „Gräueltat“ und „Geschmacksverirrung“. Diese Sammlung trifft ganz gut, welche inhaltlichen Abgründe jahrelang als offenes Geheimnis nicht nur geduldet, sondern scheinbar bewusst gefördert wurden. Aufmerksamkeit bedeutet Engagement. Und diese Mischung aus Videoabrufen, Sehdauer und Interaktion ist eine wichtige Währung.

Engagement-Maschine

Dass mehr Engagement auch mehr Geld bringt, hat YouTube schon früh herausgefunden und die Plattform konsequent zur Engagement-Maschine umgebaut. Die „1-Milliarden-Stunden-Maxime“ wurde 2012 noch vom altgedienten Google-Manager und seinerzeitigem YouTube-CEO Salar Kamangar ausgerufen. Auf dieses Ziel hin wurde auch der in demselben Jahr eingeführte Empfehlungs-Algorithmus optimiert – das sind die Video-Vorschläge, die nach dem Ende eines angeschauten Videos aufpoppen. Seit 2015 starten diese gleich in voreingestellter Autoplay-Funktion. 2016 war es dann so weit: Die seinerzeit und noch heute amtierende YouTube-Chefin Susan Wojcicki verkündete stolz das Erreichen der Milliarden-Maxime.

Money makes the world go round – und das Internet düster

YouTubes großes Engagement für mehr User-Engagement hat sich für die Google-Tochter gelohnt. Mittlerweile generiert die Video-Plattform Jahresumsätze von mehr als 16 Milliarden US-Dollar. Mit Hass, Gewalt und Lügen. Die Änderung des Geschäftsmodells für die Entlohnung der Content Creators im Jahre 2017 gab dieser unheilvollen Empfehlungs-Maschinerie noch mehr Aufwind. So entschied Wojcicki, dass Video-Ersteller nicht mehr auf Basis gehosteter Werbeanzeigen, sondern für User-Engagement bezahlt würden. Ein Umstand, der extremistischen Content und dubiose Verschwörungstheorien noch beflügelte. Die türkische „Techno-Soziologin“ Zeynep Tufekci bezeichnete YouTube vergangenes Jahr in einem Interview in der „New York Times“ als „große Radikalisierungsmaschine“ und mahnt: „YouTube leitet Zuschauer hinunter in eine Parallelwelt des Extremismus, während Google die Werbeeinnahmen einfährt.“

Keine Maßnahmen gegen „bad virality“

Diese dunkle Abwärtsspirale betrachteten viele YouTube-Mitarbeiter mit Besorgnis. Programmierer gaben dem unseligen wie lukrativen Empörungs-Empfehlungs-Phänomen den Spitznamen „bad virality“. Laut Bloomberg gab es die ganze Zeit über wohl unzählige interne Diskussionen über toxische Videos und ebendiese „böse Viralität“ sowie diverse Vorschläge, diese einzudämmen – welche allesamt abgeblockt wurden. In der detaillierten Rekonstruktion von Bloomberg werden viele davon konkret benannt. Das Magazin beruft sich dabei auf Aussagen von 20 YouTube-Mitarbeitern, die größtenteils anonym bleiben wollen. Fünf davon hochrangige Manager, die das Unternehmen mittlerweile verlassen haben. So wurde sogar Mitarbeitern, die nicht zum offiziellen Moderations-Team gehörten, geraten, die Plattform nicht mehr nach Videos mit verstörenden Inhalten zu durchsuchen. Auf Anraten von Rechtsanwälten, die erklärt hätten, dass YouTube in höherem Umfang haften müsse, wenn bekannt würde, dass Mitarbeiter solche Videos kennen.

Reaktion erst nach Werbeeinbußen

Erst als im Rahmen einer wachsenden Berichterstattung über verstörende und verschwörerische Inhalte immer mehr Werbekunden YouTube-Anzeigen boykottierten, reagierte die Chefetage. In einer panikartigen Nacht- und Nebelaktion wurden im November 2017 tausende Videos entfernt – oder ihrer Werbemöglichkeit beraubt. Seit Anfang dieses Jahres wird „Borderline-Content“, also Videos, an der Grenze zur Verletzung der YouTube Nutzungsbedingungen, nicht länger Usern empfohlen – eine Maßnahme, die YouTube-Programmierer Yonatan Zunger bereits vor seinem Weggang im Jahr 2016 erfolglos vorgeschlagen hatte. Zudem wird in manchen Verschwörungstheorie-Videos eine Wikipedia-Infobox eingeblendet, welche deren Ersteller als Verschwörungstheoretiker outet. Aber längst nicht in allen.

Autor: KS

Verwandte Artikel
Diskutieren Sie über diesen Artikel
Required for comment verification
0 Kommentare