YouTube entfernt KI-Kanal, der ausschließlich Videos von erschossenen Frauen hochlud

Zuvor war der Kanal angeblich mehrere Monate lang unentdeckt geblieben.

Woman Shot AI channel removed
Einer der Screenshots, den 404 Media über Instagram geteilt hat; "Removed"-Label im Nachhinein hinzugefügt

Die erhöhte Verfügbarkeit generativer künstlicher Intelligenz seit Ende 2022 hatte bereits einen enormen Einfluss auf beliebte Social-Media-Plattformen, wobei jedoch häufig weder Verbraucher noch Betreiber ausreichend auf die Folgen vorbereitet sind.

So finden sich auf YouTube unter „Shorts“-Sparte jede Menge KI-generierte Videos. Auch wenn die Technologie auf der Plattform bislang für vergleichsweise harmlose Zwecke eingesetzt wurde – etwa zu Werbezwecken für KI-Produkte oder zur Generierung gefälschter Zuschauerscharen – gibt es auch einige beunruhigendere KI-Nischen, wie die Existenz des Kanals „Woman Shot AI“ verdeutlicht.

KI-gestützte Gewaltfantasien

Wie 404 Media am 22. September 2025 erstmals berichtete, wurden 27 Videos auf den Kanal hochgeladen, die genau das enthielten, was der Name vermuten lässt. „Woman Shot AI“ (deutsch: „Frau Erschossen KI“) war seit dem 20. Juni 2025 aktiv und wurde erst vom Moderationsteam entfernt, nachdem 404 Media YouTube um eine Stellungnahme gebeten hatte.

Die Inhalte bestand in der Regel aus einem kurzen KI-generierten Video einer Frau, die um ihr Leben bettelte, bevor ein Mann sie erschießt. Dabei wird die Gewalt realistisch dargestellt. Im Videotitel waren dabei Angaben zum Alter (z.B. „Schulmädchen“), zur ethnischen Zugehörigkeit (z.B. „Ukrainerin, erschossen von russischem Soldaten“) oder zur Verwundung (z.B. „Schuss in die Brust“) enthalten. Einige Videos zeigten auch Videospielfiguren wie Lara Croft oder Claire Redfield.

Der Kanalbetreiber sammelte Feedback von seinem Publikum, welches ihm in wenigen Monaten über 175.000 Aufrufe einbrachte. Dazu wurden Umfragen durchgeführt, in denen die Zuschauer abstimmen konnten, welche Frauentypen sie als nächstes erschossen sehen wollten. Laut einem Sprecher von YouTube war der Ersteller bereits zuvor gesperrt worden.

Kein Einzelfall

Es gibt zwar allgemein anerkennte Anwendungsmöglichkeiten für KI-generierte Videos –etwa die Darstellung absichtlich abstrakter Bilder für Musikvideos oder die Nachbildung historischer Ereignisse, für die es kein reales Filmmaterial gibt. Die Technologie wird jedoch auch häufig missbraucht, um Videos mit gefälschten Szenarien zu erstellen, welche Wut oder Angst zu politischen Zwecken schüren sollen; darüber hinaus auch, um andere sexuell zu belästigen oder – wie in diesem Fall – um Snuff-Filme zu produzieren.

Es ließe sich zwar eventuell argumentieren, dass es besser wäre, die bestehende Nachfrage nach Snuff-Filmen mit KI-generiertem Filmmaterial statt mit echten Morden zu befriedigen, doch die Tatsache, dass KI dazu eingesetzt werden kann, solche Inhalte leichter zugänglich zu machen, gibt berechtigten Anlass zur Sorge. Gleiches gilt für die Tatsache, dass die Systeme von YouTube den Kanal offenbar nicht selbstständig erkannt haben.

„Woman Shot AI“ nutzte Googles Veo-3-Modell, das laut Angaben des Unternehmens über Sicherheitsvorkehrungen verfügt, um die Generierung bestimmter Arten von Videos zu verhindern. Diese sind jedoch nachweislich fehlerhaft. Manche Nutzer sind bereit, sehr weit zu gehen, um solche Sicherheitslücken auszunutzen, einschließlich hohen finanziellen Aufwands. So lautete beispielsweise einer der letzten Community-Beiträge von „Woman Shot AI“:

„Die KI, die ich nutze, ist kostenpflichtig. Pro Account muss ich etwa 300 Dollar pro Monat ausgeben, obwohl ein Account nur dreimal 8-Sekunden-Videos erstellen kann.“

Redaktion EarlyGame
Redaktion EarlyGame