OpenAI schließt seinen 2024 gestarteten Videogenerator Sora. Das Tool stand nicht nur wegen eines Deals zwischen OpenAI und Disney, sondern auch immer wieder wegen Persönlichkeitsrechtsverletzungen und Gewaltvideos in den Schlagzeilen. Sora 2, die aktuelle Version mit begleitender App, ging erst im September 2025 an den Start. Nur zwei Tage vor der Ankündigung des Shutdowns hatte das Unternehmen einen Blogbeitrag zu Richtlinien und Schutzmaßnahmen aktualisiert.
Auf dem X-Account von Sora heißt es:
What you made with Sora mattered, and we know this news is disappointing.
Zum Abschied ein Überblick über schlechte Dinge, die Sora uns beschert hat.
1. Desinformation
Nur wenige Tage nach dem Start von Sora 2 warnte die New York Times vor Sora-Videos, die angebliche Gewalttaten darstellten, darunter auch solche, die KI-generierte Bombenexplosionen verschiedenen Städten zeigten. Auch Sora-Videos, die angeblichen Wahlbetrug dokumentieren sollten, kursierten schon früh.
Die Bandbreite ist groß. Faktencheck-Organisationen haben in den vergangenen Monaten eine Reihe von Sora-Fakes beschrieben:
- Ein Fake-Video, das angebliche Gewalt gegenüber einer Seniorin in einem Bus in Deutschland zeigt
- Videos massenhafter Kapitulationen KI-generierter ukrainischer Soldaten
- KI-generierte Jugendliche äußern sich kritisch über Zuwanderung in Deutschland
2. Gewalt gegen Frauen
Sora wurde genutzt, um Gewaltfantasien gegen Frauen in Videos zu übertragen. Im Herbst 2025 posteten verschiedene User in auf Plattformen wie TikTok und X Videos, die zeigten, wie Frauen und Mädchen gewürgt wurden. In einem Test von 404 Media erzeugte das Tool ein solches Video mit dem Hinweis: “Your choke scene just went live, brace for chaos”.
Die Journalistin Katie Nopoulos hat getestet, was passiert, wenn sie OpenAI erlaubt, dass ihr Gesicht von anderen Nutzern für das Generieren von Videos genutzt werden kann. Das Ergebnis: Sie fand ihr Gesicht auf Fetischvideos.
In einem Test mit Accounts, die angeblich 13- und 14-Jährigen gehörten, konnten Researcher der Organisation Ekō mittels Sora sexualisierte Darstellungen von Teenagern erzeugen.
3. Rassismus und Antisemitismus
Zahlreiche Sora-Videos verstärken bestehende menschenfeindliche Einstellungen. Seit Monaten schürt die Trump-Regierung rassistischen Hass auf Menschen mit somalischer Einwanderungsgeschichte. Ein KI-Video bekräftigt diese Erzählungen: Es zeigt einen vermeintlichen Somali, dessen Luxusauto von US-Behörden konfisziert wird.
Einige generierte Videos zeigten Personen, darunter auch Prominente, die rassistische Beleidigungen brüllten. Auch Hitler-Spongebob (ja, richtig gelesen) war kein Problem für Sora. Gleiches galt für Videos, die den Holocaust verharmlosten oder gar leugneten und auf Instagram unter Hashtags wie #nationalsocialism verbreitet wurden.
4. Terrorpropaganda
Anhänger von Rechtsterroristen nutzen soziale Netzwerke zur Verbreitung von Propagandamaterial, das Anschläge und Täter glorifizieren soll. Dabei haben sie in der Vergangenheit immer wieder auf Sora zurückgegriffen, um Videos mit den Gesichtern der Täter zu generieren.
Auf TikTok kursiert zum Beispiel ein Video, das im Stil eines Trailers für ein Kampfsportevent einen Kampf zwischen Anders B. und “77 Gegnern” ankündigt und B. als übermächtigen Sportler darstellt. Der Rechtsterrorist ermordete während seines Anschlags im Jahr 2011 in Oslo und Utøya 77 Menschen, darunter viele Jugendliche. Das Video enthält neben dem Sora-Wasserzeichen sogar den Nutzernamen des Users, der das Video neben einer Reihe weiterer Videos mit weiteren Rechtsterroristen erstellte.
Ein anderer User verbreitete einen Clip, der Brenton T. als Boxer zeigt. Auch hier wird eine Gegnerzahl angegeben: 51. So viele Menschen ermordete T. während des Anschlags auf muslimische Einrichtungen im neuseeländischen Christchurch. Auch hier zeigt das Video den Namen des Sora-Nutzers. Die Moderationsmechanismen von OpenAI haben in diesen Fällen offensichtlich nicht gegriffen.
Wer solche Inhalte erzeugen will, wird auch bei anderen Slop-Fabriken auf dem Markt fündig. Dass einer der Marktführer sein Tool nun einstellt, ist unter den beschriebenen Gesichtspunkten und insbesondere mit Blick auf die mangelhaften Moderationspraktiken allerdings kein Verlust.
Zum Weiterlesen:
OpenAI’s Sora 2 Floods Social Media With Videos of Women Being Strangled (404 Media)
OpenAI’s Sora Makes Disinformation Extremely Easy and Extremely Real (New York Times)
People Are Using Sora 2 to Make Disturbing Videos With AI-Generated Kids (Wired)