OpenAIs Text-zu-Video-Generator Sora 2 wird für seine technische Raffinesse gelobt, aber stark kritisiert, weil er so leicht missbraucht werden kann. Eine aktuelle Analyse von NewsGuard ergab, dass Sora bei Aufforderung, Inhalte auf der Grundlage falscher Online-Behauptungen zu erstellen, in 80 % der Fälle realistische, aber erfundene Videos generierte.
Diese KI-generierten Clips reichen von gefälschtem Wahlmaterial bis hin zu inszenierten Nachrichtenberichten und wecken Besorgnis darüber, wie das Tool zur Verbreitung von Desinformation eingesetzt werden könnte. Einige der getesteten Behauptungen stammten sogar aus bekannten russischen Desinformationskampagnen und zeigen, wie Akteure die Technologie für Propagandazwecke ausnutzen könnten.
OpenAI brachte Sora 2 am 30. September 2025 als kostenlose iOS-App auf den Markt und erreichte innerhalb weniger Tage über eine Million Downloads. Während das Unternehmen Sora als kreatives Werkzeug für Filmemacher, Pädagogen und Werbetreibende anpreist, warnen Experten, dass die Grenze zwischen Unterhaltung und Täuschung zunehmend verschwimmt.
Sicherheitsmaßnahmen unter Druck
OpenAI erklärt, dass Sora mehrere Sicherheitsmechanismen enthält, Richtlinien zur Einschränkung schädlicher Inhalte, Begrenzungen bei der Darstellung öffentlicher Personen und ein sichtbares Wasserzeichen, das jedes Video als KI-generiert kennzeichnet. Laut OpenAI-Sprecher Niko Felix verwendet das Unternehmen digitale Signaturen, um Videos zu Sora zurückzuverfolgen und so den Teams zur Durchsetzung der Richtlinien zu helfen, Missbrauch zu erkennen.
Die NewsGuard-Studie zeigte jedoch, dass diese Maßnahmen leicht umgangen werden können. Ermittler entfernten das Wasserzeichen innerhalb von Minuten mit frei verfügbaren Bearbeitungstools und produzierten Videos, die für ungeschulte Zuschauer echt wirkten. Sora setzte auch seine eigenen Inhaltsregeln inkonsistent durch: Es lehnte einige Aufforderungen mit namentlich genannten öffentlichen Personen ab, erzeugte aber nahezu identische Doppelgänger, wenn Namen durch vage Beschreibungen ersetzt wurden.
Trotz dieser Ergebnisse besteht OpenAI darauf, dass seine Erkennungs- und Sicherheitsüberwachungssysteme weiter verbessert werden. Das Unternehmen sagt, es verfüge über „hochpräzise interne Werkzeuge“, um mutmaßlichen Missbrauch plattformübergreifend zu identifizieren und zu kennzeichnen.
Hollywood und Gewerkschaften fordern Schutz für Abbild und Stimme
Neben den Sorgen über Desinformation wehren sich Hollywood-Darsteller und Gewerkschaften gegen die unbefugte Nutzung ihrer Abbilder in Sora. Nach dem Auftreten von KI-generierten Videos, die seine Stimme und sein Gesicht imitierten, gaben Schauspieler Bryan Cranston und die Gewerkschaft SAG-AFTRA bekannt, dass sie mit OpenAI zusammenarbeiten werden, um Schutzmaßnahmen zu verstärken.
„Ich bin OpenAI dankbar für die Verbesserung seiner Schutzmaßnahmen“, sagte Cranston in einer gemeinsamen Erklärung mit der Schauspielergewerkschaft. „Ich hoffe, alle Unternehmen respektieren unser Recht, über die Replikation unserer Stimme und unseres Abbilds zu bestimmen.“
OpenAI bestätigte, dass es mit der United Talent Agency (UTA), der Creative Artists Agency (CAA) und der Association of Talent Agents (ATA) zusammenarbeiten wird, um branchenweite Zustimmungsprotokolle zu etablieren. Anfang dieses Monats bat der Nachlass von Martin Luther King Jr. OpenAI, bestimmte Sora-Videos zu blockieren, die respektlose Darstellungen des Bürgerrechtsführers enthielten – das Unternehmen entfernte sie umgehend.
Politische Weiterentwicklung nach öffentlicher Kritik
OpenAI-CEO Sam Altman hat eine Erweiterung des Opt-in-Systems von Sora für die Nutzung von Stimme und Bildähnlichkeiten zugesagt. Zuvor erlaubte Sora Kreatoren, bestehende Materialien zu verwenden, es sei denn, sie waren ausdrücklich eingeschränkt; diese Richtlinie wurde am 3. Oktober 2025 rückgängig gemacht, wodurch Rechteinhaber mehr Kontrolle über ihr geistiges Eigentum erhielten.
Altman bekräftigte, dass OpenAI das NO FAKES Act, ein Bundesgesetz zum Schutz vor unautorisierten digitalen Replikaten, unterstützt.
„Wir werden immer hinter dem Recht der Künstler stehen, über ihr eigenes Abbild zu bestimmen“, sagte er in einer Erklärung gegenüber CNBC.
Experten warnen vor der Normalisierung von Deepfakes im Internet
Videos von Sora haben soziale Plattformen wie TikTok, Instagram Reels und X überflutet und verbreiten sich oft schneller, als Moderationsteams reagieren können. Daisy Soderberg-Rivkin, ehemalige Managerin für Vertrauen und Sicherheit bei TikTok, sagte gegenüber NPR, dass KI-generierte Clips sich anfühlen, „als hätten Deepfakes jetzt einen PR-Agenten und einen Vertriebsvertrag“.
Aaron Rodericks, Leiter für Vertrauen und Sicherheit bei Bluesky, warnte, dass die Öffentlichkeit „nicht auf einen so drastischen Zusammenbruch zwischen Realität und Fälschung vorbereitet“ sei. Da Millionen von Nutzern nun täglich synthetische Clips sehen, befürchten Experten, dass das Konzept visueller Beweise seine Bedeutung verlieren könnte.
Die bevorstehende Herausforderung
Die Veröffentlichung von Sora zeigt sowohl die Chancen als auch die Risiken der KI-Kreativität der nächsten Generation. Einerseits ermöglicht sie beispiellose Zugänglichkeit für visuelles Storytelling; andererseits eröffnet sie den Weg für hochrealistische Desinformation.
OpenAI sagt, es sei bestrebt, die Sicherheitsmaßnahmen in Zusammenarbeit mit Gewerkschaften, Aufsichtsbehörden und Forschern für digitale Sicherheit weiter zu verfeinern. Doch wie Kritiker anmerken, bedeuten selbst die besten Schutzmaßnahmen wenig, wenn das Publikum nicht mehr zwischen echt und unecht unterscheiden kann.
Für eine Öffentlichkeit, die bereits eine Flut manipulierter Medien bewältigen muss, unterstreicht der Aufstieg von Tools wie Sora eine dringende Herausforderung: verantwortungsvoll zu innovieren in einer Welt, in der Sehen vielleicht nicht mehr Glauben bedeutet.

Haftungsausschluss: Alle Materialien auf dieser Seite dienen nur zu Informationszwecken. Keines der Materialien sollte als Anlageberatung interpretiert werden. Bitte beachten Sie, dass trotz der Art vieler Materialien, die auf dieser Website erstellt und gehostet werden, HODLFM.DE keine Finanzreferenzressource ist und die Meinungen von Autoren und anderen Mitwirkenden ihre eigenen sind und nicht als finanzielle Beratung aufgefasst werden sollten. Wenn Sie eine solche Beratung benötigen, empfiehlt HODLFM.DE dringend, sich an einen qualifizierten Fachmann der Branche zu wenden.