Eine Reihe hyperrealistischer KI-Videos mit Schauspielern aus Stranger Things ist diese Woche viral gegangen – allerdings nicht auf eine Weise, die Fans feiern.
Die Clips, die zeigen, wie ein Creator sein Gesicht und seinen Körper nahtlos durch die von Millie Bobby Brown, Finn Wolfhard und David Harbour ersetzt, haben Zuschauer verunsichert und erneut Sorgen darüber ausgelöst, wie schnell sich Deepfake-Technologie entwickelt – und wie wenig Schutz es für digitale Identität gibt.
Die Videos wurden Berichten zufolge mit dem Kling AI 2.6 Motion Control Model erstellt, einem Tool, das vollständige Körper-Swaps ermöglicht und nicht nur einfache Gesichtsersetzungen. Gepostet vom brasilianischen Creator Eder Xavier verbreiteten sich die Clips rasant über mehrere Plattformen und erreichten allein auf X mehr als 14 Millionen Aufrufe, während Reposts weiterhin kursieren.
Im Gegensatz zu früheren Deepfakes, die sich hauptsächlich auf Gesichtsoverlays konzentrierten, verfolgen diese Videos Körperbewegung, Haltung, Kleidung und Mimik in nahezu perfekter Synchronisation.
Das Ergebnis ist Filmmaterial, das auf den ersten Blick überzeugend echt wirkt – genau das, was viele Zuschauer verstörend fanden.
„Das ist so gruselig“, schrieb ein Nutzer auf X. Andere äußerten ähnliche Reaktionen und verwiesen weniger auf den Schockeffekt als auf das Unbehagen darüber, wie schwer es geworden ist zu erkennen, was real ist.
Warum sich diese Videos anders anfühlen
Laut Yu Chen, Professor für Elektrotechnik und Computertechnik an der Binghamton University, stellt das vollständige Body-Swapping einen grundlegenden Wandel in synthetischen Medien dar.
„Frühere Deepfake-Tools konzentrierten sich auf Gesichter“, erklärte Chen.
„Full-Body-Swapping muss Pose-Schätzung, Skelett-Tracking, Kleidungsübertragung und natürliche Bewegung über das gesamte Bild hinweg lösen.“
Dieser zusätzliche Realismus entfernt viele der visuellen Hinweise, auf die Erkennungssysteme früher angewiesen waren.
Genau dieser Realismus, der Zuschauer beeindruckt, senkt auch die Hürde für Missbrauch. Emmanuelle Saliba, Chief Investigative Officer beim Cybersicherheitsunternehmen GetReal Security, warnte, dass diese Tools Identitätsdiebstahl einfacher denn je machen.
„Für ein paar Dollar kann heute jeder ein Full-Body-Video eines Prominenten, Politikers, CEOs oder einer Privatperson aus einem einzigen Bild erzeugen“, sagte sie. „Es gibt keinen standardmäßigen Schutz für das digitale Abbild einer Person.“
Saliba fügte hinzu, dass sich der Missbrauch weit über harmlose Spaßvideos hinaus ausdehnen dürfte – von Betrugsmaschen durch Identitätsnachahmung und Unternehmensbetrug bis hin zu politischer Desinformation und nicht einvernehmlichen expliziten Inhalten.
Auswirkungen auf Hollywood und weitergehende Risiken
Die viralen Clips haben auch die Aufmerksamkeit von Brancheninsidern auf sich gezogen. a16z-Partnerin Justine Moore teilte eines der Videos und merkte an, dass KI-Videomodelle Produktionsprozesse schneller verändern werden, als die meisten erwarten.
„Wir sind nicht darauf vorbereitet, wie schnell sich das ändern wird“, schrieb Moore. „Endlose Charakter-Swaps zu vernachlässigbaren Kosten.“
Über Stranger Things hinaus sind bereits ähnliche Body-Swap-Videos mit Leonardo DiCaprio und anderen bekannten Schauspielern aufgetaucht, was darauf hindeutet, dass sich die Technik rasch verbreitet, da Tools wie Kling, Googles Veo, FaceFusion und OpenAIs Sora immer zugänglicher werden.
We're not ready.
— Min Choi (@minchoi) January 15, 2026
AI just redefined deep fakes & character swaps.
And it's extremely easy to do.
Wild examples. Bookmark this.
[🎞️JulianoMass on IG]pic.twitter.com/fYvrnZTGL3
Während unklar bleibt, wie Netflix oder die beteiligten Schauspieler reagieren werden, betonte Chen, dass die Verantwortung nicht allein bei den Entwicklern liegen könne. Da viele dieser Modelle öffentlich verfügbar sind, erfordern wirksame Schutzmaßnahmen eine Zusammenarbeit zwischen Plattformen, Regulierungsbehörden und Nutzern.
„Erkennungssysteme müssen sich auf intrinsische Signaturen synthetischer Medien konzentrieren, nicht auf Metadaten, die leicht entfernt werden können“, sagte Chen. Er forderte zudem klarere Offenlegungspflichten und Haftungsrahmen, da KI-generierte Inhalte immer schwerer von der Realität zu unterscheiden sind.
Ein kultureller Moment zur falschen Zeit
Das Timing verleiht dem Ganzen eine zusätzliche ironische Note. Stranger Things hat kürzlich seine fünfte und letzte Staffel abgeschlossen und damit eine der einflussreichsten Serien von Netflix beendet. Während Fans sich von Hawkins und seinen Figuren verabschieden, verlängern KI-Repliken bereits deren digitales Nachleben – ohne Einwilligung, Verträge oder kreative Kontrolle.
You can’t know what’s real and what’s AI generated… just think where it will be in couple of years 🤯
— 𝕄…𝕏 𝔻𝕚𝕧𝕚𝕕𝕖𝕟𝕕 𝕘𝕣𝕠𝕨𝕥𝕙 (@martyyyn_s) January 14, 2026
Für viele Zuschauer ist genau dieser Kontrast das Beunruhigende an den Videos.
Was als technisches Demo begann, befindet sich nun an der Schnittstelle von Fankultur, Identität und Vertrauen – und wirft eine Frage auf, mit der das Internet noch ringt: Wenn jeder auf dem Bildschirm überzeugend jeder andere sein kann – was bedeutet Authentizität dann überhaupt noch?

Haftungsausschluss: Alle Materialien auf dieser Seite dienen nur zu Informationszwecken. Keines der Materialien sollte als Anlageberatung interpretiert werden. Bitte beachten Sie, dass trotz der Art vieler Materialien, die auf dieser Website erstellt und gehostet werden, HODLFM.DE keine Finanzreferenzressource ist und die Meinungen von Autoren und anderen Mitwirkenden ihre eigenen sind und nicht als finanzielle Beratung aufgefasst werden sollten. Wenn Sie eine solche Beratung benötigen, empfiehlt HODLFM.DE dringend, sich an einen qualifizierten Fachmann der Branche zu wenden.




