Drei Kläger aus Tennessee, darunter zwei Minderjährige, reichten eine Bundesklage gegen xAI ein und werfen dem Unternehmen vor, die Erstellung sexuell expliziter Bilder unter Verwendung echter Fotos ermöglicht zu haben. Die Klage, die am Montag bei einem Bundesgericht in Kalifornien eingereicht wurde, strebt den Status einer Sammelklage für Personen in den Vereinigten Staaten an, die in KI-generierten sexualisierten Inhalten „vernünftigerweise identifizierbar“ waren.

Die Klage richtet sich gegen den Bildgenerator Grok des Unternehmens und dessen angebliche Rolle bei der Erstellung und Verbreitung nicht einvernehmlicher expliziter Inhalte. Die Kläger argumentieren, dass das System es Nutzern ermöglicht habe, reale Bilder ohne ausreichende Schutzmaßnahmen in sexuelle Inhalte zu verwandeln.

Vorwürfe von Material sexuellen Missbrauchs von Kindern

Laut Klageschrift waren alle drei Kläger zum Zeitpunkt der Erstellung der Bilder minderjährig. Anwälte behaupten, dass Grok verwendet wurde, um Material sexuellen Missbrauchs von Kindern (CSAM) zu erzeugen, indem reale Fotos in explizite Bilder und Videos umgewandelt wurden, die anschließend online verbreitet wurden.

„Das sind Kinder, deren Schul- und Familienfotos in Material sexuellen Missbrauchs von Kindern verwandelt wurden“, sagte Annika Martin von Lieff Cabraser Heimann & Bernstein in einer von Reuters zitierten Erklärung. „Elon Musk und xAI haben Grok bewusst so entwickelt, dass es explizite sexuelle Inhalte zur finanziellen Gewinnmaximierung erzeugt, ohne Rücksicht auf die Kinder und Erwachsenen, die dadurch geschädigt werden.“

Eine weitere Anwältin der Kläger, Vanessa Baehr-Jones, erklärte, dass
„xAI sich entschieden hat, von der sexuellen Ausbeutung realer Menschen, einschließlich Kindern, zu profitieren, obwohl dem Unternehmen die Konsequenzen eines derart gefährlichen Produkts voll bewusst waren.“

Entdeckung und Verbreitung der veränderten Bilder

Gerichtsunterlagen beschreiben, wie die Kläger erstmals von den Bildern erfuhren. Eines der Mädchen erhielt im Dezember eine Nachricht auf Instagram von einem anonymen Nutzer, der sie darauf hinwies, dass explizite, KI-veränderte Bilder von ihr auf einem Discord-Server hochgeladen worden waren. Das Material zeigte sie und andere Mädchen ihrer Schule angeblich in sexualisierten Positionen.

„Die Bilder zeigten ihren gesamten Körper, einschließlich ihrer Genitalien, ohne Kleidung. Das Video zeigte, wie sie sich auszieht, bis sie vollständig nackt ist“, heißt es in der Klageschrift.

Ermittler stellten später fest, dass sich die Inhalte über Discord hinaus auf Plattformen wie Telegram verbreitet hatten, wo sie angeblich gegen anderes CSAM-Material getauscht wurden. Nachdem die Behörden informiert wurden, wurde ein Verdächtiger festgenommen, und Berichten zufolge wurden auf seinem Telefon illegale Inhalte gefunden, die mit KI-Tools im Zusammenhang mit Grok erstellt worden waren.

Die Klage behauptet, dass die Inhalte über eine Drittanbieter-Anwendung erstellt wurden, die die Technologie von xAI lizenziert hatte. Dennoch argumentieren die Kläger, dass das System weiterhin auf der Infrastruktur von xAI basierte und das Unternehmen von dieser Nutzung profitierte.

Vorwürfe von Designfehlern und fehlenden Schutzmaßnahmen

Die Klageschrift argumentiert, dass xAI es versäumt habe, branchenübliche Schutzmechanismen zu implementieren, um die Erstellung illegaler oder schädlicher Inhalte zu verhindern, insbesondere solcher, die Minderjährige betreffen. Außerdem wird behauptet, dass das Lizenzmodell des Unternehmens es ihm ermögliche, sich von der Verantwortung zu distanzieren, während es weiterhin finanziell profitiert.

Die Kläger behaupten, dass die veränderten Bilder schweren emotionalen Schaden und Rufschädigung verursacht hätten. Ein Elternteil berichtete, dass sein Kind in Panik geriet, nachdem es die Bilder online entdeckt hatte, was zeigt, wie schnell sich dies auf die psychische Gesundheit auswirkte.

Die Klage fordert Schadensersatz, die Übernahme der Anwaltskosten sowie eine gerichtliche Anordnung, die xAI verpflichtet, die angeblichen Praktiken zu unterlassen. In einigen Ansprüchen verlangen die Kläger mindestens 150.000 US-Dollar Entschädigung pro Verstoß gemäß den geltenden Gesetzen, zusätzlich zu Strafschadensersatz und Gewinnabschöpfung.

Breitere Aufmerksamkeit und frühere Kritik

Der Fall entsteht in einer Zeit zunehmender Aufmerksamkeit gegenüber generativen KI-Tools, die nicht einvernehmliche sexualisierte Inhalte erzeugen. Anfang dieses Jahres verstärkte sich die Kritik, nachdem Grok mit weit verbreiteten „Nudification“-Anwendungsfällen in Verbindung gebracht wurde.

Eine in der Klage zitierte Studie des Center for Countering Digital Hate schätzt, dass in kurzer Zeit Millionen sexualisierter Bilder erstellt wurden, darunter Tausende mit Minderjährigen.

Als Reaktion auf frühere Kritik erklärte xAI im Januar, dass die Möglichkeit, Bilder realer Personen in aufreizender Kleidung zu erstellen oder zu bearbeiten, in Jurisdiktionen eingeschränkt worden sei, in denen solche Inhalte illegal sind. Elon Musk erklärte zuvor auf X, dass ihm „keine nackten Bilder von Minderjährigen bekannt sind, die mit Grok erstellt wurden“, und betonte, dass das System illegale Anfragen ablehnen würde.

Rechtlicher Druck nimmt in mehreren Jurisdiktionen zu

Diese Klage reiht sich in eine Serie rechtlicher Herausforderungen und regulatorischer Untersuchungen gegen xAI und seine Mutterplattform X ein. Behörden in mehreren Regionen, darunter Europa und Australien, untersuchen die Risiken im Zusammenhang mit dem Missbrauch KI-generierter Bilder.

Der Fall gilt als eine der ersten Klagen, die von Minderjährigen direkt gegen einen KI-Entwickler wegen der angeblichen Erstellung und Verbreitung von CSAM unter Verwendung identifizierbarer realer Bilder eingereicht wurden. Er wirft Fragen zur Verantwortung auf, wenn generative KI-Tools über Drittanbieter-Anwendungen eingesetzt werden, und ob bestehende Schutzmaßnahmen den rechtlichen Anforderungen entsprechen.

Nun werden die Gerichte prüfen, ob die Designentscheidungen von xAI, die Lizenzstruktur und die Sicherheitsmaßnahmen den erforderlichen Standards entsprechen, um vorhersehbaren Schaden im Zusammenhang mit der Technologie zu verhindern.

ASIC warnt Gen Z vor Krypto-Beratung aus sozialen Medien und KI | HODLFM.DE
ASIC warnt Gen Z vor Risiken durch Social Media und KI bei…
hodl-post-image

Haftungsausschluss: Alle Materialien auf dieser Seite dienen nur zu Informationszwecken. Keines der Materialien sollte als Anlageberatung interpretiert werden. Bitte beachten Sie, dass trotz der Art vieler Materialien, die auf dieser Website erstellt und gehostet werden, HODLFM.DE keine Finanzreferenzressource ist und die Meinungen von Autoren und anderen Mitwirkenden ihre eigenen sind und nicht als finanzielle Beratung aufgefasst werden sollten. Wenn Sie eine solche Beratung benötigen, empfiehlt HODLFM.DE dringend, sich an einen qualifizierten Fachmann der Branche zu wenden.