Das US-amerikanische Unternehmen für künstliche Intelligenz Anthropic hat drei chinesische KI-Firmen beschuldigt, groß angelegte Kampagnen orchestriert zu haben, um Fähigkeiten aus seinem Claude-Modell zu extrahieren. In einem am Montag veröffentlichten Blogbeitrag erklärte das Unternehmen, dass DeepSeek, Moonshot AI und MiniMax mehr als 16 Millionen Interaktionen mit Claude über ungefähr 24.000 betrügerische Konten generiert hätten.
Anthropic beschrieb die Aktivität als unerlaubte Destillation. Destillation bezieht sich auf das Training eines kleineren oder weniger leistungsfähigen Modells anhand der Ausgaben eines stärkeren Systems. Die Methode bleibt innerhalb der Branche üblich, wenn Unternehmen leichtere Versionen ihrer eigenen Modelle erstellen. Anthropic erklärte, dass Wettbewerber die Technik genutzt hätten, um Fähigkeiten von Claude zu erwerben, unter Verstoß gegen seine Nutzungsbedingungen und regionale Zugangsbeschränkungen.
„Diese Kampagnen nehmen an Intensität und Raffinesse zu“, schrieb das Unternehmen. „Das Zeitfenster zum Handeln ist eng.“
CNN berichtete, dass Anthropic das Thema als nationale Sicherheitsfrage darstellte. Das Unternehmen warnte, dass Modelle, die durch unerlaubte Destillation aufgebaut werden, möglicherweise nicht die Sicherheitsleitplanken beibehalten, die zur Verhinderung von Missbrauch entwickelt wurden, einschließlich Beschränkungen im Zusammenhang mit der Entwicklung von Biowaffen oder böswilliger Cyberaktivität.
Wie die Kampagnen operierten
Anthropic sagte, dass die drei Kampagnen einer ähnlichen Struktur folgten. Jede stützte sich auf betrügerische Konten und Proxy-Dienste, um in großem Maßstab auf Claude zuzugreifen, während sie versuchten, der Entdeckung zu entgehen. Das Unternehmen ordnete die Aktivität anhand von IP-Adress-Korrelation, Anfrage-Metadaten, Infrastrukturindikatoren und Bestätigung durch Industriepartner zu.
DeepSeek generierte laut Anthropic mehr als 150.000 Interaktionen. Die Prompts zielten auf Aufgaben zum logischen Denken, rubrikbasierte Bewertung und die Generierung zensursicherer Alternativen zu politisch sensiblen Anfragen. Anthropic erklärte, dass DeepSeek den Datenverkehr über Konten hinweg synchronisierte und gemeinsame Zahlungsmethoden sowie koordiniertes Timing verwendete. Das Unternehmen sagte, dass einige Prompts Claude baten, internes Denken Schritt für Schritt darzulegen, was Chain-of-Thought-Daten erzeugen könne, die für Reinforcement Learning geeignet seien.
Moonshot AIs Kampagne umfasste mehr als 3,4 Millionen Interaktionen. Anthropic sagte, die Operation zielte auf agentisches Denken, Tool-Nutzung, Programmierung, Datenanalyse und Computer Vision ab. Das Unternehmen ordnete die Kampagne über Anfrage-Metadaten zu, die mit öffentlichen Profilen leitender Moonshot-Mitarbeiter übereinstimmten.
MiniMax führte laut Anthropic die größte Kampagne durch, mit mehr als 13 Millionen Interaktionen. Das Unternehmen erklärte, dass MiniMax innerhalb von 24 Stunden nach der Veröffentlichung eines neuen Modells durch Anthropic umschwenkte und fast die Hälfte seines Datenverkehrs umleitete, um Fähigkeiten aus dem aktualisierten System zu erfassen. Anthropic sagte, es habe diese Kampagne entdeckt, bevor MiniMax das Modell veröffentlichte, das es trainierte, was Einblick in den Zyklus von Datenextraktion bis zur Veröffentlichung bot.
Um regionale Beschränkungen zu umgehen, sagte Anthropic, dass die Labore den Datenverkehr über kommerzielle Proxy-Dienste leiteten, die umfangreiche Netzwerke von Konten verwalteten. In einem Fall verwaltete ein einzelnes Proxy-Netzwerk mehr als 20.000 betrügerische Konten gleichzeitig.
Exportkontrollen und wettbewerbliche Spannungen
Anthropic hat öffentlich US-Exportkontrollen für fortgeschrittene KI-Chips unterstützt. Das Unternehmen argumentierte, dass Destillation diese Kontrollen untergrabe, indem sie ausländischen Laboren ermögliche, Fähigkeitslücken zu verringern, ohne unabhängige Entwicklung.
„In Wirklichkeit hängen diese Fortschritte in erheblichem Maße von Fähigkeiten ab, die aus amerikanischen Modellen extrahiert wurden, und die Durchführung dieser Extraktion im großen Maßstab erfordert Zugang zu fortgeschrittenen Chips“, schrieb das Unternehmen.
Die Anschuldigungen kommen, nachdem OpenAI Anfang dieses Monats ähnliche Behauptungen aufgestellt hatte. In einem Memorandum an den US House Select Committee on China sagte OpenAI, dass chinesische Unternehmen „fortlaufende Bemühungen unternehmen, auf den von OpenAI und anderen US-Frontier-Laboren entwickelten Fähigkeiten mitzuschmarotzen“. OpenAI erklärte, es überprüfe Beweise dafür, dass DeepSeek „möglicherweise seine Modelle unangemessen destilliert“ habe.
DeepSeek hat öffentlich nicht auf OpenAIs Behauptungen reagiert. DeepSeek erregte im vergangenen Jahr Aufmerksamkeit, nachdem es ein Modell veröffentlicht hatte, das sich der Leistung führender US-Systeme näherte, während es weniger Rechenressourcen benötigte. Diese Veröffentlichung löste eine Debatte über die Wirksamkeit von US-Exportkontrollen und die Kostenstruktur der Entwicklung von Frontier-KI aus.
Marktreaktion und breitere Debatte
Die Vorwürfe tauchten während erhöhter Volatilität bei KI-bezogenen Aktien auf. The Kobeissi Letter schrieb auf X, dass Märkte 800 Milliarden US-Dollar an Marktkapitalisierung ausgelöscht hätten, angesichts von Sorgen, dass KI Beschäftigung und Margen destabilisieren könnte. Der Account argumentierte, dass die „Anthropic takedowns real sind“, stellte jedoch infrage, ob Befürchtungen eines systemischen Zusammenbruchs übertrieben sein könnten.
Jüngste Produktankündigungen im Zusammenhang mit Claude fielen mit starken Bewegungen einzelner Aktien zusammen. Laut The Kobeissi Letter verzeichnete IBM seinen schlechtesten Tag seit Oktober 2000, nachdem Anthropic gesagt hatte, Claude könne COBOL-Code optimieren. CrowdStrike verlor innerhalb von zwei Handelstagen 20 Milliarden US-Dollar an Marktkapitalisierung nach einer Claude Code Security-Ankündigung, basierend auf dem Beitrag desselben Accounts.
Online-Kommentare spiegelten ebenfalls eine Polarisierung rund um das Thema wider. Ein Account namens X Freeze kritisierte Anthropics Haltung und beschrieb sein Modell als übermäßig eingeschränkt.
> be me
— X Freeze (@XFreeze) February 24, 2026
> name company "Anthropic" (literally Greek for "human-centered")
> hire a bunch of doomers who secretly think humanity is the disease
> raise billions from Big Tech to build the world's most anxious, heavily-censored chatbot
> write a 50-page "Constitutional AI"… pic.twitter.com/PRAPgZcQsa
Ein anderer Nutzer, tetsuo, schrieb sarkastisch über Bedenken hinsichtlich geistigen Eigentums und hob die breitere Debatte über Trainingsdaten und Modellausgaben hervor.
I can't believe someone would just steal from Anthropic like this. The millions of man-hours Anthropic spent hand-writing code, text, art, books, etc. to generate enough data for training must be taken into consideration here. Where is the respect for IP? https://t.co/ICejPo8gpG
— tetsuo (@tetsuoai) February 23, 2026
In dem Kommentar machte Elon Musk ebenfalls eine sarkastische Bemerkung dazu.
„Banger, wie können sie es wagen, das Zeug zu stehlen, das Anthropic von menschlichen Programmierern gestohlen hat?“
Reaktion und nächste Schritte
Anthropic sagte, es habe in Erkennungssysteme, Verhaltens-Fingerprinting und Analyse koordinierter Aktivitäten investiert, um Destillationsmuster zu identifizieren. Das Unternehmen erklärte, es habe die Verifizierung für Bildungs- und Startup-Konten verstärkt und teile technische Indikatoren mit anderen KI-Laboren und Behörden.
„Aber kein Unternehmen kann dieses Problem allein lösen“, schrieb Anthropic und forderte koordiniertes Handeln zwischen Branchenakteuren, Cloud-Anbietern und politischen Entscheidungsträgern.
Der Streit verdeutlicht eine tiefere Spannung in der Entwicklung künstlicher Intelligenz: die Grenze zwischen legitimer Modelloptimierung und verbotener Fähigkeits-Extraktion. Gerichtsdokumente sind bislang im Zusammenhang mit Anthropics Behauptungen nicht aufgetaucht, und es wurde keine Durchsetzungsmaßnahme angekündigt. Vorerst bleibt die Angelegenheit im Bereich von Unternehmensmitteilungen und öffentlichen Erklärungen, mit erheblichen geopolitischen und kommerziellen Implikationen.

Haftungsausschluss: Alle Materialien auf dieser Seite dienen nur zu Informationszwecken. Keines der Materialien sollte als Anlageberatung interpretiert werden. Bitte beachten Sie, dass trotz der Art vieler Materialien, die auf dieser Website erstellt und gehostet werden, HODLFM.DE keine Finanzreferenzressource ist und die Meinungen von Autoren und anderen Mitwirkenden ihre eigenen sind und nicht als finanzielle Beratung aufgefasst werden sollten. Wenn Sie eine solche Beratung benötigen, empfiehlt HODLFM.DE dringend, sich an einen qualifizierten Fachmann der Branche zu wenden.




