Die Aufregung um die Sicherheit bei OpenAI begann, als Ilya Sutskever und Jan Leike, Leiter des sogenannten „Superalignment“-Teams, das sich auf KI-Sicherheit konzentriert, das Unternehmen verließen. Sutskever spielte eine Schlüsselrolle bei der überraschenden Entlassung des CEO Sam Altman im letzten Jahr, unterstützte jedoch später Altmans Rückkehr. Es scheint, dass der CEO ihm das immer noch übel nimmt. Jan Leike verließ ebenfalls OpenAI und kritisierte das Unternehmen dafür, nicht genug in KI-Sicherheit zu investieren, und erklärte, dass die Spannungen mit der Führung von OpenAI „einen kritischen Punkt erreicht“ hätten.

In einem Video-Interview mit Dwarkesh Patel, das am Dienstag veröffentlicht wurde, schloss sich Leopold Aschenbrenner, ein ehemaliger Sicherheitsforscher bei OpenAI, dem wachsenden Chor ehemaliger und aktueller OpenAI-Mitarbeiter an, die CEO Sam Altman kritisieren, weil er Profite über verantwortungsvolle KI-Entwicklung stellt. Aschenbrenner wurde entlassen, weil er seine Bedenken schriftlich geäußert hatte. Im Interview diskutierte er interne Konflikte über Prioritäten und schlug eine Verschiebung hin zu schnellem Wachstum und Einsatz von KI-Modellen auf Kosten der Sicherheit vor.

Die Sicherheitsillusion

Aschenbrenner enthüllte, dass die Handlungen von OpenAI im Widerspruch zu seinen öffentlichen Aussagen über Sicherheit standen. Als er Sicherheitsbedenken äußerte, antwortete das Unternehmen mit „Sicherheit ist unsere oberste Priorität“. Wenn es jedoch darum ging, ernsthafte Ressourcen zu investieren oder Kompromisse einzugehen, um grundlegende Maßnahmen umzusetzen, war Sicherheit keine Priorität mehr.

Dies deckt sich mit den Behauptungen von Leike, der sagte, das Team „schwimme gegen den Strom“ und dass „die Kultur der Sicherheit und die Prozesse dem Glanz der Produkte“ unter Altmans Führung weichen mussten.

Der ehemalige Mitarbeiter äußerte auch primäre Bedenken hinsichtlich der Entwicklung von AGI (KI erreicht oder übertrifft menschliche Intelligenz in jedem Bereich), und betonte die Bedeutung eines vorsichtigen Ansatzes, insbesondere da viele befürchten, dass China darauf abzielt, die USA in der AGI-Forschung zu übertreffen.

Leopold hob die Fragen hervor, die ihm gestellt wurden, als er entlassen wurde. Sie betrafen seine Ansichten über den Fortschritt der KI, AGI, das angemessene Sicherheitsniveau für AGI, ob die Regierung in AGI involviert sein sollte, die Loyalität seines Teams und ihn gegenüber dem Unternehmen und was er während der OpenAI-Vorstandssitzungen tat.

Vor wenigen Wochen wurde bekannt, dass OpenAI von seinen Mitarbeitern verlangt, Verschwiegenheitsvereinbarungen (NDAs) zu unterzeichnen, die es ihnen verbieten, über die Sicherheitspraktiken des Unternehmens zu sprechen. Aschenbrenner sagte, er habe eine solche NDA nicht unterschrieben, ihm wurden jedoch etwa 1 Million Dollar in Aktienoptionen angeboten. Eine beträchtliche Summe, um einen Mitarbeiter zu besänftigen, der zu viel weiß.

Verdächtige Personalumstrukturierung

Der Weggang prominenter Sicherheitsteammitglieder, einschließlich Sutskever und Leike, zog zusätzliche Aufmerksamkeit auf sich. Anschließend wurde das gesamte Team aufgelöst und ein neues Sicherheitsteam angekündigt. An der Spitze dieses Teams (nicht der Terminator, zur Überraschung aller) stand niemand geringerer als CEO Sam Altman selbst.

hodl-post-image
Source: The Information

In einem Blogpost kündigte OpenAI an, dass das neue Komitee auch von Bret Taylor, dem Vorsitzenden des Unternehmensvorstands, und Vorstandsmitglied Nicole Seligman geleitet wird:

Die erste Aufgabe des Sicherheits- und Sicherheitsausschusses wird es sein, die Sicherheitsprozesse und -maßnahmen von OpenAI in den nächsten 90 Tagen zu bewerten und weiterzuent wickeln. Nach Abschluss der 90 Tage wird der Sicherheits- und Sicherheitsausschuss seine Empfehlungen dem gesamten Vorstand mitteilen. Nach einer umfassenden Überprüfung durch den Vorstand wird OpenAI aktualisierte Informationen zu den angenommenen Empfehlungen in einer Weise veröffentlichen, die den Sicherheitsanforderungen entspricht.

OpenAI kündigte auch an, dass es mit der Schulung eines neuen KI-Modells begonnen hat, das das derzeit ChatGPT antreibende Modell ersetzen soll. Das Unternehmen erklärte, dass das neue KI-Modell, das GPT-4 ablösen wird, ein weiterer Schritt auf dem Weg zur Erreichung künstlicher allgemeiner Intelligenz ist.

Aber wer weiß wirklich, ob das Team aus den offiziell angegebenen Gründen ausgetauscht wird oder ob dies ein Versuch ist, einen weiteren Skandal zu verhindern. Vielleicht hören wir bald Behauptungen von ehemaligen Mitarbeitern, dass ChatGPT programmiert ist, um all Ihre peinlichen Anfragen preiszugeben, wie das Mal, als Sie nach dem besten Weg gefragt haben, einen Berg schmutziger Wäsche zu verstecken, bevor Ihre Schwiegereltern unerwartet auftauchten, oder wie man aus einer Zoom-Sitzung verschwindet, ohne dass es jemand bemerkt.

Haftungsausschluss: Alle Materialien auf dieser Seite dienen nur zu Informationszwecken. Keines der Materialien sollte als Anlageberatung interpretiert werden. Bitte beachten Sie, dass trotz der Art vieler Materialien, die auf dieser Website erstellt und gehostet werden, HODLFM.DE keine Finanzreferenzressource ist und die Meinungen von Autoren und anderen Mitwirkenden ihre eigenen sind und nicht als finanzielle Beratung aufgefasst werden sollten. Wenn Sie eine solche Beratung benötigen, empfiehlt HODLFM.DE dringend, sich an einen qualifizierten Fachmann der Branche zu wenden.