OpenAI-Prozess: Muratis Aussage unter Eid nennt Vertrauensbruch als Entlassungsgrund

Am zweiten Prozesstag im Fall Musk gegen Altman lieferten eidesstattliche Aussagen eine abschließende Erklärung für Sam Altmans Absetzung als OpenAI-CEO im November 2023. Die ehemalige CTO Mira Murati erklärte unter Eid, die Entlassung habe „nichts mit KI-Sicherheit zu tun gehabt" und „nichts mit etwas, das 'Ilya gesehen hat'" – es sei „ausschließlich Sams mangelnde Vertrauenswürdigkeit" gewesen. Greg Brockman bezeugte unabhängig davon, dass OpenAI 2026 rund 50 Milliarden Dollar für Compute-Kapazitäten plant – ausgehend von 30 Millionen Dollar im Jahr 2017, einem Wachstum um den Faktor 1.667 in unter einem Jahrzehnt.

Was die Quellen tatsächlich aussagen

Muratis eidesstattliche Erklärung widerlegt die „Q*"-Erzählung, die sich Ende 2023 verbreitet hatte: die These, Ilya Sutskever habe ein AGI-ähnliches Verhalten beobachtet, das den Vorstand zum Handeln veranlasst habe. Diese KI-Verschwörungstheorie bot Altman politische Deckung für seine Rückkehr und ermöglichte ihm, die Macht zu konsolidieren, während jene, die ihm entgegentraten, verdrängt wurden. Gary Marcus, der öffentlich geäußert hatte, der eigentliche Grund sei das Vertrauen gewesen, stellte fest, seine Analyse aus dem Jahr 2023 habe „100-prozentig Bestand" – Sutskever habe das Verhalten seines Vorgesetzten beobachtet, nicht einen technologischen Quantensprung.

Helen Toners Zeugenaussage schärft das Bild von Muratis eigener Rolle. Toner erklärte, Murati sei „völlig desinteressiert daran gewesen, ihrem Team mitzuteilen, dass ihre Gespräche mit [dem Vorstand] ein wesentlicher Faktor" bei der Entlassung gewesen seien – und dass Murati „abgewartet hatte, aus welcher Richtung der Wind weht, ohne zu merken, dass sie selbst der Wind war." Mike Isaac, dessen ursprüngliche Berichterstattung über die Absetzung auf „intensiven Druck auf allen Unternehmensebenen" gestoßen war, bemerkte: „Menschen sprechen ganz anders, wenn sie unter dem Druck einer möglichen Meineid-Anklage stehen."

Bemerkenswert am Prozessverlauf: Die Zeugen sind sich in den Grundsachverhalten weitgehend einig. Die strittige Frage lautet nicht, was geschehen ist, sondern ob OpenAIs Vorgehen akzeptabel war – eine Verschiebung, die den rechtlichen und reputationsbezogenen Rahmen erheblich verändert.

Strategische Einordnung

Der Prozess zeigt: Eine Governance-Krise lässt sich glaubwürdig verschleiern, indem man sie mit einer Sicherheitserzählung verknüpft – in diesem Fall mit Auswirkungen auf die öffentliche Wahrnehmung von KI-Fortschritten über mehr als zwei Jahre. Für Organisationen, die KI-Partner evaluieren, ist die Unterscheidung zwischen öffentlich kommunizierten Sicherheitsbegründungen und interner Governance-Realität kein abstraktes Problem mehr, sondern ein praktisches Due-Diligence-Thema.