Oxforder KI-Professor warnt vor branchenzerstörendem 'Hindenburg-Moment'
Michael Wooldridge, KI-Professor an der Universität Oxford, hielt die Faraday-Preis-Vorlesung der Royal Society ("This is not the AI we were promised") und warnte, kommerzieller Druck veranlasse KI-Unternehmen, in sicherheitskritischen Bereichen einzusetzen, bevor sie die Fehlermodi ihrer Systeme hinreichend verstehen. Wooldridge bezeichnete mehrere Szenarien als "sehr, sehr plausibel": ein tödliches Update für autonomes Fahrsoftware, ein KI-gesteuerter Cyberangriff, der globale Fluggesellschaften lahmlegt, oder der Kollaps eines Unternehmens infolge einer katastrophal fehlgeleiteten KI-Geschäftsentscheidung. Seine Hindenburg-Analogie: Das Unglück von 1937 tötete nicht nur 36 Menschen — es vernichtete die gesamte Luftschiff-Industrie. Ein einziges spektakuläres KI-Versagen im richtigen Sektor könnte dasselbe mit KI bewirken.
Relevanz
Hier warnt ein hochrangiger Wissenschaftler auf einer formellen wissenschaftlichen Veranstaltung der Royal Society — kein Meinungsbeitrag, sondern eine akademische Ansprache. Die Kernthese — dass LLMs konstruktionsbedingt selbstsicher klingen, unabhängig davon, ob ihre Antworten korrekt sind, und daher in kritischer Infrastruktur inhärent gefährlich sind — stellt aktuelle Zeitpläne für den Unternehmenseinsatz von KI direkt in Frage. Für KI-Produktteams, die Kunden in regulierten Sektoren beraten, wird diese Argumentation zunehmend in Beschaffungs- und Compliance-Gesprächen auftauchen.