OpenAI versendet GPT-4.1 ohne Sicherheitsbericht

Am Montag startete OpenAI eine neue Familie von KI-Modellen, GPT-4.1, die laut Unternehmen einige seiner bestehenden Modelle bei bestimmten Tests, insbesondere Benchmarks für Programmierung, übertraf. Allerdings wurde GPT-4.1 ohne den Sicherheitsbericht ausgeliefert, der normalerweise den Veröffentlichungen von OpenAI beiliegt, bekannt als Modell- oder Systemkarte.

Bis Dienstagmorgen hatte OpenAI noch keinen Sicherheitsbericht für GPT-4.1 veröffentlicht - und anscheinend plant es auch nicht. In einer Erklärung gegenüber TechCrunch sagte OpenAI-Sprecher Shaokyi Amdo, dass "GPT-4.1 kein Spitzenmodell ist, daher wird es keine separate Systemkarte dafür geben."

Es ist ziemlich üblich, dass KI-Labore Sicherheitsberichte veröffentlichen, in denen die Arten von Tests dargelegt werden, die intern und mit Partnern von Dritten durchgeführt wurden, um die Sicherheit bestimmter Modelle zu bewerten. Diese Berichte zeigen gelegentlich unvorteilhafte Informationen, wie etwa, dass ein Modell dazu neigt, Menschen zu täuschen oder gefährlich überzeugend ist. Großteils betrachtet die KI-Community diese Berichte als Bemühungen von KI-Laboren, unabhängige Forschung und Red Teaming zu unterstützen.

In den letzten Monaten scheinen führende KI-Labore ihre Berichterstattungsstandards gesenkt zu haben, was eine Reaktion von Sicherheitsforschern ausgelöst hat. Einige, wie Google, haben sich bei Sicherheitsberichten zurückgehalten, während andere Berichte veröffentlicht haben, die an Details mangeln.

OpenAIs bisherige Erfolgsbilanz ist ebenfalls nicht außergewöhnlich. Im Dezember wurde das Unternehmen kritisiert, weil es einen Sicherheitsbericht mit Benchmark-Ergebnissen für ein anderes Modell herausbrachte, als die Version, die in den Produktivbetrieb überführt wurde. Letzten Monat startete OpenAI ein Modell, tiefe Forschung, Wochen bevor die Systemkarte für dieses Modell veröffentlicht wurde.

Steven Adler, ein ehemaliger Sicherheitsforscher von OpenAI, merkte gegenüber TechCrunch an, dass Sicherheitsberichte durch kein Gesetz oder Vorschrift vorgeschrieben sind - sie sind freiwillig. Dennoch hat OpenAI mehrere Zusagen gegenüber Regierungen gemacht, die Transparenz über seine Modelle zu erhöhen. Vorausgehend dem UK AI Safety Summit im Jahr 2023 bezeichnete OpenAI in einem Blogbeitrag Systemkarten als „einen wichtigen Teil“ seines Ansatzes zur Rechenschaftspflicht. Und im Vorfeld des Paris AI Action Summit 2025 sagte OpenAI, dass Systemkarten wertvolle Einblicke in die Risiken eines Modells bieten.

'Systemkarten sind das wichtigste Werkzeug der KI-Branche für Transparenz und zur Beschreibung, welche Sicherheitstests durchgeführt wurden,' sagte Adler gegenüber TechCrunch in einer E-Mail. „Die heutigen Transparenznormen und -verpflichtungen sind letztendlich freiwillig, daher liegt es an jedem KI-Unternehmen zu entscheiden, ob oder wann eine Systemkarte für ein bestimmtes Modell veröffentlicht werden soll.“

GPT-4.1 wird ohne eine Systemkarte versendet, zu einer Zeit, in der aktuelle und ehemalige Mitarbeiter Bedenken über die Sicherheitspraktiken von OpenAI äußern. Letzte Woche reichten Adler und 11 andere ehemalige OpenAI-Mitarbeiter einen beantragten amicus brief im Fall von Elon Musk gegen OpenAI ein, mit der Argumentation, dass ein profitorientiertes OpenAI bei der Sicherheitsarbeit Abstriche machen könnte. Der Financial Times berichtete kürzlich, dass der ChatGPT-Hersteller, angetrieben von Wettbewerbsdruck, die Menge an Zeit und Ressourcen reduziert hat, die für Sicherheitstests bereitgestellt werden.

Während das leistungsstärkste Modell in der Familie von GPT-4.1, GPT-4.1, nicht das leistungsstärkste in OpenAIs Roster ist, erzielt es signifikante Verbesserungen in den Bereichen Effizienz und Latenz. Thomas Woodside, Mitbegründer und Politikanalyst beim Secure AI Project, sagte TechCrunch, dass die Leistungsverbesserungen einen Sicherheitsbericht umso kritischer machen. Je ausgefeilter das Modell, desto höher das Risiko, das es darstellen könnte, sagte er.

Viele KI-Labore haben Versuche abgelehnt, Sicherheitsberichterstattungsanforderungen in Gesetze zu kodifizieren. Beispielsweise lehnte OpenAI Kaliforniens SB 1047 ab, das viele KI-Entwickler verpflichtet hätte, Sicherheitsbewertungen von Modellen zu prüfen und zu veröffentlichen, die sie öffentlich machen.