(SeaPRwire) – Laut zweier neuer, am Donnerstag veröffentlichter Studien weisen die weltweit führenden KI-Unternehmen ein “inakzeptables” Risikomanagement und einen “auffallenden Mangel an Engagement in vielen Bereichen der Sicherheit” auf.
Die Risiken der heutigen KI – nach dem Eingeständnis vieler Top-Unternehmen selbst – könnten beinhalten, dass KI böswilligen Akteuren hilft, Cyberangriffe durchzuführen oder Biowaffen zu entwickeln. Zukünftige KI-Modelle, so befürchten Top-Wissenschaftler, könnten sich der menschlichen Kontrolle ganz entziehen.
Die Studien wurden von den gemeinnützigen Organisationen SaferAI und FLI durchgeführt. Jede Studie war die erste einer Reihe, von der die Gruppen hoffen, dass sie Top-KI-Unternehmen dazu anregt, ihre Praktiken zu verbessern.
“Wir wollen es den Leuten wirklich leicht machen zu sehen, wer nicht nur redet, sondern auch handelt”, sagt Max Tegmark, Präsident der FLI.
SaferAI bewertete die Risikomanagementprotokolle (auch bekannt als verantwortungsvolle Skalierungspolitik) der Top-KI-Unternehmen, um jedes Unternehmen hinsichtlich seines Ansatzes zur Identifizierung und Minderung von KI-Risiken zu bewerten.
Kein KI-Unternehmen schnitt in der SaferAI-Bewertung seiner Risikomanagementreife besser als “schwach” ab. Der höchste Punktwert wurde von Anthropic (35 %) erzielt, gefolgt von OpenAI (33 %), Meta (22 %) und Google DeepMind (20 %). Elon Musks xAI erzielte 18 %.
Zwei Unternehmen, Anthropic und Google DeepMind, erhielten niedrigere Punktzahlen als bei der ersten Durchführung der Studie im Oktober 2024. Das Ergebnis bedeutet, dass OpenAI Google als Zweitplatzierter in den SaferAI-Ratings überholt hat.
Siméon Campos, Gründer von SaferAI, sagte, Google habe vergleichsweise niedrig abgeschnitten, obwohl das Unternehmen gute Sicherheitsforschung betreibt, weil das Unternehmen in seinen Richtlinien nur wenige feste Zusagen macht. Das Unternehmen veröffentlichte Anfang des Jahres auch ein Frontier-Modell, Gemini 2.5, ohne Sicherheitsinformationen weiterzugeben – was Campos als “ungeheuerliches Versagen” bezeichnete. Ein Sprecher von Google DeepMind sagte gegenüber TIME: “Wir setzen uns für die sichere Entwicklung von KI zum Wohle der Gesellschaft ein. KI-Sicherheitsmaßnahmen umfassen ein breites Spektrum potenzieller Abschwächungen. Diese aktuellen Berichte berücksichtigen nicht alle KI-Sicherheitsbemühungen von Google DeepMind und auch nicht alle Branchen-Benchmarks. Unser umfassender Ansatz für KI-Sicherheit geht weit über das hinaus, was erfasst wird.”
Auch die Punktzahl von Anthropic sank seit der SaferAI-Bewertung im Oktober. Dies war zum Teil auf Änderungen zurückzuführen, die das Unternehmen wenige Tage vor der Veröffentlichung der Claude 4-Modelle an seinen Verpflichtungen vorgenommen hatte, die darauf abzielten, Insider-Bedrohungen zu bekämpfen, sobald es Modelle dieses Kalibers veröffentlichte. “Das ist ein sehr schlechter Prozess”, sagt Campos. Anthropic reagierte nicht sofort auf eine Anfrage nach einem Kommentar.
Die Autoren der Studie sagten auch, dass ihre Methodik seit letztem Oktober detaillierter geworden sei, was einen Teil der Unterschiede in der Bewertung erklärt.
Die Unternehmen, die ihre Punktzahlen am meisten verbesserten, waren xAI, das 18 % im Vergleich zu 0 % im Oktober erzielte, und Meta, das 22 % im Vergleich zu seiner vorherigen Punktzahl von 14 % erzielte.
Die FLI-Studie war breiter angelegt – sie betrachtete nicht nur die Risikomanagementpraktiken, sondern auch die Ansätze der Unternehmen in Bezug auf aktuelle Schäden, existenzielle Sicherheit, Governance und Informationsaustausch. Ein Gremium aus sechs unabhängigen Experten bewertete jedes Unternehmen auf der Grundlage einer Überprüfung öffentlich zugänglichen Materials wie Richtlinien, Forschungsarbeiten und Nachrichtenberichte sowie zusätzlicher, nicht öffentlicher Daten, die den Unternehmen zur Verfügung gestellt wurden. Die höchste Note wurde von Anthropic (ein C plus) erzielt. OpenAI erhielt ein C und Google ein C minus. (xAI und Meta erhielten beide ein D.)
In den FLI-Bewertungen für den Ansatz jedes Unternehmens zur “existenziellen Sicherheit” erhielt jedoch jedes Unternehmen ein D oder schlechter. “Sie alle sagen: Wir wollen superintelligente Maschinen bauen, die Menschen in jeder Hinsicht überlisten können, und trotzdem haben sie keinen Plan, wie sie dieses Zeug kontrollieren wollen”, sagt Tegmark.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.
“`