(SeaPRwire) – „China kümmert sich nicht um KI-Sicherheit – warum sollten wir es also tun?“ Diese fehlerhafte Logik durchdringt die US-Politik und Technologiekreise und bietet Deckung für ein rücksichtsloses Wettrennen nach unten, da Washington in der KI-Entwicklung unbedingt Peking übertreffen will.
Dieser Begründung zufolge würde eine Regulierung der KI das Risiko bergen, im sogenannten „“ ins Hintertreffen zu geraten. Und da China angeblich der Sicherheit keine Priorität einräumt, ist es die sicherere langfristige Wette, rücksichtslos voranzueilen. Dieses Narrativ ist nicht nur falsch; es ist gefährlich.
Ironischerweise könnten chinesische Führungskräfte eine Lektion für die KI-Förderer der USA haben: Wahre erfordert Kontrolle. Wie Chinas oberster Technologiebeamter, Ding Xuexiang, auf dem Weltwirtschaftsforum in Davos im Januar 2025 sagte: „Wenn das Bremssystem nicht unter Kontrolle ist, kann man das Gaspedal nicht mit Zuversicht betätigen.“ Für chinesische Führungskräfte ist Sicherheit keine Einschränkung, sondern eine Voraussetzung.
KI-Sicherheit hat sich in China zu einem politischen entwickelt. Im April leitete Präsident Xi Jinping eine seltene Sitzung des Politbüros zum Thema KI, in der er vor „beispiellosen“ Risiken warnte. Chinas führt KI-Sicherheit nun neben Pandemien und Cyberangriffen auf. Aufsichtsbehörden fordern vor der Bereitstellung Sicherheitsbewertungen für generative KI und haben kürzlich über nicht konforme KI-Produkte vom Markt genommen. Allein in der ersten Hälfte dieses Jahres hat China mehr nationale KI-Standards als in den drei Jahren zuvor zusammen. In der Zwischenzeit hat sich das Volumen der Fachartikel, die sich auf die KI-Sicherheit an der Spitze konzentrieren, im vergangenen Jahr in China mehr als .
Das letzte Mal, dass sich US-amerikanische und chinesische Staats- und Regierungschefs trafen, um über die Risiken der KI zu sprechen, war im . Im September deuteten Beamte beider Nationen Gespräche zu „gegebener Zeit“ an. Aber unter der Biden-Administration fand kein Treffen statt, und es besteht noch größere Unsicherheit darüber, ob die Trump-Administration den Staffelstab übernehmen wird. Dies ist eine verpasste Gelegenheit.
China ist offen für eine Zusammenarbeit. Im Mai 2025 es einen bilateralen KI-Dialog mit dem Vereinigten Königreich. Angesehene chinesische Wissenschaftler haben zu großen internationalen Anstrengungen beigetragen, wie z. B. dem , der von 33 Ländern und zwischenstaatlichen Organisationen (einschließlich den USA und China) unterstützt wird, und zu Global AI Safety Research Priorities.
Ein notwendiger erster Schritt ist die Wiederbelebung des ruhenden US-amerikanisch-chinesischen Dialogs über KI-Risiken. Ohne einen funktionierenden Regierungskanal bleiben die Aussichten auf eine Koordinierung gering. China signalisierte, dass es offen für die Fortsetzung des Gesprächs am Ende der Biden-Administration sei. Es brachte bereits eine bescheidene, aber symbolisch wichtige Vereinbarung hervor: bestätigten, dass die menschliche Entscheidungsfindung die Kontrolle über Atomwaffen behalten muss. Dieser Kanal hat Potenzial für weitere Fortschritte.
Künftig sollten sich die Diskussionen auf gemeinsame, hochriskante Bedrohungen konzentrieren. Man denke an die jüngste von OpenAI, dass sein neuestes ChatGPT Agent die Schwelle der „Hohen Fähigkeit“ im biologischen Bereich gemäß den eigenen des Unternehmens überschritten hat. Dies bedeutet, dass der Agent den Nutzern zumindest im Prinzip sinnvolle Anleitungen geben könnte, die die Schaffung gefährlicher biologischer Bedrohungen erleichtern könnten. Sowohl als auch Peking haben ein , um zu verhindern, dass nichtstaatliche Akteure solche Werkzeuge bewaffnen. Ein KI-gestützter würde die nationalen Grenzen nicht respektieren. Darüber hinaus äußerten führende Experten und Turing-Award-Gewinner aus dem Westen und China Bedenken, dass hochentwickelte Allzweck-KI-Systeme möglicherweise außerhalb der menschlichen Kontrolle agieren und katastrophale und existenzielle Risiken bergen könnten.
Beide Regierungen haben bereits einige dieser Risiken anerkannt. Die von Präsident Trump warnt davor, dass KI „in naher Zukunft neuartige nationale Sicherheitsrisiken bergen kann“, insbesondere in den Bereichen Cybersicherheit sowie in den chemischen, biologischen, radiologischen und nuklearen (CBRN) Bereichen. In ähnlicher Weise betonte Chinas wichtigstes Gremium für KI-Sicherheitsstandards im September letzten Jahres die Notwendigkeit von KI-Sicherheitsstandards, die Cybersicherheit, CBRN und Risiken des Kontrollverlusts berücksichtigen.
Von dort aus könnten die beiden Seiten praktische Schritte unternehmen, um technisches Vertrauen zwischen führenden Normungsorganisationen aufzubauen – wie z. B. dem China’s National Information Security Standardization Technical Committee () und dem America’s National Institute of Standards and Technology ()
Darüber hinaus könnten Branchenbehörden wie die AI Industry Alliance of China (AIIA) und das Frontier Model Forum in den USA Best Practices für Risikomanagement-Frameworks austauschen. Die AIIA hat „“ formuliert, die die meisten führenden chinesischen Entwickler unterzeichnet haben. Ein neues chinesisches , das sich voll und ganz auf Risiken an der Spitze konzentriert, darunter Cyber-Missbrauch, biologischer Missbrauch, groß angelegte Überzeugung und Manipulation sowie Szenarien des Kontrollverlusts, wurde während des veröffentlicht und kann beiden Ländern helfen, sich anzugleichen.
Wenn sich das Vertrauen vertieft, könnten Regierungen und führende Labore damit beginnen, Sicherheitsbewertungsmethoden und -ergebnisse für die fortschrittlichsten Modelle auszutauschen. Das , das auf der WAIC vorgestellt wurde, fordert ausdrücklich die Schaffung von „gegenseitig anerkannten Sicherheitsbewertungsplattformen“. Wie ein Anthropic Mitbegründer , eine kürzlich durchgeführte chinesische KI-Sicherheitsbewertung ähnliche Ergebnisse wie der Westen: KI-Systeme an der Spitze bergen einige nicht unerhebliche CBRN-Risiken und zeigen erste Anzeichen für autonome Selbstreplikation und Täuschung. Ein gemeinsames Verständnis der Modellschwachstellen – und wie diese Schwachstellen getestet werden – würde die Grundlage für eine breitere Sicherheitskooperation legen.
Schließlich könnten die beiden Seiten Kanäle für die Meldung von Vorfällen und Notfallreaktionsprotokolle einrichten. Im Falle eines KI-bedingten Unfalls oder Missbrauchs ist eine schnelle und transparente Kommunikation unerlässlich. Ein modernes Äquivalent zu „Hotlines“ zwischen hochrangigen KI-Beamten in beiden Ländern könnte Echtzeitwarnungen gewährleisten, wenn Modelle Sicherheitsschwellen überschreiten oder sich unerwartet verhalten. Im April betonte Präsident Xi Jinping die Notwendigkeit von „Überwachung, frühzeitiger Risikowarnung und Notfallreaktion“ im Bereich der KI. Nach jedem gefährlichen Vorfall sollte es einen vorab vereinbarten Plan geben, wie zu reagieren ist.
Engagement wird nicht einfach sein – politische und technische Hürden sind unvermeidlich. Aber KI-Risiken sind global – und so muss auch die Governance-Antwort sein. Anstatt China als Rechtfertigung für Untätigkeit im Inland bei der KI-Regulierung zu nutzen, sollten sich amerikanische Politiker und Branchenführer direkt engagieren. KI-Risiken werden nicht warten.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.
“`