Es gibt eine Lösung für das existenzielle Risikoproblem der KI

AGI Künstliche Allgemeine Intelligenz Konzeptbild

(SeaPRwire) –   Technologischer Fortschritt kann uns begeistern, Politik kann uns wütend machen und Kriege können uns mobilisieren. Doch angesichts des Risikos des menschlichen Aussterbens, das die verursacht, sind wir erstaunlich passiv geblieben. Zum Teil lag das vielleicht daran, dass es keine Lösung zu geben schien. Dies ist eine Idee, die ich gerne in Frage stellen möchte.

Die Fähigkeiten der KI verbessern sich ständig. Seit der Veröffentlichung von vor zwei Jahren sind Hunderte von Milliarden Dollar in die KI geflossen. Diese gemeinsamen Bemühungen werden wahrscheinlich zu einer Künstlichen Allgemeinen Intelligenz (AGI) führen, bei der Maschinen über menschliche kognitive Fähigkeiten verfügen, vielleicht .

Hunderte von KI-Wissenschaftlern fürchten, dass wir die Kontrolle über die KI verlieren könnten, sobald sie zu leistungsfähig wird, was zum Aussterben der Menschheit führen könnte. Was können wir also tun?

Das existenzielle Risiko der KI wurde oft als extrem komplex dargestellt. Ein beispielsweise bezeichnete die Entwicklung einer sicheren KI auf menschlichem Niveau als „superböses Problem“. Diese wahrgenommene Schwierigkeit hatte viel mit der vorgeschlagenen Lösung von zu tun, die darin besteht, übermenschliche KI dazu zu bringen, gemäß den Werten der Menschheit zu handeln. Die KI-Ausrichtung war jedoch von Anfang an eine problematische Lösung.

Erstens waren die wissenschaftlichen Fortschritte bei der Ausrichtung viel langsamer als die Fortschritte bei der KI selbst. Zweitens ist die philosophische Frage, an welchen Werten man eine Superintelligenz ausrichten soll, unglaublich heikel. Drittens ist es keineswegs offensichtlich, dass die Ausrichtung, selbst wenn sie erfolgreich ist, eine Lösung für das existenzielle Risiko der KI wäre. Eine freundliche KI zu haben, hält nicht unbedingt andere unfreundliche KIs auf.

Aufgrund dieser Probleme haben viele Technologieunternehmen aufgefordert, keine KI zu entwickeln, über die die Menschheit die Kontrolle verlieren könnte. Einige sind noch weiter gegangen; Aktivistengruppen wie PauseAI haben tatsächlich einen internationalen Vertrag gefordert, der die Entwicklung weltweit pausieren würde.

Das wird von vielen nicht als politisch akzeptabel angesehen, da es möglicherweise noch lange dauern wird, bis die fehlenden Teile der AGI gefunden sind. Und müssen wir schon jetzt pausieren, wenn diese Technologie auch viel Gutes bewirken kann? Yann Lecun, KI-Chef bei Meta und prominenter Skeptiker des existenziellen Risikos, meinte, dass die Debatte über das existenzielle Risiko sei wie „sich 1920 über die Sicherheit von Strahltriebwerken Sorgen zu machen“.

Andererseits kann die Technologie einen Sprung nach vorne machen. Wenn wir einen weiteren Durchbruch wie den erleben, eine Innovation aus dem Jahr 2017, die zur Einführung moderner großer Sprachmodelle beigetragen hat, könnten wir vielleicht in wenigen Monaten Trainingszeit AGI erreichen. Deshalb muss ein rechtlicher Rahmen schon vorher vorhanden sein.

Glücklicherweise haben , Turing-Preisträger Yoshua Bengio, und viele andere einen Teil der Lösung geliefert. In einem politischen Papier, das Anfang dieses Jahres in Science veröffentlicht wurde, sie „Wenn-dann-Verpflichtungen“: Verpflichtungen, die aktiviert werden, wenn und sobald rote Linien in Bezug auf die Fähigkeiten in KI-Systemen der nächsten Generation erreicht werden.

Aufbauend auf ihrer Arbeit schlagen wir vom gemeinnützigen Existential Risk Observatory einen bedingten Vertrag zur KI-Sicherheit vor. Unterzeichnerländer dieses Vertrags, zu denen mindestens die USA und China gehören sollten, würden vereinbaren, dass sie, sobald wir dem Kontrollverlust zu nahe kommen, jedes potenziell unsichere Training innerhalb ihrer Grenzen einstellen. Sobald die mächtigsten Nationen diesen Vertrag unterzeichnet haben, liegt es in ihrem Interesse, die Einhaltung durch die anderen zu überprüfen und sicherzustellen, dass nicht anderswo gebaut wird.

Eine offene Frage ist, ab welchem Punkt die Fähigkeiten der KI dem Kontrollverlust zu nahe kommen. Wir schlagen vor, diese Frage an die zu delegieren, die in den , , und eingerichtet wurden. Sie verfügen über spezielle Kenntnisse in der Modellbewertung, die weiterentwickelt werden können, um diese entscheidende Frage zu beantworten. Außerdem sind diese Institute öffentlich und somit unabhängig von den meist privaten KI-Entwicklungslaboren. Die Frage, wie nah ist zu nah am Kontrollverlust, wird schwierig bleiben, aber jemand muss sie beantworten, und die AI Safety Institutes sind am besten dafür geeignet.

Im Wesentlichen können wir immer noch die Vorteile der KI im Rahmen des bedingten Vertrags zur KI-Sicherheit nutzen. Alle aktuellen KI-Systeme liegen weit unter dem Niveau des Kontrollverlusts und wären daher nicht betroffen. Auch zukünftige schmale KIs, die für eine einzelne Aufgabe geeignet sind – wie beispielsweise die Klimamodellierung oder die Suche nach neuen Medikamenten – wären nicht betroffen. Selbst allgemeinere KIs können immer noch entwickelt werden, wenn Labore gegenüber einer Aufsichtsbehörde nachweisen können, dass ihr Modell ein Kontrollverlustrisiko von weniger als beispielsweise 0,002 % pro Jahr aufweist (die Schwelle, die wir für Kernreaktoren akzeptieren). Andere KI-Denker, wie beispielsweise der MIT-Professor , der Conjecture-CEO und der ControlAI-Direktor , denken in ähnliche Richtungen.

Glücklicherweise erkennen viele Menschen im Umfeld des gewählten Präsidenten Donald Trump die existenziellen Risiken, die von der KI ausgehen. Seine Tochter Ivanka betonte die Dringlichkeit des Problems. Elon Musk, ein wichtiger Unterstützer von Trump, hat seit vielen Jahren vor den zivilisatorischen Risiken gewarnt und kürzlich den legislativen Vorstoß Kaliforniens zur Sicherheitsprüfung von KI unterstützt. Sogar der rechtsgerichtete Tucker Carlson lieferte vernünftige Kommentare, als er sagte: „Ich weiß nicht, warum wir uns zurücklehnen und dies zulassen, wenn wir wirklich glauben, dass es die Menschheit auslöschen oder versklaven wird. Wie kann das gut sein?“ Trump selbst hat sich ebenfalls zu den Risiken geäußert, die von der KI ausgehen.

Der bedingte Vertrag zur KI-Sicherheit könnte eine Lösung für das existenzielle Risiko der KI bieten, ohne die KI-Entwicklung derzeit unnötig zu behindern. China und andere Länder dazu zu bringen, den Vertrag zu akzeptieren und durchzusetzen, wird zweifellos eine große geopolitische Herausforderung sein, aber vielleicht ist eine Trump-Regierung genau das, was gebraucht wird, um diese Herausforderung zu meistern.

Eine Lösung für eines der schwierigsten Probleme, vor denen wir stehen – das existenzielle Risiko der KI – gibt es. Es liegt an uns, ob wir sie verwirklichen oder weiter auf dem Weg zum möglichen Aussterben der Menschheit gehen.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.