Um die KI vor dem Töten aller Menschen zu stoppen, sollten Deepfakes zuerst reguliert werden, sagt Forscher Connor Leahy

(SeaPRwire) –   Connor Leahy erinnert sich an den Zeitpunkt, an dem ihm klar wurde, dass KI uns alle töten wird.

Es war 2019, und OpenAI hatte gerade GPT-2 veröffentlicht. Leahy lud das damals noch junge große Sprachmodell auf seinen Laptop und nahm es mit zu einem Hackathon an der Technischen Universität München, wo er studierte. In einem kleinen, beengten Raum, auf einem Sofa zwischen vier Freunden sitzend, startete er das KI-System. Auch wenn es kaum zusammenhängende Sätze bilden konnte, erkannte Leahy in GPT-2 etwas, was in jedem anderen KI-Modell bis dahin gefehlt hatte. “Ich sah einen Funken Allgemeinheit”, sagt er rückblickend lachend über die vergleichsweise Dummheit von GPT-2 heute. “Jetzt kann ich das sagen, ohne verrückt zu klingen. Damals klang ich verrückt.”

Die Erfahrung änderte seine Prioritäten. “Ich dachte, ich hätte noch eine ganze normale Karriere, Familie, solche Sachen” sagt er. “Das fiel alles weg. Nein, die Zeit drängt jetzt.”

Heute ist Leahy CEO von Conjecture, einem Unternehmen für KI-Sicherheit. Mit langem Bart und schulterlangen Haaren ist er auch vielleicht einer der bekanntesten Gesichter der sogenannten “existenziellen Risiko”-Gruppe in der KI-Welt, der Warnungen ausspricht, dass KI auf einer Trajektorie ist, auf der sie die Fähigkeit der Menschheit, sie zu kontrollieren, schnell überwältigen könnte. Am 17. Januar sprach er auf einer Randveranstaltung auf dem jährlichen Treffen des Weltwirtschaftsforums in Davos, Schweiz, wo globale Entscheidungsträger jährlich zusammenkommen, um die Risiken für den Planeten zu diskutieren. Viel Aufmerksamkeit in Davos galt in diesem Jahr dem sich zuspitzenden Konflikt im Nahen Osten und den sich verschärfenden Auswirkungen des Klimawandels, aber Leahy argumentiert, dass das Risiko durch fortgeschrittene KI ganz oben auf der Agenda diskutiert werden sollte. “Wir haben vielleicht ein Jahr, zwei Jahre, fünf Jahre”, sagt Leahy über das Risiko durch KI. “Ich denke nicht, dass wir 10 Jahre haben.”

Trotz seiner Warnungen, dass das Ende wahrscheinlich nahe ist, ist Leahy kein Pessimist. Er kam nach Davos mit politischen Lösungen und einer Strategie bewaffnet. Diese Strategie: Fokussiere sich zuerst auf das Verbot von Deepfakes, oder KI generierte Bilder, die jetzt in riesigem Umfang verwendet werden, um ohne Einwilligung sexuelle Bilder hauptsächlich von Frauen und Mädchen zu erstellen. Deepfakes, sagt Leahy, sind ein guter erster Schritt, weil sich fast jeder einig ist, dass sie schlecht sind. Wenn Politiker Deepfakes in den Griff bekommen, könnten sie vielleicht eine Chance haben, sich auch mit den Risiken zu befassen, die von der sogenannten AGI, oder künstlichen allgemeinen Intelligenz, ausgehen.

TIME sprach kurz vor Leahys Ankunft in Davos mit ihm. Dieses Gespräch wurde für Klarheit und Länge gekürzt und bearbeitet.

Was machen Sie in Davos?

Ich werde an einem Panel teilnehmen, um über Deepfakes und was wir dagegen tun können zu sprechen, und andere Risiken durch KI. Deepfakes sind ein spezifisches Beispiel eines viel grundlegenderen Problems. Wenn Sie mit Sachen wie diesem umgehen wollen, ist es nicht ausreichend, nur die Endbenutzer ins Visier zu nehmen, was Menschen vorschlagen, die finanziell von der Existenz von Deepfakes profitieren. Wenn eine Gesellschaft in der Lage sein will, Probleme dieser Art – von denen Deepfakes ein spezifisches Beispiel sind und AGI ein anderes Beispiel ist – zu bewältigen, müssen wir in der Lage sein, die gesamte Lieferkette ins Visier zu nehmen. Es ist unzureichend, sich nur auf die Bestrafung von Menschen zu konzentrieren, die die Technologie nutzen, um Schaden anzurichten. Man muss auch die Menschen ins Visier nehmen, die diese Technologie aufbauen. Wir tun dies bereits für z.B. Kinderpornografie; wir bestrafen nicht nur die Menschen, die es konsumieren, sondern auch die Menschen, die es produzieren, verbreiten, hosten. Und genau das brauchen wir, wenn wir eine ernsthafte Gesellschaft sind, die ernsthafte digitale Probleme angehen will.

Ich denke, es sollte im Wesentlichen eine Haftung geben. Wir können mit Deepfakes anfangen, weil dies eine sehr politisch populäre Position ist. Wenn Sie ein System entwickeln, das zur Erstellung von Deepfakes verwendet werden kann, wenn Sie dieses System verbreiten, hosten etc., sollten Sie für den verursachten Schaden und mögliche strafrechtliche Folgen haftbar sein. Wenn Sie der Gesellschaft Kosten aufbürden, sollte es Ihnen obliegen, die Rechnung zu begleichen. Wenn Sie ein neues Produkt entwickeln und es eine Million Menschen schadet, sollten diese Million Menschen in irgendeiner Weise entschädigt werden, oder Ihnen sollte dies nicht erlaubt sein. Derzeit geschieht über den gesamten Bereich der KI, dass Menschen Tag für Tag daran arbeiten, die Verantwortung für das zu vermeiden, was sie tatsächlich tun und wie es sich tatsächlich auf Menschen auswirkt. Deepfakes sind ein spezifisches Beispiel dafür. Aber es ist eine viel breitere Klasse von Problemen. Und unsere Gesellschaft bewältigt diese Klasse von Problemen derzeit nicht gut, und wir müssen sie gut bewältigen, wenn wir eine Chance mit AGI haben wollen.

Bei Deepfakes ist eines der Hauptprobleme, dass man oft vom Bild allein nicht sagen kann, welches System zur Erzeugung verwendet wurde. Und wenn Sie nach Haftung fragen, wie verbinden Sie dann diese beiden Punkte auf eine rechtlich durchsetzbare Weise?

Das Gute an Haftung und strafrechtlicher Verfolgung ist, dass Sie es nicht bei jedem Fall erwischen müssen, es reicht, wenn das Risiko besteht. Sie versuchen daher, die Entscheidungsfindung der Menschen, die solche Systeme herstellen, in die richtige Richtung zu lenken. Derzeit gibt es für Forscher, die ein neues, besseres Deepfakes-System entwickeln, keinen Nachteil, kein Risiko bei der Entscheidung, ob sie es ins Internet stellen oder nicht. Ihnen ist es egal, sie interessieren sich nicht dafür, wie sich dies tatsächlich auf Menschen auswirkt, und es wird ihnen nichts passieren. Wenn Sie nur die Bedrohung hinzufügen, dass tatsächlich, wenn etwas Schlechtes passiert und wir Sie finden, Sie Ärger bekommen, verändert dies die Gleichung schon sehr deutlich. Klar, wir werden nicht alle erwischen. Aber wir können es sehr viel schwieriger machen.

Viele der Entscheidungsträger in Davos sind sehr optimistisch in Bezug auf KI, sowohl aus Sicherheits- als auch aus wirtschaftlicher Sicht. Was wäre Ihre Botschaft an diese Menschen?

Wenn Sie einfach mit KI voranschreiten, gibt es kein gutes Ergebnis. Das führt zu mehr Chaos, mehr Verwirrung, immer weniger Kontrolle und sogar Verständnis dessen, was vor sich geht, bis alles zusammenbricht. Dies ist ein Proliferationsproblem. Mehr Menschen erhalten Zugang zu Dingen, mit denen sie andere Menschen schaden können, und auch die Schwere eines Unfalls nimmt zu. Da sowohl der durch Menschen verursachte Schaden als auch die Schwere eines Unfalls zunimmt, wird die Gesellschaft immer instabiler, bis sie aufhört zu existieren.

Wenn wir also als Spezies eine Zukunft haben wollen, können wir eine Technologie, die so mächtig ist, dass Experten und andere zustimmen, dass sie unsere Spezies übertreffen könnte, nicht einfach unkontrolliert proliferieren lassen. Wenn Sie etwas erschaffen, das klüger als Menschen ist, besser in Politik, Wissenschaft, Manipulation, Business ist, und Sie wissen nicht, wie Sie es kontrollieren – was bei uns der Fall ist – und Sie es massenhaft produzieren, was denken Sie, was dann passiert?

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.