Biden Audio Deepfake alarmiert Experten vor den Wahlen

Deepfake Audio of Biden Alarms Experts in Lead-Up to US Elections

(SeaPRwire) –   Kein politischer Deepfake hat die Weltexperten für Desinformation mehr beunruhigt als die gefälschte Stimme von US-Präsident Joe Biden, die am Wochenende in Umlauf gebracht wurde.

In der Telefonnachricht forderte eine Stimme, die bearbeitet wurde, um nach Biden zu klingen, die Wähler in New Hampshire auf, bei der demokratischen Vorwahl am Dienstag nicht ihre Stimme abzugeben. “Sparen Sie Ihre Stimme für die Wahl im November”, hieß es in der Nachricht. Es wurde sogar einer von Bidens Markenzeichen verwendet: “Was für ein Haufen Unsinn.” Tatsächlich steht der Präsident in New Hampshire nicht auf dem Wahlzettel – und die Teilnahme an der Vorwahl schließt die Teilnahme an der Wahl im November nicht aus.

Viele haben davor gewarnt, dass neue, auf künstlicher Intelligenz basierende Video- und Bildgeneratoren in diesem Jahr für politische Zwecke eingesetzt werden, während die Vertretung für fast die Hälfte der Welt bei Wahlen auf dem Spiel steht. Aber es sind die Audio-Deepfakes, die Experten jetzt Sorgen bereiten. Sie sind einfach zu bearbeiten, billig zu produzieren und besonders schwierig zurückzuverfolgen. Kombiniert man eine überzeugende Telefonnachricht mit einer Wählerregistrierungsdatenbank, hat ein böswilliger Akteur eine mächtige Waffe in der Hand, auf die selbst die fortschrittlichsten Wahlsysteme nicht vorbereitet sind, sagen Forscher.

“Der politische Deepfake-Moment ist jetzt da”, sagte Robert Weissman, Präsident der Verbraucherschutzorganisation Public Citizen. Er forderte die Gesetzgeber auf, Schutzmaßnahmen gegen gefälschte Audio- und Videoaufzeichnungen zu ergreifen, um “Wahlchaos” abzuwenden.

Die gefälschte Biden-Botschaft kommt zu einem Zeitpunkt, an dem immer mehr US-Wahlkampagnen KI-Software einsetzen, um Massenhaft Wähler zu erreichen – und als Investoren Geld in Start-ups stecken, die Stimmen klonen. Am Montag, als die gefälschte Deepfake-Telefonnachricht die Runde machte, gab das KI-Stimmen-Klonierungs-Startup ElevenLabs eine neue Finanzierungsrunde bekannt, die das Unternehmen mit 1,1 Milliarden Dollar bewertet.

Die manipulierte politische Aufnahme war nicht die erste. Im letzten Jahr verbreiteten sich Audio-Deepfakes in den sozialen Medien vor den Parlamentswahlen in der Slowakei, darunter ein Clip, in dem der Parteichef Michal Simecka offenbar über einen Plan sprach, Stimmen zu kaufen. Politische Verwendungen von Video- und Audio-Deepfakes haben sich bisher jedoch in Grenzen gehalten.

Wie genau die Biden-Nachricht erzeugt wurde, ist unklar. Der Generalstaatsanwalt von New Hampshire untersuchte den Anruf am Montag. Aber die Rückverfolgung des gefälschten Audios auf seine Quelle wird sich besonders schwierig gestalten, da es telefonisch und nicht online verbreitet wurde, sagt Joan Donovan, Associate Professor für Journalismus und neue Medien an der Boston University. Audio-Nachrichten, die per Telefon übermittelt werden, kommen nicht mit demselben digitalen Pfad.

“Dies ist ein Hinweis auf die nächste Generation schmutziger Tricks”, sagte Donovan.

Es gibt noch einen anderen Grund, warum der gefälschte Biden-Clip die Desinformationsforscher und Wahlbeamten besonders beunruhigte. Er bestätigte ihre größte Befürchtung: Böswillige Akteure nutzen Deepfakes nicht nur, um die öffentliche Meinung zu beeinflussen, sondern auch, um Wähler vom Gang zu den Urnen abzuhalten.

“Selbst wenn solche Fehlinformationen nur Verwirrung bei einigen hundert oder tausend Stimmen auslösen, könnte dies im Hinblick auf die Ergebnisse und den Ausgang bedeutsam sein”, sagte Nick Diakopoulos, Professor an der Northwestern University, der manipulierte Audioaufnahmen und Wahlen erforscht hat.

Die US-Wahlbehörde Federal Election Commission hat erste Schritte zur Regulierung politischer Deepfakes unternommen, hat aber die Technologien, die sie erzeugen helfen, noch nicht eingeschränkt. Einige Bundesstaaten haben eigene Gesetze vorgeschlagen, um Deepfakes einzudämmen.

Wahlbeamte führen Übungen durch, um sich auf einen Ansturm vorzubereiten. Rund 100 bundesstaatliche und staatliche Beamte versammelten sich im August in Colorado, um das beste Vorgehen gegen ein hypothetisches gefälschtes Video mit falschen Wahlinformationen zu erörtern. Deepfakes waren auch Thema einer Übung in Arizona im Dezember, bei der die Beamten ein Szenario durchspielten, in dem ein Video des Secretary of State Adrian Fontes gefälscht wurde, um ungenaue Informationen zu verbreiten.

Derweil befinden sich Deepfake-Erkennungswerkzeuge noch in den Kinderschuhen und liefern unklare Ergebnisse.

So deutete am Montag beispielsweise das eigene Erkennungstool von ElevenLabs an, dass der Biden-Anruf unwahrscheinlich mit Klonier-Software erstellt wurde – selbst als das Deepfake-Erkennungs-Startup Clarity angab, dass es zu mehr als 80 Prozent ein Deepfake sei.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.