Meta Oversight Board warnt vor “inkohärenten” Regeln nach gefälschtem Biden-Video

(SeaPRwire) –   Meta Platforms Inc.s unabhängiger Oversight Board stimmte mit der jüngsten Entscheidung des Unternehmens überein, ein irreführendes Video von US-Präsident Joe Biden online zu lassen, kritisierte aber seine Richtlinien zu Inhalten, die von künstlicher Intelligenz erstellt werden, als „inkohärent“ und zu eng gefasst.

Der Vorstand, der 2020 von der Geschäftsführung eingerichtet wurde, um einige der bedeutendsten Entscheidungen des Unternehmens zur Moderation von Inhalten unabhängig zu überprüfen, forderte Meta am Montag auf, seine Richtlinien vor den allgemeinen US-Wahlen 2024 rasch zu aktualisieren. 

„Der Vorstand ist besorgt über die Richtlinie für manipulierte Medien in ihrer aktuellen Form und stellt fest, dass sie inkohärent ist, es ihr an einer überzeugenden Begründung mangelt und sie sich unangemessen darauf konzentriert, wie Inhalte erstellt wurden, anstatt darauf, welche spezifischen Schäden damit verhindert werden sollen, beispielsweise die Störung von Wahlprozessen“, sagte die Organisation in einer Erklärung.

Die Kritik des Vorstands erfolgte nach der Überprüfung von Metas Entscheidung, ein manipuliertes Video von Biden online zu lassen, das bearbeitet wurde, um es so aussehen zu lassen, als würde er die Brust seiner erwachsenen Enkelin unangemessen berühren. Das Video enthielt eine Bildunterschrift, die sich auf Biden als „Pädophilen“ bezog.

Der Oversight Board stimmte zu, dass das Video nicht gegen Metas Richtlinien für manipulierte Medien verstoße, sagte aber, dass diese Richtlinien viel zu eng gefasst und unzureichend seien. Der Vorstand empfahl Meta außerdem, die Entfernung von veränderten Medien, die gegen keine anderen Richtlinien gegen schädliche Inhalte verstoßen, einzustellen, sondern stattdessen damit zu beginnen, sie zu kennzeichnen und online zu lassen. 

„Wir prüfen die Leitlinien des Oversight Board und werden innerhalb von 60 Tagen öffentlich auf ihre Empfehlungen antworten, in Übereinstimmung mit der Satzung“, sagte ein Meta-Sprecher. Das Unternehmen ist nicht verpflichtet, die Empfehlungen des Vorstands umzusetzen, und hat seine Ratschläge manchmal ignoriert.

Im Januar zeigte ein Zustrom von Deepfake-Inhalten hochkarätiger Persönlichkeiten der Öffentlichkeit und den Gesetzgebern, mit welcher Geschwindigkeit manipulierte Inhalte mit Hilfe neuer KI-Tools online erscheinen können. Explizite Bilder von Taylor Swift überschwemmten die soziale Plattform X, früher bekannt als Twitter, während gefälschte Roboteranrufe mit Bidens Stimme an die Wähler vor den Vorwahlen in New Hampshire geschickt wurden, mit der Aufforderung, nicht zu wählen.

Meta blockiert nur gefälschte Videos von Personen, die Dinge sagen, die sie nicht gesagt haben. Es deckt keine Darstellungen von Personen ab, die Dinge tun, die sie nicht getan haben – wie der Biden-Post – und gilt ausdrücklich nur für Videos, die mit Tools der künstlichen Intelligenz erstellt wurden. Inhalte, die ohne Verwendung von KI bearbeitet wurden, wie das Schleifen oder Umkehren eines Videoclips, könnten für den durchschnittlichen Benutzer irreführend sein, sind aber nicht verboten.

Der Vorstand empfahl Meta, seine Richtlinien auf manipulierte Medien auszuweiten, die eine Handlung darstellen, die eine Person tatsächlich nicht vorgenommen hat, und gefälschte Audio-Dateien zu adressieren. Er forderte das Unternehmen außerdem auf, klarzustellen, welche Schäden es verhindern will, wie z. B. die Beeinträchtigung des Wahlprozesses, und sich mehr auf diese Schäden zu konzentrieren als darauf, ob Inhalte mit KI-Tools erstellt wurden oder nicht. 

„So wie es aussieht, macht die Richtlinie wenig Sinn“, sagte Michael McConnell, der Co-Vorsitzende des Vorstands, in einer Erklärung. „Sie verbietet veränderte Videos, die Leute zeigen, die Dinge sagen, die sie nicht sagen, verbietet aber keine Beiträge, die eine Person zeigen, die etwas tut, was sie nicht getan hat. Sie gilt nur für Videos, die durch KI erstellt wurden, lässt aber andere gefälschte Inhalte vom Haken.“

Meta wird sich zusammen mit Kollegen wie X und ByteDance Ltd.s TikTok immer mehr mit manipulierten Medien auseinandersetzen müssen, da sich die KI-Technologie verbessert und die Wahl näher rückt. Meta hat seine Richtlinie erstmals vor der Wahl 2020 eingeführt, als Teil einer umfassenderen Anstrengung des Unternehmens, gegen Wahlfehlinformationen vorzugehen, nachdem der US-Wahlkampf 2016 gezeigt hatte, wie soziale Netzwerke ausgetrickst werden konnten.

In vielerlei Hinsicht ist diese Art von Situation genau der Grund, warum der Oversight Board geschaffen wurde. Das unabhängige Gremium, das sich aus Wissenschaftlern und anderen mit Erfahrungen in der öffentlichen Politik zusammensetzt, wird von Meta finanziert, soll aber als Kontrollorgan für die Macht des Unternehmens über Inhalte dienen. In der Vergangenheit hat der Vorstand Fragen auf Facebook und Instagram zu Wahlfehlinformationen und drogenbezogenen Beiträgen überprüft. Er bestätigte Metas Suspendierung von Donald Trump nach dem Aufstand im Kapitol am 6. Januar 2021 und kritisierte gleichzeitig die Umsetzung der Suspendierung durch das Unternehmen. 

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.