Meta’s Überprüfungsausschuss entscheidet, zwei Video-Beiträge über den Israel-Hamas-Krieg wiederherzustellen

Meta Review Board Rules to Restore Israel-Hamas War Posts

(SeaPRwire) –   MENLO PARK, Kalifornien — Ein quasi-unabhängiger Prüfungsausschuss hat entschieden, dass das Mutterunternehmen von Facebook, Meta, zwei Entscheidungen aus dem Herbst rückgängig machen sollte, Beiträge zu entfernen, die “die Welt über das menschliche Leid auf beiden Seiten” des Israel-Hamas-Krieges informieren.

In beiden Fällen stellte Meta die Beiträge – einer zeigte palästinensische Opfer, der andere einen israelischen Geisel – letztendlich selbst wieder her, fügte ihnen jedoch aufgrund gewalttätigen Inhalts Warnhinweise hinzu. Das bedeutet, dass das Unternehmen nicht verpflichtet ist, etwas gegen die Entscheidung des Ausschusses zu unternehmen.

Der Ausschuss sagte jedoch auch, dass er Meta’s Entscheidung ablehnt, die betreffenden Beiträge von Empfehlungen auf Facebook und Instagram auszuschließen, “auch in Fällen, in denen es festgestellt hatte, dass die Beiträge dazu gedacht waren, das Bewusstsein zu schärfen.” Außerdem sagte er, dass Meta’s Einsatz automatisierter Werkzeuge zum Entfernen “potenziell schädlichen” Inhalts die Wahrscheinlichkeit erhöht, “wertvolle Beiträge” zu entfernen, die nicht nur das Bewusstsein für den Konflikt schärfen, sondern auch Beweise für Menschenrechtsverletzungen enthalten können. Er forderte das Unternehmen auf, solche Inhalte zu erhalten.

Der Aufsichtsrat, der vor drei Jahren von Meta eingerichtet wurde, veröffentlichte seine Entscheidungen am Dienstag in dem, was er als seine erste beschleunigte Entscheidung bezeichnete – innerhalb von 12 Tagen anstatt der üblichen 90 Tage.

In einem Fall sagte der Ausschuss, dass Instagram ein Video entfernt hatte, das den vermeintlichen Ausgang eines Angriffs auf oder in der Nähe des Al-Shifa-Krankenhauses in Gaza-Stadt zeigt. Der Beitrag zeigt verletzte oder getötete Palästinenser, darunter Kinder. Meta’s automatische Systeme entfernten den Beitrag mit der Begründung, er verstoße gegen die Regeln gegen gewalttätige und grafische Inhalte. Obwohl Meta seine Entscheidung später rückgängig machte, sagte der Ausschuss, dass es einen Warnhinweis auf den Beitrag gesetzt und ihn herabgestuft habe, was bedeutet, dass er den Nutzern nicht empfohlen wurde und weniger Menschen ihn sahen. Der Ausschuss sagte, er stimme nicht mit der Entscheidung überein, das Video herabzustufen.

Der andere Fall betrifft ein Video, das auf Facebook gepostet wurde und eine israelische Frau zeigt, die ihre Entführer anfleht, sie nicht zu töten, als sie während der Hamas-Überfälle auf Israel am 7. Oktober als Geisel genommen wird.

Nutzer legten gegen Meta’s Entscheidung, die Beiträge zu entfernen, Einspruch ein, und die Fälle gingen an den Aufsichtsrat. Der Ausschuss sagte, er habe in den Wochen nach dem 7. Oktober eine fast dreifache Zunahme der durchschnittlichen täglichen Berufungen festgestellt, die von Nutzern als im Zusammenhang mit der Region Naher Osten und Nordafrika markiert wurden.

Meta sagte, es begrüße die Entscheidung des Ausschusses.

“Sowohl Meinungsfreiheit als auch Sicherheit sind für uns und die Menschen, die unsere Dienste nutzen, wichtig. Der Ausschuss hob Meta’s ursprüngliche Entscheidung auf, diesen Inhalt zu entfernen, stimmte aber der anschließenden Entscheidung zu, den Inhalt mit einem Warnhinweis wiederherzustellen. Meta hatte diesen Inhalt zuvor wiederhergestellt, so dass keine weiteren Maßnahmen in diesem Fall ergriffen werden müssen”, so das Unternehmen. “Es wird keine weiteren Aktualisierungen in diesem Fall geben, da der Ausschuss keine Empfehlungen als Teil seiner Entscheidung ausgesprochen hat.”

In einer Erörterung der Fälle sagte der Ausschuss, dass Meta bestätigt habe, vorübergehend die Schwellenwerte für automatisierte Werkzeuge zur Erkennung und Entfernung potenziell verletzender Inhalte gesenkt zu haben.

“Während das Risiko schädlicher Inhalte verringert wurde, erhöhte dies auch die Wahrscheinlichkeit eines versehentlichen Entfernens wertvollen, nicht verletzenden Inhalts von seinen Plattformen”, so der Aufsichtsrat, der hinzufügte, dass Meta laut Stand vom 11. Dezember die Schwellenwerte nicht auf das Niveau vor dem 7. Oktober wiederhergestellt hatte.

Meta, damals noch Facebook genannt, startete den Aufsichtsrat 2020 als Reaktion auf Kritik, dass das Unternehmen nicht schnell genug gegen Fehlinformationen, Hassreden und Einflusskampagnen auf seinen Plattformen vorgehe. Dem Ausschuss gehören 22 Mitglieder an, eine multinationale Gruppe, die Rechtsexperten, Menschenrechtler und Journalisten umfasst.

Die Entscheidungen des Ausschusses wie in diesen beiden Fällen sind verbindlich, seine weitergehenden politischen Feststellungen sind jedoch nur Empfehlungen, an die sich Meta nicht gebunden fühlt.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.