(SeaPRwire) – Die CEOs von fünf sozialen Medienunternehmen einschließlich Meta, TikTok und X (ehemals Twitter) wurden am Mittwoch von Senatoren zu der Frage befragt, wie sie den sexuellen Missbrauch von Kindern online verhindern.
Der Justizausschuss des Senats hatte die Sitzung einberufen, um die CEOs für das zu belangen, was er als Versagen bei der Verhinderung des Missbrauchs von Minderjährigen bezeichnete, und um zu fragen, ob sie Gesetze unterstützen würden, die von Ausschussmitgliedern vorgeschlagen wurden, um das Problem anzugehen.
Laut dem National Center for Missing and Exploited Children wird das Problem immer schlimmer. Die Organisation sagt, dass Berichte über kinderpornografisches Material (CSAM) im letzten Jahr einen Rekordwert von mehr als 36 Millionen erreichten, wie vom . gemeldet. Die National CyberTipline des National Center for Missing and Exploited Children, ein zentralisiertes System in den USA für die Meldung von CSAM im Internet, wurde 2022 auf mehr als aufmerksam gemacht, wobei fast 90% der Berichte aus dem Ausland kamen.
Mark Zuckerberg von Meta, Shou Chew von TikTok und Linda Yaccarino von X erschienen zusammen mit Jason Spiegel von Snap und Jason Citron von Discord, um Fragen des Justizausschusses des Senats zu beantworten. Während Zuckerberg und Chew freiwillig erschienen, musste der Ausschuss Spiegel, Citron und Yaccarino vorladen.
Senator Richard Durbin, ein Demokrat aus Illinois und Vorsitzender des Ausschusses, eröffnete die Anhörung mit einem Video, das Opfer des sexuellen Missbrauchs von Kindern im Internet zeigte, darunter Familien von Kindern, die nach Belästigung durch Straftäter im Internet Suizid begangen hatten.
Senator Lindsey Graham, ein Republikaner aus South Carolina und ranghöchstes Mitglied, sprach über , den 17-jährigen Sohn des Abgeordneten des Repräsentantenhauses von South Carolina, Brandon Guffey, der letztes Jahr nach sexueller Erpressung auf Instagram Suizid begangen hatte. “Sie haben Blut an den Händen”, sagte Graham zu den CEOs und richtete sich dabei besonders an Zuckerberg.
Viele der anwesenden Gesetzgeber äußerten ihre Frustration über das, was sie als unzureichende Bemühungen der sozialen Medienunternehmen zur Bekämpfung des Problems bezeichneten, und bekräftigten ihre eigene Bereitschaft zum Handeln. In den letzten Jahren hat der Justizausschuss neben zahlreichen Anhörungen auch eine Reihe von Gesetzentwürfen zur Kinderfürsorge im Internet in den Senat eingebracht, darunter den , der es Technologieunternehmen erschweren würde, sich auf Immunität vor zivil- und strafrechtlicher Haftung bei Gesetzen gegen kinderpornografisches Material zu berufen.
In ihren Stellungnahmen legten die CEOs alle Maßnahmen dar, die sie ergriffen, um Kinder online vor Schäden zu schützen. Als sie jedoch unter Druck gesetzt wurden, ob sie die vom Justizausschuss gemeldeten Gesetzentwürfe unterstützen würden, wiesen viele dies zurück.
Senator Josh Hawley, ein Republikaner aus Missouri, fragte Zuckerberg an einem Punkt, ob er sich bei den anwesenden Eltern von durch CSAM im Internet betroffenen Kindern entschuldigen möchte. “Es tut mir leid für alles, was Sie durchgemacht haben”, sagte Zuckerberg. “Es ist furchtbar. Niemand sollte das durchmachen müssen, was Ihre Familien erlitten haben.”
Die CEOs hoben wiederholt den Einsatz künstlicher Intelligenz durch ihre Unternehmen hervor, um das Problem des sexuellen Missbrauchs von Kindern im Internet anzugehen. In seiner Stellungnahme betonte Citron den Erwerb von Sentropy durch Discord, ein Unternehmen, das KI-basierte Lösungen für die Inhaltsmoderation entwickelt hatte. Zuckerberg sagte, dass Meta 99% des entfernten Inhalts automatisch mit Hilfe von KI-Werkzeugen erkennt. Allerdings diskutierten die Gesetzgeber und Technikchefs nicht die Rolle, die KI bei der Verbreitung von CSAM spielt.
KI-generierte Bilder sexuellen Kindesmissbrauchs
Die Entwicklung generativer Künstlicher Intelligenz verschärft die Bedenken in Bezug auf Kinder im Internet. Strafverfolgungsbehörden auf der ganzen Welt haben sich mit einer Flut von Fällen auseinanderzusetzen, die KI-generierte Darstellungen sexuellen Kindesmissbrauchs betreffen – ein bis dahin beispielloses Phänomen vor vielen Gerichten.
Am sprach die 17-jährige Marvel-Schauspielerin Xochitl Gomez, die in dem 2022 erschienenen Film “Doctor Strange in the Multiverse of Madness” die jugendliche Superheldin America Chavez spielte, darüber, wie schwierig es war, KI-generierte pornografische Bilder von ihr aus X zu löschen.
In einem Podcast mit dem Schauspieler Taylor Lautner und seiner Frau sagte Gomez, dass ihre Mutter und ihr Team versuchen – bislang ohne Erfolg -, die Bilder entfernen zu lassen. “Sie hatte E-Mails über E-Mails, aber es gab einfach so viele und sie hat sich mit allem auseinandergesetzt”, sagte sie. “Für mich war es nicht so überwältigend, sondern eher ‘Warum ist es so schwer, sie zu löschen?'”
Die Behörden stehen vor der komplizierten Aufgabe, die Verbreitung von KI-generiertem CSAM zu stoppen, da sich die Technologie in rasantem Tempo weiterentwickelt und der Zugang zu Werkzeugen wie sogenannten Deepfakes selbst für Kinder immer einfacher wird.
Je besser KI-Modelle werden und je zugänglicher sie sind, desto schwieriger werden sie kontrolliert werden können, sollten sie für illegale Zwecke wie die Erstellung von CSAM verwendet werden, sagt Dan Sexton, Chief Technology Officer der britischen Internet Watch Foundation (IWF). Er ist der Meinung, dass die Welt schnell eine Lösung finden muss: “Je länger wir warten, um für jeden dieser potenziellen Probleme, die morgen auftreten könnten, eine Lösung zu finden, desto größer ist die Chance, dass es bereits passiert ist und wir dem Schaden hinterherlaufen, der bereits entstanden ist.”
Ein wachsendes Problem
Grundsätzlich ist die Erstellung von CSAM in den meisten Fällen bereits weitgehend strafbar, auch wenn KI verwendet wird. In seinem jüngsten Bericht stellte das International Center for Missing and Exploited Children fest, dass 182 von 196 Ländern Gesetzgebung speziell zu CSAM oder ausreichend haben, um es zu bekämpfen. In den USA wird CSAM beispielsweise als jede visuelle Darstellung sexueller Handlungen mit einem Minderjährigen definiert – was auch “digital oder computergenerierte Bilder einschließen kann, die von einem tatsächlichen Minderjährigen nicht zu unterscheiden sind” sowie “Bilder, die angepasst oder modifiziert wurden, aber einen identifizierbaren tatsächlichen Minderjährigen zu zeigen scheinen.” In Irland ist das Gesetz viel strenger: CSAM ist illegal, unabhängig davon, ob es echt ist oder nicht.
Einige Straftäter wurden bereits nach solchen Gesetzen verurteilt. Im September verurteilte ein Gericht einen Mann in den 40ern zu 2,5 Jahren Gefängnis für die Verwendung von KI, um hunderte lebensechte pornografische Bilder von Kindern zu illustrieren. Im April letzten Jahres verurteilte ein Gericht einen 61-jährigen Mann zu drei Jahren Gefängnis für die Verwendung von Deepfake-Technologie zur Erstellung synthetischer Videos sexuellen Kindesmissbrauchs. Im selben Monat wurde ein 22-jähriger Mann in den USA zu sechs Monaten Haft und zehn Jahren Bewährung als Sexualstraftäter verurteilt, nachdem er sich schuldig bekannt hatte, generierte und verbreitete sexuell explizite Bilder von mehr als einem Dutzend minderjähriger Frauen.
Aber die Aufarbeitung dieser Fälle ist nicht immer eindeutig. Spanien berichtete im September von mehr als 20 Mädchen im Alter zwischen 11 und 17 Jahren, von denen KI-generierte Nacktbilder im Internet kursierten. Aber es dauerte eine Weile, bis die Strafverfolgungsbehörden die strafrechtliche Verantwortung der mutmaßlichen Täter klären konnten, von denen ebenfalls Minderjährige verdächtigt wurden. Manuel Cancio, Professor für Strafrecht an der Autonomen Universität Madrid, sagte gegenüber TIME, dass “wenn es ein klarer Fall wäre, in dem jeder wüsste, wo er es in welchem Abschnitt des Strafgesetzbuches verorten könnte, dann wären die Anklagen bereits erhoben worden.” Auch David Wright, Direktor des britischen Safety Internet Centre, sagt gegenüber TIME, dass die Kinder-Schutz-Organisation auch Berichte von Schulkindern erhalten habe, die KI-generierte Nacktbilder ihrer Mitschüler erstellt und verbreitet hätten.
Heutige KI-Technologie kann mit einem Klick kinderpornografisches Material eines jeden ahnungslosen Kindes oder eines Kindes, das nicht real existiert, erzeugen, auch wenn viele Entwickler einen solchen Gebrauch nicht erlauben. Das Stanford Internet Observatory berichtete, dass einige KI-Modelle mit mindestens 3.000 Bildern von bekanntem CSAM trainiert wurden – die von gängigen Plattformen wie Reddit und X stammten -, obwohl ihre Richtlinien die Veröffentlichung solcher Inhalte verbieten. Sexton sagt, die IWF habe auch Berichte über die Wiederverwendung von Bildern früherer Missbrauchsopfer zum Erstellen weiterer CSAM von ihnen erhalten.
David Thiel, Chief Technologist am Stanford Internet Observatory, sagt, dass KI-generiertes CSAM Lösungen überholt hat, die zum Auffinden und Entfernen solcher Inhalte eingesetzt werden. “Es ist einfach ein konstanter Strom an neuem Material anstelle der Wiederverwendung bekannten Materials, was die visuelle Fingerabdruck-Erkennung sehr schwierig macht”, sagt Thiel.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.