Eine neue gemeinnützige Organisation bemüht sich, das Problem des AI-Urheberrechts zu lösen

(SeaPRwire) –   Ed Newton-Rex gab öffentlich seinen Rücktritt von seinem Führungsposten in einem führenden Unternehmen für KI im letzten Jahr bekannt, nach einer Meinungsverschiedenheit mit seinen Chefs über ihren Ansatz zum Urheberrecht.

“Stability AI”, die Hersteller des populären KI-Bilderzeugungsmodells “Stable Diffusion”, hatten das Modell trainiert, indem sie es mit Millionen von Bildern fütterten, die ohne die Zustimmung ihrer Schöpfer aus dem Internet “gescrapt” wurden. Wie viele andere führende Unternehmen für KI argumentierte Stability, dass diese Technik das Urheberrecht nicht verletze, da es eine Form des “fair use” von urheberrechtlich geschütztem Werk darstelle.

Newton-Rex, der Leiter des Audio-Teams von Stability, stimmte dem nicht zu. “Unternehmen im Wert von Milliarden Dollar trainieren ohne Erlaubnis generative KI-Modelle auf die Werke von Schöpfern, die dann zur Erzeugung neuer Inhalte verwendet werden, die in vielen Fällen mit den Originalwerken konkurrieren können. Ich sehe nicht, wie dies in einer Gesellschaft akzeptabel sein kann, in der die Wirtschaft der kreativen Künste so aufgesetzt ist, dass Schöpfer auf das Urheberrecht angewiesen sind”, schrieb er im November in einer Erklärung auf X, der früheren Plattform Twitter, in der er seinen Rücktritt bekannt gab.

Es war einer der ersten Angriffe in einer Schlacht, die nun um den Gebrauch von urheberrechtlich geschütztem Werk zum Training von KI-Systemen tobt. Im Dezember verklagte die New York Times OpenAI vor einem Gericht in Manhattan und warf dem Unternehmen vor, illegal Millionen von Artikeln der Zeitung verwendet zu haben, um KI-Systeme zu trainieren, die mit der Times als zuverlässige Informationsquelle konkurrieren sollen. Unterdessen verklagten die Komikerin Sarah Silverman und andere Autoren im Juli 2023 OpenAI und Meta und warfen den Unternehmen vor, ihre Texte ohne ihre Erlaubnis zum Training von KI-Modellen verwendet zu haben. Früher im selben Jahr verklagten die Künstler Sarah Andersen, Karla Orti und andere Midjourney, Stability AI und DeviantArt, die Bilderzeugende KI-Modelle entwickeln, und warfen den Unternehmen vor, ihre Modelle ohne ihre Zustimmung auf den Werken der Künstler trainiert zu haben. Einige bildende Künstler wehren sich auch, indem sie “Data Poisoning”-Dienste nutzen, die Unternehmen anbieten, KI-Modelle zu “vergiften”, die ohne Einwilligung auf ihren Werken trainiert wurden, sodass diese auf unvorhersehbare Weise fehleranfällig werden oder dem Versuch widerstehen, ihren künstlerischen Stil zu kopieren.

OpenAI hat gesagt, man glaube, die Klage der New York Times sei “ohne Grundlage”, und obwohl man glaube, dass das Training mit von Internetseiten “gescrapten” Daten legal sei, biete man Verlagen die Möglichkeit, Daten nicht zu verwenden, “weil es das Richtige ist.” Stability AI reagierte zunächst nicht auf eine Anfrage nach Stellungnahme.

Am 17. Januar kündigte Newton-Rex eine neue Art von Bemühung an, um KI-Unternehmen dazu zu bewegen, Schöpfer zu respektieren. Er startete eine gemeinnützige Organisation mit dem Namen “Fairly Trained”, die KI-Unternehmen eine Zertifizierung anbietet, wenn sie ihre Modelle nur mit Daten trainieren, deren Schöpfer zugestimmt haben. Indem er Unternehmen mit besseren Praktiken beim Bezug ihrer Trainingsdaten hervorhebt, hofft er, die gesamte Branche dazu zu bewegen, Schöpfer fairer zu behandeln. “Es gibt in dieser Branche wirklich eine ethische Seite, und der Zweck dieser Zertifizierung ist es, genau das hervorzuheben”, sagt Newton-Rex gegenüber TIME.

Zum Zeitpunkt des Starts wurden neun Modelle von Fairly Trained zertifiziert – viele davon von Unternehmen aus dem Bereich der Musikgenerierung. Dazu gehören Modelle von Anthropic, einem “Sound Wellness”-Unternehmen, das mit Künstlern wie Grimes und James Blake zusammengearbeitet hat. Die Zertifizierung bedeutet, dass die Unternehmen die Daten, auf denen ihre Modelle trainiert wurden, legal lizenziert haben, anstatt einfach Anspruch auf “fair use” zu erheben.

Neben seiner Arbeit an KI ist Newton-Rex auch klassischer Komponist, der Chormusik schreibt. Er sagt, seine künstlerische Praxis habe ihn dazu motiviert, für Schöpfer einzutreten. “Dies war immer ein Thema, das mir sehr am Herzen lag, und ich bin sicher, dass dies zum großen Teil daher rührt, dass ich selbst Musiker bin”, sagt er. “Man versteht erst wirklich, wie es sich für einen Schöpfer anfühlt, bis man den Prozess durchlaufen hat, seine Arbeit in etwas zu stecken und zu sehen, wie es in die Welt hinausgeht.” Die Verärgerung darüber, nur lächerliche Tantiemen für seine Kunst zu sehen, während KI-Unternehmen Milliardenumsätze erwirtschaften, glaubt er, sei unter Künstlern aller Genres verbreitet. “Ich habe riesige Mengen Arbeit in dies gesteckt und das ist das, was ich zurückbekomme. Will ich, dass [meine Arbeit] ohne weitere Bezahlung von einem Unternehmen verwendet wird, um ihre eigenen Modelle aufzubauen, von denen sie profitieren?”

“Viele Schöpfer, ich eingeschlossen, würden Nein dazu sagen. Aber wenn es die Chance gibt, zuzustimmen und über Bedingungen zu sprechen und letztendlich Geld zu verdienen – das könnte wirklich eine gute Sache sein.”

Fairly Trained verlangt von Unternehmen, die eine Zertifizierung anstreben, nicht, ihre Datensätze zur Überprüfung offenzulegen. Stattdessen werden die Unternehmen gebeten, schriftliche Einreichungen vorzulegen, in denen sie darlegen, was ihre Datensätze enthalten und woher die Daten stammen, welche Sorgfaltspflichtprozesse sie haben und ob sie gute Dokumentation führen, so Newton-Rex. “Es gibt natürlich ein Element des Vertrauens”, sagt er. “Es muss darüber gesprochen werden, ob mehr nötig ist. Aber mein Gefühl sagt, dass zumindest am Anfang ein vertrauensbasiertes System funktioniert. Und Unternehmen werden davon abgehalten, ungenaue Angaben zu machen, insbesondere da dies zu einer Entzertifizierung führen könnte.” Die meisten Unternehmen, die den “fair use”-Anspruch erheben, seien “sehr aufrichtig” in ihrer Ansicht, dass sie rechtlich dazu berechtigt seien, diese Strategie zu verfolgen.

Dennoch ist der Ansatz, sich auf die Angaben der Unternehmen über Inhalt und Herkunft ihrer Datensätze zu verlassen, offensichtlich anfällig für Schlupflöcher. “Wir müssen die Datensätze tatsächlich selbst sehen, um überprüfen zu können, ob sie weiterhin problematische Inhalte enthalten”, sagt , ein Wissenschaftler, der sich mit dem Inhalt großer Datensätze beschäftigt, die zur Modelltrainierung von KI verwendet werden. “Es ist wirklich schwierig zu sagen, ob es ausreicht oder nicht, ohne die Datensätze selbst zu sehen.”

Die meisten großen KI-Unternehmen, darunter OpenAI, Google DeepMind, Meta und Anthropic, geben den Inhalt oder auch nur viele Details über die Datensätze nicht preis, die zur Trainierung ihrer größten Modelle verwendet wurden. Dies war oft ein Hindernis für Schöpfer, die herausfinden wollten, ob ihre Daten ohne ihre Zustimmung zur Modelltrainierung verwendet wurden.

OpenAI hat Vereinbarungen mit einigen Nachrichtenorganisationen wie der Associated Press und Axel Springer geschlossen, um Nachrichtenartikel zur Verwendung als Trainingsdaten zu lizenzieren. Es führt derzeit weitere Gespräche mit mehreren anderen, darunter CNN, Fox und TIME.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.