(SeaPRwire) – In den 1990er und frühen 2000er Jahren versprachen Technologieexperten der Welt Großartiges: neue Kommunikationstechnologien würden die Demokratie stärken, Autoritarismus untergraben und zu einer neuen Ära des menschlichen Wohlergehens führen. Aber heute sind sich nur wenige einig, dass das Internet dieses hehre Ziel erreicht hat.
Heute werden Inhalte auf Social-Media-Plattformen in der Regel danach eingestuft, wie viel Interaktion sie erhalten. In den letzten zwei Jahrzehnten wurden Politik, Medien und Kultur neu gestaltet, um einen einzigen, übergeordneten Anreiz zu erfüllen: Beiträge, die eine emotionale Reaktion hervorrufen, steigen oft an die Spitze.
Bemühungen, den Zustand des Online-Raums zu verbessern, konzentrierten sich lange Zeit auf die Moderation von Inhalten, die Praxis des Erkennens und Entfernens von schlechten Inhalten. Technologieunternehmen stellten Mitarbeiter ein und entwickelten eine KI, um Hassreden, Aufrufe zur Gewalt und Belästigung zu erkennen. Das funktionierte unvollkommen, aber es hinderte die schlimmsten Giftigkeiten daran, unsere Feeds zu überfluten.
Es gab ein Problem: Während diese KIs halfen, das Schlechte zu entfernen, hoben sie nichts Gutes hervor. „Sehen Sie ein funktionierendes Internet, in dem wir gesunde oder produktive Gespräche führen?“, fragt Yasmin Green, CEO von s Abteilung , die 2010 mit dem Auftrag gegründet wurde, Bedrohungen für offene Gesellschaften zu bekämpfen. „Nein. Sie sehen ein Internet, das sich immer weiter auseinander entwickelt.“
Was wäre, wenn es einen anderen Weg gäbe?
glaubt, einen gefunden zu haben. Am Montag stellte die -Tochter neue KI-Tools vor, sogenannte Klassifizierer, die Beiträge anhand der Wahrscheinlichkeit bewerten können, dass sie gute Inhalte enthalten: Ist ein Beitrag differenziert? Enthält er evidenzbasierte Argumentation? Teilt er eine persönliche Geschichte oder fördert er menschliches Mitgefühl? Durch die Rückgabe einer numerischen Punktzahl (von 0 bis 1), die die Wahrscheinlichkeit darstellt, dass ein Beitrag jede dieser Tugenden und andere enthält, könnten diese neuen KI-Tools es den Designern von Online-Räumen ermöglichen, Beiträge auf eine neue Weise einzustufen. Anstatt dass Beiträge mit den meisten Likes oder Kommentaren ganz oben stehen, könnten Plattformen – in dem Bemühen, eine bessere Community zu fördern – die differenziertesten oder mitfühlendsten Kommentare an erste Stelle setzen.
Der Durchbruch wurde durch die jüngsten Fortschritte bei großen Sprachmodellen (LLMs) ermöglicht, der Art von KI, die Chatbots wie zugrunde liegt. In der Vergangenheit erforderte selbst das Training einer KI zum Erkennen einfacher Formen von Toxizität, etwa ob ein Beitrag rassistisch ist, Millionen von markierten Beispielen. Diese älteren Formen von KI waren oft brüchig und wirkungslos, geschweige denn teuer in der Entwicklung. Die neue Generation von LLMs kann jedoch selbst komplexe sprachliche Konzepte von Haus aus identifizieren, und es ist viel billiger, sie für die Ausführung bestimmter Aufgaben zu kalibrieren, als es früher der Fall war. Die neuen Klassifizierer von können „Attribute“ identifizieren, wie z. B. ob ein Beitrag eine persönliche Geschichte, Neugier, Nuance, Mitgefühl, Argumentation, Affinität oder Respekt enthält. „Es wird jetzt möglich, über so etwas wie die Entwicklung eines Klassifikators für Mitgefühl, Neugier oder Nuancen zu sprechen“, sagt Jonathan Stray, leitender Wissenschaftler am for . „Diese verschwommenen, kontextbezogenen, ich-weiß-es-wenn-ich-es-sehe-Konzepte – wir werden viel besser darin, diese zu erkennen.“
Diese neue Fähigkeit könnte ein Wendepunkt für das Internet sein. Green und ein wachsender Chor von Akademikern, die die Auswirkungen von Social Media auf den öffentlichen Diskurs untersuchen, argumentieren, dass Content-Moderation „notwendig, aber nicht ausreichend“ sei, um das Internet zu einem besseren Ort zu machen. Einen Weg zu finden, positive Inhalte zu fördern, könne sowohl auf persönlicher Ebene – unsere Beziehungen untereinander – als auch auf gesellschaftlicher Ebene positive Kaskadeeffekte haben. „Wenn man die Art und Weise ändert, wie Inhalte eingestuft werden, kann man möglicherweise die Medienökonomie des gesamten Systems verändern, wenn man dies in ausreichendem Umfang tut“, sagt Stray, der nicht am -Projekt gearbeitet hat. „Wenn genügend der algorithmischen Vertriebskanäle spaltende Rhetorik ablehnten, würde es sich einfach nicht mehr lohnen, sie zu produzieren.“
Eines Morgens Ende März nimmt Tin Acosta an einem Videoanruf aus den Büros von in New York City teil. An der Konferenzraumwand hinter ihr hängt ein großes Foto von der Rosenrevolution 2003 in Georgien, als friedliche Demonstranten die sowjetische Regierung des Landes stürzten. Andere Räume haben ähnliche Fotos von Menschen aus Syrien, dem Iran, Kuba und Nordkorea, „die Technologie und ihre Stimmen nutzten, um ihre Freiheit zu sichern“, sagt mir der Presseverantwortliche von , der sich ebenfalls im Raum befindet. Die Fotos sollen an die Mission von erinnern, Technologie als Kraft für das Gute zu nutzen, und an seine Pflicht, Menschen sowohl in Demokratien als auch in repressiven Gesellschaften zu dienen.
Auf ihrem Laptop startet Acosta eine Demonstration der neuen Klassifikatoren von . Mithilfe einer Datenbank mit 380 Kommentaren aus einem aktuellen -Thread demonstriert die leitende Produktmanagerin von , wie die Einstufung der Beiträge unter Verwendung verschiedener Klassifikatoren die Art der Kommentare verändern würde, die an die Spitze steigen. Der ursprüngliche Poster des Threads hatte um lebensbejahende Filmempfehlungen gebeten. Sortiert nach der Standardbewertung auf – Beiträge mit den meisten Upvotes – sind die wichtigsten Kommentare kurz und enthalten kaum mehr als die Titel beliebter Filme. Dann klickt Acosta auf ein Dropdown-Menü und wählt den Argumentationsklassifikator von aus. Die Beiträge werden neu gemischt. Jetzt sind die Top-Kommentare detaillierter. „Man sieht, dass die Leute sehr nachdenklich über ihre Antworten sind“, sagt Acosta. „Hier ist jemand, der über School of Rock spricht – nicht nur über den Inhalt der Handlung, sondern auch darüber, wie der Film sein Leben verändert und ihn dazu gebracht hat, sich in Musik zu verlieben.“ (TIME hat zugestimmt, nicht direkt aus den Kommentaren zu zitieren, die laut nur zu Demonstrationszwecken verwendet wurden und nicht zum Trainieren seiner KI-Modelle verwendet wurden.)
Acosta wählt einen anderen Klassifikator, einen ihrer Favoriten: ob ein Beitrag eine persönliche Geschichte enthält. Der oberste Kommentar stammt jetzt von einem Nutzer, der beschreibt, wie er unter einer dicken Decke und unter Drogeneinfluss so hässlich bei der Monolog von Ke Huy Quan in Everything Everywhere All at Once geweint hatte, dass er den Film mehrmals anhalten musste. Ein anderer Top-Kommentar beschreibt, wie ein Filmtrailer ihn dazu inspiriert hatte, einen Job zu kündigen, mit dem er unzufrieden war. Ein anderer erzählt die Geschichte, wie ein Film ihn an seine Schwester erinnert hat, die vor 10 Jahren gestorben war. „Das ist eine wirklich großartige Möglichkeit, ein Gespräch zu durchschauen und es ein wenig besser zu verstehen als [durch Einstufung nach] Engagement oder Aktualität“, sagt Acosta.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.
Damit die Klassifikatoren einen Einfluss auf das Internet im Allgemeinen haben können, müssten die größten Technologieunternehmen mitmachen, die sich alle in einem Nullsummenspiel um unsere Aufmerksamkeit befinden. Obwohl sie in entwickelt wurden, hat der Technologieriese nicht vor, sie bei der Einstufung seiner -Kommentare einzusetzen, sagt Green. Stattdessen stellt die Tools unabhängigen Entwicklern kostenlos zur Verfügung, in der Hoffnung, dass kleinere Online-Räume wie Message Boards und Zeitungs-Kommentarbereiche eine Beweisgrundlage dafür schaffen, dass die neuen Formen der Rangordnung bei den Nutzern beliebt sind.
Es gibt einige Gründe für Skepsis. Trotz all seiner Mängel ist die Rangordnung nach Engagement egalitär. Beliebte Beiträge werden unabhängig von ihrem Inhalt verstärkt, und auf diese Weise haben Social Media marginalisierten Gruppen eine Stimme gegeben, die ihnen von traditionellen Medien lange verwehrt wurde. Die Einführung von KI in die Mischung könnte diesen Zustand gefährden. Umfangreiche Forschungsarbeiten zeigen, dass LLMs viele tief verwurzelte Verzerrungen aufweisen; wenn sie zu hastig angewendet werden, könnten die Klassifikatoren von am Ende Stimmen verstärken, die bereits online prominent sind, was diejenigen, die es nicht sind, weiter marginalisiert. Die Klassifikatoren könnten auch das Problem der Flutung des Internets mit KI-generierten Inhalten verschärfen, indem sie Spammern ein einfaches Rezept für KI-generierte Inhalte liefern, die wahrscheinlich verstärkt werden. Selbst wenn diese Probleme vermeidet, ist die Manipulation von Online-Sprache zu einem politischen Minenfeld geworden. Sowohl Konservative als auch Liberale sind davon überzeugt, dass ihre Beiträge zensiert werden; währenddessen stehen Technologieunternehmen wegen unberechenbarer Entscheidungen, die sich auf den globalen öffentlichen Raum auswirken, in der Kritik. argumentiert, dass seine neuen Tools es Technologieplattformen ermöglichen