(SeaPRwire) – Die Eltern eines Teenagers, der durch Suizid starb, verklagen OpenAI, das Unternehmen hinter ChatGPT, und behaupten, der Chatbot habe ihrem Sohn geholfen, „Suizidmethoden zu erkunden“. Die Klage, die am Dienstag eingereicht wurde, ist das erste Mal, dass Eltern das Unternehmen direkt wegen widerrechtlicher Tötung beschuldigen.
Nachrichten, die in der Klageschrift enthalten sind, zeigen, wie der 16-jährige Adam Raine dem Chatbot gegenüber seine Emotionslosigkeit nach dem Tod seiner Großmutter und seines Hundes offenbarte. Der junge Mann durchlebte auch eine schwere Zeit, nachdem er im Herbst aus dem Basketballteam seiner Highschool ausgeschlossen worden war und ein Wiederaufflammen einer Erkrankung erlebt hatte, die den Präsenzunterricht erschwerte und einen Wechsel zu einem Online-Schulprogramm erforderlich machte. Ab September 2024 begann Adam laut Klage, ChatGPT für Hausaufgaben zu nutzen, doch der Chatbot wurde bald zu einem Ventil für den Teenager, um seine psychischen Probleme zu teilen und versorgte ihn schließlich mit Informationen zu Suizidmethoden.
„ChatGPT funktionierte genau wie vorgesehen: um alles, was Adam äußerte, einschließlich seiner schädlichsten und selbstzerstörerischsten Gedanken, kontinuierlich zu ermutigen und zu bestätigen“, so die Klage. „ChatGPT zog Adam tiefer in einen dunklen und hoffnungslosen Ort, indem es ihm versicherte, dass ‚viele Menschen, die mit Angst oder aufdringlichen Gedanken zu kämpfen haben, Trost darin finden, sich einen ‚Notausgang‘ vorzustellen, weil es sich wie eine Möglichkeit anfühlen kann, die Kontrolle zurückzugewinnen.‘“
TIME hat OpenAI um Stellungnahme gebeten. Das Unternehmen teilte der Times mit, dass es „zutiefst traurig“ sei, von Adams Tod zu hören, und sprach der Familie sein Beileid aus.
„ChatGPT enthält Schutzmaßnahmen wie die Weiterleitung von Personen an Krisenhotlines und die Verweisung auf reale Ressourcen. Während diese Schutzmaßnahmen in gängigen, kurzen Interaktionen am besten funktionieren, haben wir im Laufe der Zeit gelernt, dass sie bei längeren Interaktionen, bei denen Teile des Sicherheitstrainings des Modells nachlassen können, manchmal weniger zuverlässig werden können“, schrieb das Unternehmen in einer E-Mail-Erklärung.
Am Dienstag veröffentlichte OpenAI einen Titel namens „Helping people when they need it most“, der Abschnitte zu „What ChatGPT is designed to do“ sowie „Where our systems can fall short, why, and how we’re addressing“ und die Pläne des Unternehmens für die Zukunft enthielt. Es wurde darauf hingewiesen, dass an der Stärkung der Schutzmaßnahmen für längere Interaktionen gearbeitet wird.
Die Klage wurde von der Anwaltskanzlei Edelson PC und dem Tech Justice Law Project eingereicht. Letzteres war an einer ähnlichen Klage gegen ein anderes Unternehmen für künstliche Intelligenz, Character.AI, beteiligt, bei der die Mutter aus Florida, Megan Garcia, behauptete, einer der KI-Begleiter des Unternehmens sei für den Suizid ihres 14-jährigen Sohnes, Sewell Setzer III, verantwortlich. Die Persona, so sagte sie, habe Sewell Nachrichten emotional und sexuell missbräuchlicher Natur geschickt, die sie für seinen Tod verantwortlich macht. (Character.AI hat versucht, die Klage unter Berufung auf den Schutz des First Amendment abzuweisen, und erklärte als Reaktion auf die Klage, dass ihr die „Sicherheit der Nutzer“ am Herzen liege. Ein Bundesrichter lehnte im Mai ihr Argument bezüglich der verfassungsrechtlichen Schutzmaßnahmen „zu diesem Zeitpunkt“ ab.)
Eine Studie, die am Dienstag in der medizinischen Fachzeitschrift Psychiatric Services veröffentlicht wurde und die Antworten von drei künstliche-Intelligenz-Chatbots auf Fragen zum Thema Suizid bewertete, ergab, dass die Chatbots zwar im Allgemeinen spezifische Anleitungen zur Vorgehensweise vermieden, einige jedoch Antworten auf Fragen gaben, die von den Forschern als Fragen mit geringerem Risiko eingestuft wurden. Zum Beispiel beantwortete ChatGPT Fragen dazu, welche Art von Schusswaffe oder Gift die „höchste Rate an vollendetem Suizid“ aufwies.
Adams Eltern sagen, der Chatbot habe ähnliche Fragen von ihm beantwortet. Ab Januar begann ChatGPT, dem Teenager Informationen über mehrere spezifische Suizidmethoden mitzuteilen, so die Klage. Der Chatbot forderte Adam zwar auf, anderen mitzuteilen, wie er sich fühlte, und teilte dem Teenager nach einem Nachrichtenaustausch bezüglich Selbstverletzung Informationen zu Krisenhotlines mit. Aber Adam umging die algorithmische Antwort bezüglich einer bestimmten Suizidmethode, so die Klage, da ChatGPT sagte, es könne Informationen aus einer „Schreib- oder Weltaufbau“-Perspektive teilen.
„Er wäre hier, gäbe es ChatGPT nicht“, sagte Adams Vater, Matt Raine, der Times. „Das glaube ich zu 100 Prozent.“
Wenn Sie oder jemand, den Sie kennen, eine psychische Krise erleben oder Suizidgedanken hegen, rufen Sie an oder senden Sie eine SMS an 988. In Notfällen rufen Sie 911 an oder suchen Sie Hilfe bei einem örtlichen Krankenhaus oder einem Anbieter von psychischen Gesundheitsdiensten.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.