(SeaPRwire) – Wenn Menschen von “sozialer Manipulation” hören, denken sie normalerweise an die vermeintlichen bösartigen Pläne der Regierung oder einer gegnerischen politischen Partei. Heutzutage gibt es ein allgemeines Gefühl der sozialen Unruhe, das durch eine unsichtbare Kraft hervorgerufen wird, und wir sind ängstlich bemüht, jemanden dafür verantwortlich zu machen. Ich kann nicht umhin, zu fühlen, dass wir in gewisser Weise an Windmühlen herumkritteln, während die eigentliche Quelle der sozialen Manipulation in unseren Taschen, auf unserem Schoß und in einer Vielzahl von Geräten liegt und bald in hochrealistischen Sozialrobotern für das Zuhause.
Die Zukunft kommt uns heutzutage schnell. Im Oktober 2023 kündigte Boston Dynamics, das Robotikunternehmen, das fortschrittliche Roboter herstellt, die besser sind als manche Menschen, an, dass es ChatGPT in seinen hochfunktionellen, hundeförmigen Roboter Spot eingebaut hat. Spot, der viele Fähigkeiten besitzt, die für die digitale Instandhaltung von Güterwaggons entwickelt wurden, gehört nun zu den sozial interaktiven Robotern, die mit dem Internet verbunden und von Künstlicher Intelligenz angetrieben werden.
Dies wirft die Frage auf: Wie intelligent wollen wir, dass unsere Roboter sind? Natürlich wollen wir alle, dass Roboter eine Reihe von Funktionen ausführen, aber wollen wir tatsächlich die Menschen in unserem Leben durch intelligente Roboter und KI ersetzen?
Soziale Roboter sind die zweite Technologie nach sozialen Medien, die direkt auf unsere soziale Natur abzielt. Es sind sprachgesteuerte Roboter, die sprechen, zuhören, lernen wie ein Kind, sich alles merken, was man ihnen erzählt, und sich perfekt an Ihre Vorlieben und Wünsche anpassen können. Stellen Sie sich Alexa auf Steroiden vor – verkörpert, in der Lage, Emotionen zu lesen und darauf zu reagieren. Sie werden eine breite Palette von Haushaltsaufgaben übernehmen, unterrichten, unterhalten und angeblich auch uns lieben.
Da Spot, wie alle mit Generativer KI ausgestatteten Geräte, mit menschlich erzeugten Daten aus dem Internet trainiert wurde, kann er auf einen riesigen Fundus an Informationen zurückgreifen, sie in Kategorien einteilen und in der Regel kohärente Kommentare zu praktisch jedem Thema geben. Da er jedoch mit dem Internet verbunden ist, besteht auch eine gute Chance, dass sein kleiner Metallkopf voller Ungenauigkeiten und Falschinformationen sowie sexistischer und rassistischer Vorurteile ist. Nun ist Spot ein Soldat im Wettrüsten der KI, um Generative KI so schnell wie möglich in Roboter zu packen, Fehler und alles.
Soziale Roboter wollen uns nicht nur assistieren. Sie sind dafür konzipiert, uns zu überzeugen, dass sie uns lieben wollen und glauben, dass sie uns lieben. So lächerlich dies auch klingen mag, Studien haben gezeigt, dass Menschen aller Altersgruppen tiefe Bindungen zu interaktiven Robotern aufbauen können, dass unser Gehirn sehr leicht getäuscht wird zu glauben, sie seien zumindest etwas am Leben, und dass wir selbst dann noch von ihnen beeinflusst werden können, wenn sie Fehler machen. Diese Roboter werden speziell dafür entwickelt, Freunde, Lehrer, Kindermädchen, Therapeuten und ja, sogar Liebhaber zu sein. Sie lesen unsere Emotionen und Körpersprache und tun Emotionen vor. Sie ziehen uns durch vermeintliche “Persönlichkeiten” und dadurch an, dass sie vorgeben, sich um uns zu kümmern.
Diese Roboter können für einsame, isolierte Menschen ein Gottesgeschenk sein. Sie können unterhalten, lehren und Kinder überwachen und spezielle Programme anbieten, die Autisten grundlegende soziale Fähigkeiten beibringen. Sie können eine Form der kognitiven Verhaltenstherapie für Menschen mit häufigen psychischen Erkrankungen, Behinderte und Alte bieten und sind wahre Meister bei Multimedia-Funktionen wie Aufnehmen, Bearbeiten und Erstellen von Videos von denkwürdigen Ereignissen zu Hause oder aus Rohmaterial, das Sie ihnen zur Verfügung stellen.
Die ausgefeilten sind mit KI ausgestattet, so dass ihre Liste an Fähigkeiten umfangreich ist. Da sie mit dem Internet verbunden sind, können Sie ihnen praktisch alles fragen, und Sie werden wahrscheinlich eine Antwort erhalten. Aber diese Roboter können auch schlecht werden. Laut Wissenschaftlern des Massachusetts Institute of Technology können sie mit toxischem Web-Inhalt verseucht und möglicherweise sogar gehackt werden, um sie auf “verstörende” Weise sprechen und handeln zu lassen. Die Ausstattung dieser Roboter mit Generativer KI, wie Spot sie erhalten hat, bedeutet, dass sie die gleichen Einschränkungen und Fallstricke wie GAI-Technologie haben werden, die noch erhebliche Probleme in Bezug auf Genauigkeit, Halluzinationen und die Tatsache aufweist, dass sie weder die menschliche Sprache versteht noch in der Lage ist, Wahrheit von Falschheit zu unterscheiden.
Es könnte Jahre dauern, bis die Fehler in der Generativen KI behoben sind, bis sich Klagen (es gibt mehrere davon) ihren Weg durch die Gerichte bahnen, bis neue Urheberrechtsgesetze verabschiedet werden, um Autoren und Verlage vor dem Ausbeuten ihres Materials für Profit zu schützen, und bis die besten Anwendungen der GKI hervortreten. Aber jetzt, da Boston Dynamics Spot mit ChatGPT ausgestattet hat, können wir erwarten, dass andere danach streben, es in ihre Roboter zu packen, um von den Erwartungen zu profitieren, die es auslöst.
Wie auch im Fall sozialer Roboter, die unser Bedürfnis nach sozialer Verbundenheit als soziale Wesen ausnutzen, sind ethische Leitplanken für KI im Allgemeinen praktisch nicht vorhanden. Bislang haben sich die KI- und Robotikunternehmen auf ein Ehrensystem verlassen, was einer Kontrolle gleichkommt.
Wenn es eine übergeordnete Ideologie gibt, die diesen Sektor leitet, dann ist ihr derzeitiges Schlagwort die “Beschleunigung”. riesige Vorteile werden der Menschheit zuteil, so die Denkweise, nur dadurch, dass die Geschwindigkeit beschleunigt wird, mit der neue KI-Produkte entwickelt und in die Welt gebracht werden können. Dies ist für Menschen, die an den heldenhaften Erzählstrang von KI glauben, einige der unlösbarsten Probleme der Menschheit zu lösen – aber eine Quelle der Alarmierung für Untergangspropheten, die das Ende der Menschheit vorhersagen.
Als Technik-Optimist glaube ich, dass diese Technologien langfristig enorme Vorteile für die gesamte Gesellschaft bringen werden, aber wir alle müssen tief durchatmen und vielleicht für einen Moment den Fuß vom Gas nehmen, während Gesetze und Vorschriften mit der Wissenschaft Schritt halten. Algorithmen und KI werden sich weiter in fast jeden Winkel und Spalt unseres Lebens einschleichen. Je autonomer KI wird, desto schwieriger wird es sein, Probleme zu kontrollieren oder anzusprechen. Niemand will, dass der robotische Tutor seines Kindes durch Material verrückt wird, das es aus dem Dark Web aufgesaugt hat. Wenn KI schiefgeht, muss es Rechenschaftspflicht und Veränderung geben.
Während unsere Abwehrkräfte ständig durch den Komplex aus Verschwörungstheorien, Industrie und Informationsflut aufgewühlt werden, könnten wir in die falsche Richtung blicken, um unser weit verbreitetes Gefühl der heimlichen Kontrolle über unser Leben zu erklären. Von fehlerhaften Algorithmen beherrscht zu werden, ist bei weitem subtiler und könnte sogar gefährlicher sein als Herrschaft durch Diktatur.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.