(SeaPRwire) – Das Zeitalter der KI hat auch das Zeitalter der Debatten über KI eingeläutet. Und Yuval Noah Harari, Autor von Sapiens und Homo Deus und einer unserer wichtigsten Denker in Bezug auf den großen Bogen der Menschheit, Geschichte und Zukunft, veröffentlicht jetzt
Harari gehört im Allgemeinen zur Kategorie der KI-Alarmisten, aber seine Gedanken führen die Diskussion über die üblichen Argumente hinaus. Das Buch ist ein Blick auf die Menschheitsgeschichte durch die Linse, wie wir Informationen sammeln und einsetzen. Für Harari ist dies essenziell, denn wie wir Informationen nutzen – und missbrauchen – ist entscheidend dafür, wie sich unsere Geschichte entfaltet hat und wie unsere Zukunft mit KI aussehen wird.
In dem, was Harari den „naiven Blick auf Informationen“ nennt, haben Menschen angenommen, dass mehr Informationen zwangsläufig zu größerem Verständnis und sogar Weisheit über die Welt führen würden. Aber das war natürlich nicht der Fall. „Wenn wir so klug sind, warum sind wir dann so selbstzerstörerisch?“, fragt Harari. Warum produzieren wir Dinge, die uns zerstören könnten, wenn wir sie nicht kontrollieren können?
Für Harari – um einen anderen zu paraphrasieren – liegt der Fehler, lieber Brutus, nicht in uns selbst, sondern in unseren Informationsnetzwerken. Schlechte Informationen führen zu schlechten Entscheidungen. So wie wir immer mehr süchtig machende Junk-Food konsumieren, konsumieren wir auch immer mehr süchtig machende Junk-Informationen.
Er argumentiert, dass das Problem mit der künstlichen Intelligenz darin besteht, dass „KI kein Werkzeug ist – sie ist ein Agent“. Und anders als andere Werkzeuge, die potenziell zerstörerisch sind, „kann KI selbst Informationen verarbeiten und so Menschen bei der Entscheidungsfindung ersetzen“. In gewisser Weise geschieht dies bereits. So wie Facebook in Myanmar war – die Algorithmen hatten „gelernt, dass Empörung Engagement erzeugt, und ohne expliziten Auftrag von oben beschlossen sie, Empörung zu fördern“.
Wo ich mich von Harari unterscheide, ist, dass er die menschliche Natur als im Wesentlichen festgelegt zu betrachten scheint und Algorithmen als unvermeidlich die menschlichen Schwächen und Vorurteile ausnutzen. Fairerweise schreibt Harari, dass „ich als Historiker an die Möglichkeit von Veränderungen glaube“, aber diese Möglichkeit von Veränderungen auf individueller Ebene wird in der Flut der Geschichte, die er behandelt, überschwemmt, mit einem Fokus sehr stark auf Systemen und Institutionen, anstatt auf den einzelnen Menschen, die diese Institutionen bilden.
Harari räumt ein, dass die Gefahren der KI „nicht auf die Bosheit von Computern, sondern auf unsere eigenen Mängel zurückzuführen sind“. Aber er ignoriert die Tatsache, dass wir nicht nur durch unsere Mängel definiert sind und unterschätzt die Fähigkeit des Menschen zur Weiterentwicklung. Aleksandr Solschenizyn, der mit Systemen nicht unbekannt war, die Netzwerke von Informationen böswillig nutzten, sah den ultimativen Kampf immer noch im Inneren jedes Menschen: „Die Linie, die Gut und Böse trennt“, sagte er, „führt nicht durch Staaten, noch zwischen Klassen, noch zwischen politischen Parteien – sondern direkt durch jedes menschliche Herz – und durch alle menschlichen Herzen.“
Also ja, KI und Algorithmen werden sicherlich weiterhin eingesetzt werden, um das Schlechteste in uns auszunutzen. Aber dieselbe Technologie kann auch genutzt werden, um das Beste in uns zu stärken, um die besseren Engel unserer Natur zu nähren. Harari selbst stellt fest, dass „neben Gier, Hybris und Grausamkeit Menschen auch zu Liebe, Mitgefühl, Demut und Freude fähig sind“. Aber warum dann annehmen, dass KI nur dazu dienen wird, unsere Laster auszunutzen und nicht unsere Tugenden zu stärken? Schließlich ist das Beste in uns zumindest genauso tief geprägt und verschlüsselt wie das Schlechteste in uns. Und dieser Code ist auch Open Source für Entwickler, auf dem sie aufbauen können.
Harari beklagt die „expliziten Befehle von oben“, die die Algorithmen lenken, aber KI kann sehr unterschiedliche Befehle von oben ermöglichen, die Wohlwollen und Zusammenarbeit fördern, anstatt Spaltung und Empörung. „Institutionen sterben ohne Selbstkorrekturmechanismen“, schreibt Harari. Und die Notwendigkeit, die „harte und eher langweilige Arbeit“ zu leisten, diese Selbstkorrekturmechanismen aufzubauen, ist das, was Harari als den wichtigsten Aspekt des Buches bezeichnet. Aber nicht nur Institutionen brauchen Selbstkorrekturmechanismen. Es sind auch die Menschen. Indem wir KI mit ihrer Fähigkeit zur Hyperpersonalisierung als Echtzeit-Coach nutzen, um das Beste in uns zu stärken, können wir auch unsere individuellen Selbstkorrekturmechanismen stärken und uns in eine bessere Position versetzen, diese Mechanismen für unsere Institutionen aufzubauen. „Das menschliche Leben ist ein Balanceakt zwischen dem Bemühen, uns selbst zu verbessern, und der Akzeptanz, wer wir sind“, schreibt er. KI kann uns helfen, das Gleichgewicht in Richtung des ersteren zu verschieben.
Harari bringt das Gleichnis von Platons Höhle, in der Menschen in einer Höhle gefangen sind und nur Schatten an einer Wand sehen, die sie für die Realität halten. Aber die Technologie, die KI vorausging, hat uns bereits in Platons Höhle gefangen gehalten. Wir sind bereits süchtig nach Bildschirmen. Wir sind bereits völlig polarisiert. Die Algorithmen leisten bereits gute Arbeit, um uns in einem ewigen Sturm der Empörung gefangen zu halten. Könnte KI nicht die Technologie sein, die uns tatsächlich aus Platons Höhle führt?
Wie Harari schreibt, ist „Technologie selten deterministisch“, was bedeutet, dass KI letztendlich das sein wird, was wir daraus machen. „Sie hat ein enormes positives Potenzial, die besten Gesundheitssysteme der Geschichte zu schaffen, um zur Lösung der Klimakrise beizutragen“, schreibt er, „und sie kann auch zum Aufstieg dystopischer totalitärer Regime und neuer Imperien führen.“
Natürlich wird es viele Unternehmen geben, die weiterhin Algorithmen verwenden, um uns zu spalten und unsere niederen Instinkte auszunutzen. Aber wir können auch weiterhin alternative Modelle schaffen, die unsere Menschlichkeit erweitern. Wie Harari schreibt: „Während Computer noch lange nicht ihr volles Potenzial ausgeschöpft haben, gilt dasselbe auch für den Menschen.“
Es war übrigens in einem Gespräch mit Jordan Klepper auf , dass Harari die wichtigste und hoffnungsvollste Zusammenfassung unserer derzeitigen Situation mit KI formulierte: „Wenn wir für jeden Dollar und jede Minute, die wir in die Entwicklung künstlicher Intelligenz investieren, auch in die Erforschung und Entwicklung unserer eigenen Köpfe investieren, wird es gut sein. Aber wenn wir all unsere Wetten auf Technologie, auf KI, setzen und es versäumen, uns selbst zu entwickeln, sind dies sehr schlechte Nachrichten für die Menschheit.“
Amen! Wenn wir erkennen, dass Menschen sich im Wandel befinden und wir uns alle auf einer Reise der Evolution befinden, können wir alle Werkzeuge, die uns zur Verfügung stehen, einschließlich KI, nutzen, um die bestmöglichen Versionen unserer selbst zu werden. Dies ist der kritische Punkt im Nexus von Menschlichkeit und Technologie, in dem wir uns befinden, und die Entscheidungen, die wir in den kommenden Jahren treffen, werden bestimmen, ob dies, wie Harari es ausdrückt, „ein terminaler Fehler oder der Beginn eines hoffnungsvollen neuen Kapitels in der Evolution des Lebens“ sein wird.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.