(SeaPRwire) – Im Jahr 1960 sagte Herbert Simon, der später sowohl den Nobelpreis für Wirtschaftswissenschaften als auch den Turing-Preis für Informatik gewann, in seinem Buch “The New Science of Management Decision”, dass “Maschinen in 20 Jahren in der Lage sein werden, jede Arbeit zu verrichten, die ein Mensch verrichten kann.”
Die Geschichte ist voll von übermütigen technologischen Vorhersagen, die sich nicht verwirklicht haben. Innerhalb des Bereichs der Künstlichen Intelligenz waren die frechsten Vorhersagen die über das Eintreffen von Systemen, die jede Aufgabe eines Menschen ausführen können, oft als Allgemeine Künstliche Intelligenz (AGI) bezeichnet.
Als Shane Legg, Mitbegründer und Chief AGI Scientist von Google DeepMind, sagte, dass es eine 50-prozentige Chance gibt, dass AGI bis 2028 entwickelt wird, könnte man versucht sein, ihn als einen weiteren KI-Pionier abzutun, der die Lektionen der Geschichte nicht gelernt hat.
Dennoch schreitet KI sicherlich schnell voran. GPT-3.5, das Sprachmodell, das OpenAIs ChatGPT antreibt, wurde 2022 entwickelt und erzielte 213 von 400 Punkten auf dem Uniformen Bar Examen, dem standardisierten Test, den angehende Anwälte bestehen müssen, was es unter die schlechtesten 10% der menschlichen Prüflinge einordnet. GPT-4, nur wenige Monate später entwickelt, erzielte 298 Punkte und befand sich damit unter den besten 10%. Viele Experten erwarten, dass sich dieser Fortschritt fortsetzen wird.
Leggs Ansichten sind unter den Führungskräften der Unternehmen, die derzeit die leistungsfähigsten KI-Systeme aufbauen, verbreitet. Im August sagte Dario Amodei, Mitbegründer und CEO von Anthropic, dass er erwarte, dass eine “menschliche Ebene” KI in zwei bis drei Jahren entwickelt werden könnte. Sam Altman, CEO von OpenAI, sagte, dass AGI möglicherweise innerhalb der nächsten vier oder fünf Jahre erreicht werden könnte.
Aber in einer kürzlichen Umfrage waren die meisten der 1.712 befragten KI-Experten, die auf die Frage antworteten, wann sie der Meinung sind, dass KI jede Aufgabe besser und kostengünstiger als menschliche Arbeiter ausführen kann, weniger optimistisch. Eine separate Befragung von Elite-Prognostikern mit herausragenden Vorhersageergebnissen zeigt, dass sie noch skeptischer sind.
Die Folgen für die richtige Einschätzung, wer Recht hat, sind hoch. Legg, wie viele andere KI-Pioniere, hat argumentiert, dass leistungsstarke zukünftige KI-Systeme den menschlichen Aussterben verursachen könnten. Und selbst für diejenigen, die sich weniger Sorgen um Ausrottungsszenarien machen, warnen einige, dass ein KI-System, das Menschen bei jeder Aufgabe ersetzen kann, Probleme verursachen könnte.
Die Skalierungs-Hypothese
Viele derer, die bei den Unternehmen arbeiten, die die größten und leistungsfähigsten KI-Modelle aufbauen, glauben, dass die Ankunft der AGI unmittelbar bevorsteht. Sie schließen sich einer Theorie an, die als Skalierungs-Hypothese bekannt ist: der Idee, dass selbst wenn entlang des Weges einige inkrementelle technische Fortschritte erforderlich sind, das kontinuierliche Training von KI-Modellen unter Verwendung immer größerer Mengen an Rechenleistung und Daten unausweichlich zur AGI führen wird.
Es gibt einige Beweise, die diese Theorie stützen. Forscher haben sehr saubere und vorhersehbare Beziehungen zwischen der Menge an Rechenleistung, auch als “Compute” bezeichnet, die für das Training eines KI-Modells verwendet wird, und der Leistung bei einer gegebenen Aufgabe beobachtet. Im Fall großer Sprachmodelle (LLM) – den KI-Systemen, die Chatbots wie ChatGPT antreiben – prognostizieren Skalierungsgesetze, wie gut ein Modell ein fehlendes Wort in einem Satz vorhersagen kann. Der CEO von OpenAI, Sam Altman, sagte kürzlich gegenüber TIME, dass er 2019 erkannte, dass AGI möglicherweise viel früher kommen könnte als die meisten Menschen denken, nachdem OpenAI-Forscher die Skalierungsgesetze entdeckten.
Bereits bevor die Skalierungsgesetze beobachtet wurden, verstanden Forscher seit langem, dass das Training eines KI-Systems mit mehr Rechenleistung es leistungsfähiger macht. Die Menge an Rechenleistung, die für das Training von KI-Modellen verwendet wird, hat sich relativ vorhersehbar in den letzten 70 Jahren entwickelt, da die Kosten gesunken sind.
Frühe Vorhersagen auf der Grundlage des erwarteten Wachstums der Rechenleistung wurden von Experten verwendet, um vorherzusagen, wann KI dem Menschen gleichziehen (und ihn möglicherweise übertreffen) könnte. Im Jahr 1997 sagte der Informatiker Hans Moravec voraus, dass in den 2020er Jahren billig verfügbare Hardware die Rechenleistung des menschlichen Gehirns in Bezug auf die Rechenleistung erreichen werde. Ein Nvidia-A100-Halbleiterchip, der weit verbreitet für das Training von KI verwendet wird, kostet derzeit etwa 10.000 US-Dollar und kann etwa 20 Billionen FLOPS leisten, und Chips, die später in diesem Jahrzehnt entwickelt werden, werden eine noch höhere Leistung haben. Allerdings variieren die Schätzungen für die Rechenleistung, die das menschliche Gehirn verwendet, stark von etwa 1016 bis mehr als 1018 FLOPS, was es schwierig macht, Moravecs Vorhersage zu bewerten. Außerdem berücksichtigte Moravecs Vorhersage nicht, dass das Training moderner KI-Systeme wesentlich mehr Rechenleistung erfordert als ihr Betrieb.
Jüngst haben Forscher der gemeinnützigen Organisation Epoch einen raffinierteren Rechenleistungs-basierten Ansatz vorgestellt. Anstatt zu schätzen, wann KI-Modelle mit Rechenleistungsmengen trainiert werden, die der des menschlichen Gehirns ähnlich sind, nutzt der Epoch-Ansatz direkt die Skalierungsgesetze und geht von einer vereinfachenden Annahme aus: Wenn ein KI-Modell, das mit einer gegebenen Menge an Rechenleistung trainiert wurde, einen gegebenen Textabschnitt getreu reproduzieren kann – basierend darauf, ob die Skalierungsgesetze vorhersagen, dass ein solches Modell den nächsten Wort fast fehlerlos vorhersagen kann -, dann kann es die Arbeit der Textproduktion übernehmen. Zum Beispiel könnte ein KI-System, das ein Buch perfekt reproduzieren kann, Autoren ersetzen, und ein KI-System, das wissenschaftliche Arbeiten ohne Fehler reproduzieren kann, könnte Wissenschaftler ersetzen.
Einige würden argumentieren, dass nur weil KI-Systeme menschliche Ausgaben produzieren können, dies nicht unbedingt bedeutet, dass sie wie Menschen denken. Schließlich spielt Russell Crowe den Nobelpreisträger John Nash im Film “Eine schöne Geist” aus dem Jahr 2001, aber niemand würde behaupten, dass seine schauspielerische Leistung umso beeindruckender sein muss, je besser sie ist. Die Forscher von Epoch entgegnen, dass dieser Vergleich auf einem fehlerhaften Verständnis davon beruht, wie Sprachmodelle funktionieren. Mit zunehmender Skalierung erwerben LLMs tatsächlich die Fähigkeit, wie Menschen zu schließen, anstatt sich nur oberflächlich menschlichem Verhalten anzupassen. Allerdings argumentieren einige Forscher, dass unklar ist, ob aktuelle KI-Modelle tatsächlich schließen.
Der Ansatz von Epoch ist eine Möglichkeit, die Skalierungshypothese quantitativ zu modellieren, sagt Tamay Besiroglu, Associate Director von Epoch, der anmerkt, dass die Forscher von Epoch generell der Ansicht sind, dass sich KI langsamer entwickeln wird als das Modell nahelegt. Das Modell schätzt eine 10-prozentige Chance für transformative KI – definiert als “KI, die bei breiter Einführung einen Vergleichbaren Wandel wie die industrielle Revolution auslösen würde” – bis 2025 und eine 50-prozentige Chance bis 2033. Der Unterschied zwischen der Vorhersage des Modells und der von Personen wie Legg liegt wahrscheinlich hauptsächlich darin begründet, dass transformative KI schwieriger zu erreichen ist als AGI, sagt Besiroglu.
Die Experten befragen
Obwohl viele Führungskräfte bei den prominentesten KI-Unternehmen der Meinung sind, dass der derzeitige Weg des KI-Fortschritts bald AGI hervorbringen wird, sind sie Ausnahmen. In einem Bestreben, die Ansichten der Experten systematischer zu bewerten, befragte AI Impacts, ein Sicherheitsprojekt für KI an dem gemeinnützigen Machine Intelligence Research Institute, 2.778 Experten im Herbst 2023, von denen alle in den letzten Jahr in renommierten KI-Journalen und -Konferenzen veröffentlicht hatten.
Unter anderem wurden die Experten gefragt, wann sie der Meinung sind, dass “KI auf hohem Niveau”, definiert als Maschinen, die “jede Aufgabe besser und kostengünstiger als menschliche Arbeiter ohne Hilfe ausführen können”, machbar sein wird. Obwohl die individuellen Vorhersagen stark variierten, deutet der Durchschnitt der Vorhersagen darauf hin, dass es eine 50-prozentige Chance gibt, dass dies bis 2047 der Fall sein wird, und eine 10-prozentige Chance bis 2027.
Wie viele Menschen schienen die Experten von dem raschen Fortschritt der KI im letzten Jahr überrascht zu sein und haben ihre Prognosen entsprechend aktualisiert – als AI Impacts die gleiche Umfrage 2022 durchführte, schätzten die Forscher eine 50-prozentige Chance für KI auf hohem Niveau bis 2060 und eine 10-prozentige Chance bis 2029 ein.
Die Forscher wurden auch gefragt, wann sie der Meinung sind, dass Maschinen einzelne Aufgaben ausführen können. Sie schätzten eine 50-prozentige Chance, dass KI bis 2028 einen Top-40-Hit komponieren kann und bis 2029 ein Buch schreiben kann, das auf der Bestsellerliste der New York Times landet.
Die Super-Prognostiker sind skeptisch
Dennoch gibt es reichlich Beweise dafür, dass Experten keine guten Prognosen abgeben. In einer Studie aus dem Jahr 2018 bewerteten Forscher von Good Judgment, Inc. die Vorhersagegenauigkeit Tausender Prognostiker und fanden heraus, dass nur ein kleiner Prozentsatz, die sogenannten “Super-Prognostiker”, signifikant genauer waren als der Durchschnitt. Diese “Super-Prognostiker” scheinen in der Regel skeptischer in Bezug auf disruptive technologische Veränderungen wie AGI zu sein.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.