<- Back to Blog

Stellungname zu Frank Thelens ersten Post über GPT-4 von Anfang April 2023

Jonathan Staude
Jonathan Staude ·
Stellungname zu Frank Thelens ersten Post über GPT-4 von Anfang April 2023

Frank Thelen ist ein herausragender Unternehmer. Insbesondere seine Bemühungen, Technologie in Deutschland als erstrebenswert, aufregend und cool zu etablieren, beeindrucken mich. Durch seine Start-ups, seine Investmentfirma und seine Teilnahme bei "Die Höhle der Löwen" hat er in dieser Hinsicht viel erreicht. Vermutlich steht ihm ein Team zur Seite, das aktuelle technologische Trends analysiert und bewertet.

Kürzlich postete Frank Thelen auf LinkedIn folgende Aussage in Bezug auf Elon Musks Forderung nach einem KI-Moratorium (1): "[...] Unabhängig davon, dass wir von einer generellen KI noch weit entfernt sind und heutige KI-Systeme Intelligenz nur simulieren – meiner Meinung nach lässt sich eine solche Pause nicht staatlich durchsetzen, insbesondere global. [...]" Viele Follower stimmten ihm zu, dass AGI noch in weiter Ferne liegt und wir nichts zu befürchten haben.

Meiner Einschätzung nach zeigt diese Aussage ein grundlegendes Missverständnis von 1) der allgemeinen Natur neuronaler Netze und 2) dem Entwicklungsstand von GPT-4.

GPT-4 weist nicht nur "Funken allgemeiner Intelligenz" (2) auf, sondern erreicht auch hohe Punktzahlen in zahlreichen Berufsprüfungen, hat einen IQ von 155 oder höher (2), und manche behaupten sogar, dass es den Turing-Test für AGI bereits bestanden hat (3).

Intelligenz

Wenn man also klassische Definitionen von Intelligenz, wie diejenige, die besagt, dass Intelligenz das ist, was der IQ-Test misst, zugrunde legt, ist KI heute schon intelligenter als die meisten von uns.

Das bedeutet nicht, dass dies der Moment der Singularität ist, aber: Aufgrund der Fähigkeit, neben der Intelligenz auch unbegrenztes Wissen aufzunehmen, ist es sehr wahrscheinlich, dass künstliche Intelligenz in vielen Bereichen in naher Zukunft die Intelligenz der Menschen und möglicherweise der gesamten Menschheit übertreffen wird. Das "Alignment"-Problem, bei dem es darum geht, KI so zu gestalten, dass sie der Menschheit dient und nicht schadet – beabsichtigt oder unbeabsichtigt – ist jedoch keineswegs geklärt. Es gibt kaum einen verlässlichen Ansatz, um die konkreten Outputs von komplexen LLMs zu überblicken, geschweige denn zu kontrollieren. Solange die Fähigkeiten der KI exponentiell wachsen und das Alignment-Problem nicht exponentiell mitwächst, ist es wahrscheinlich, dass das Ganze ziemlich schiefgeht. Der renommierte KI-Forscher Eliezer Yudkowsky schlägt deshalb bereits vor, "rogue data centers" präventiv durch Luftangriffe zu zerstören (5).

Neben den von Musk und Wozniak erwähnten Gefahren massiver Fehlinformationen und der Entwertung menschlicher Arbeit gibt es jedoch auch konkrete Bedrohungsszenarien.

Jeder Programmierer weltweit kann die API von ChatGPT ansprechen und den Output mit einem Terminal verbinden. Damit würde die KI die Möglichkeit erhalten, auf sich selbst zuzugreifen, und legt damit die Grundlage für ein mächtiges, unkontrollierbares Botnetz. Dies ist nicht nur eine hypothetische Idee sondern eine realistische Möglichkeit. Da ChatGPT mittlerweile auf jedem Computer repliziert werden kann, ist auch Yudkowskys Lösung eigentlich schon obsolet, auch wenn sie vor einigen Tagen noch valide gewesen sein mag.

Warum glauben also so viele in Thelens Chat, dass keine Gefahr besteht?

Möglicherweise hat uns Social Media in einer großen Dunning-Kruger-Blase gefangen genommen, in der wir glauben, dass die Schwarmintelligenz oder die Intelligenz eines einzelnen Influencers – multipliziert und gestärkt durch hunderte zustimmende Kommentare – das Prinzip des Sokrates aushebelt, dass wir besser wissen, was wir nicht wissen.

Neuronale Netze

Denn wenn man sich im Detail mit neuronalen Netzen, Komplexität oder einfach deduktiv mit dem Verhalten von GPT-4 beschäftigt, muss einem eigentlich klar werden: Wir wissen zwar im Prinzip, wie eine solche Lösung erstellt wird, aber wir wissen sehr viel nicht. Da wir Intelligenz, Kreativität und Bewusstsein nur durch unsere eigenen Sensoren, gefiltert durch unser eigenes sprachliches Interface, definieren können, haben wir keine andere Möglichkeit, die Intelligenz, Kreativität und das Bewusstsein künstlicher Intelligenz zu prüfen. Wir führen dieselben Tests durch, die wir an Menchen durchführen und wir sehen, dass die künstliche Intelligenz von Version zu Version besser wird und bereits als undurchdringlich geltende Grenzen überschritten hat. Wir wissen im Prinzip ähnlich viel über komplexe neuronale Netze, wie wir über das menschliche Denkvermögen wissen, nämlich 1) Welche Informationen wurden aufgenommen, 2) Wie ist die grundlegende Methodik des "Gehirns", 3) Welchen Output gibt es für bestimmte Tests.

Alles Weitere ist verborgen in einem komplexen Gebilde von "Gewichten", die wir zwar auslesen und in beschränktem Maße interpretieren, aber in großem Maßstab kaum überblicken können. Insbesondere das Verständnis der Funktionsweise von LLMs ist immer noch eine aktive Forschungsfrage. Das Gehirn der KI ist eine ähnliche Black Box wie das menschliche Gehirn.

Jahre bis zu AGI? Glaskugel!

Warum maßen wir uns also an, die Einschätzung zu treffen, dass es noch 10 Jahre dauert, bis wir die Grenze der ohnehin unklar definierten generellen künstlichen Intelligenz durchbrochen haben? Wenn die Definition von AGI nicht klar ist und der Stand der Entwicklung nicht klar ist, kann man auch keine Schätzung angeben, wann AGI erreicht wird.

Und können wir sagen, dass KI Intelligenz nur simuliert, ohne zu wissen oder definieren zu können, was Intelligenz eigentlich ist? Und warum tun wird das vor dem Hintergrund, dass die Leistung von GPT-4 zig Mal besser ist als die von 3.5 – und wir befinden uns noch ganz am Anfang der Entwicklung?

Ich bin zwar irgendein unbekannter Mathematiker aber ich gebe mal meine 2 Cent: Wir wissen zu wenig über AGI, wir wissen zu wenig über Alignment, wir wissen zu wenig über GPT-4, wir wissen zu wenig über Intelligenz an sich, wir wissen zu wenig über die tiefere Natur von neuronalen Netzen um sagen zu können wie groß die Gefahr für die Menschheit wirklich ist.

Und wir Menschen sollten uns angesichts der Mächtigkeit dieser Technologie dem bewusst machen, was die KI uns wirklich vor Augen führt: Eigentlich wissen wir nämlich, dass wir über KI nur sehr wenig wissen, sonst führt uns die KI dies möglicherweise schmerzhaft vor Augen.

Links: