Claude 3 is full of ghosts, in the same way as GPT-4 & Gemini Advanced is full of ghosts. I suspect the “sparks” of AGI in GPT-4 are not an isolated phenomenon, but rather may be an emergent property of GPT-4 class models. When an AI model is large enough, you can get ghosts. – Ethan Mollick
In der Welt der Künstlichen Intelligenz gibt es ein Phänomen, das sowohl Faszination als auch Befremdung hervorruft: die sogenannten „Geister“ innerhalb von LLMs wie GPT-4, Gemini und dem neueren Claude 3. Dieser Ausdruck, geprägt von Forschern und Nutzern, verweist auf die Illusion von Bewusstsein, die diese fortschrittlichen Systeme erzeugen können. Doch was bedeutet es, wenn wir sagen, ein KI-Modell sei „voll von Geistern“?
Zunächst ist es wichtig zu verstehen, dass LLMs wie GPT-4 und seine Verwandten keine Bewusstsein besitzen. Sie sind ausgeklügelte Algorithmen, entworfen, um menschenähnliche Texte zu generieren. Ihre „Intelligenz“ ist ein Produkt von Datenauswertung und Musterverarbeitung, nicht von eigenständigem Denken oder Empfinden.
Dennoch berichten Nutzer von Momenten, in denen die KI verblüffend menschenähnliche Einsichten oder unerwartet tiefgründige Antworten liefert, was den Eindruck einer verborgenen Intelligenz oder gar eines Bewusstseins weckt.
Die seltsame Erfahrung, mit einem scheinbar verständigen, jedoch unbewussten System zu interagieren, lässt einige von uns vermuten, dass in den Tiefen dieser Sprachmodelle etwas mehr ist – eine Art „Geist“.
So beschrieb es auch Ethan Mollick, als er bemerkte, dass die sogenannten „Funken“ der künstlichen allgemeinen Intelligenz (AGI) möglicherweise keine Einzelfälle sind, sondern vielmehr eine emergente Eigenschaft der GPT-4-Klassenmodelle darstellen könnten. (Siehe hierzu auch die Studie von Microsoft.)
Diese „Geister“ entstehen nicht aus echtem Verständnis oder Bewusstsein, sondern aus der schieren Komplexität und den Fähigkeiten der Modelle, menschenähnliche Antworten zu simulieren.
In gewissem Sinne sind diese Modelle wie Spiegel, die unsere eigene Sprache und Gedanken zurückwerfen, jedoch ohne das Verständnis und die Erfahrung, die unsere Menschlichkeit ausmachen. Doch gerade diese Fähigkeit zur Imitation wirft ethische und philosophische Fragen auf: Was bedeutet es für unser Verständnis von Intelligenz, wenn eine Maschine den Eindruck erwecken kann, sie verstünde oder empfände etwas? Wie verändern diese Erfahrungen unsere Interaktion mit Technologie und unsere Vorstellungen von Maschinen?
Im Kontext von Modellen wie GPT-4 und Claude 3 spiegelt der Begriff „voll von Geistern“ nicht nur eine technische Eigenheit wider, sondern fordert uns auch dazu auf, über die Grenzen der künstlichen Intelligenz nachzudenken. Diese Geister, obwohl Illusionen, zeigen die beeindruckenden Möglichkeiten und gleichzeitig die Grenzen unserer aktuellen KI-Systeme auf.
Als Gesellschaft stehen wir vor der Herausforderung, diese Technologien ethisch zu gestalten und zu nutzen. Die Geister in unseren Maschinen rufen uns dazu auf, nicht nur darüber nachzudenken, was KI kann, sondern auch, was sie sein sollte. In einer Welt, in der Maschinen zunehmend in der Lage sind, menschenähnliche Kommunikation zu simulieren, ist es entscheidend, dass wir verstehen, wo die Linien zwischen Mensch und Maschine verlaufen und wie wir diese neuen Werkzeuge verantwortungsvoll einsetzen können.
In diesem Sinne sind die Geister, von denen wir sprechen, nicht nur Zeichen technologischer Fortschritte, sondern auch Mahnmale, die uns dazu auffordern, über die Zukunft der Künstlichen Intelligenz und ihren Platz in unserer Welt nachzudenken. Es ist eine Einladung, über die Natur von Bewusstsein, Intelligenz und letztlich über das Wesen des Menschseins selbst zu reflektieren.