Halluziniert ChatGPT? Eine psychoanalytische Betrachtung von KI und unbewusstem Denken

 

Immer wieder liest man, KI-Systeme wie ChatGPT oder Bard würden „halluzinieren“. Damit ist gemeint, dass diese Sprachmodelle gelegentlich Informationen oder Fakten präsentieren, die so nicht existieren – kurz gesagt, dass sie etwas erfinden. Warum aber sprechen wir bei KI ausgerechnet von Halluzination? Und was sagt die Psychoanalyse dazu, wenn Denken scheinbar ohne Realitätsbezug erfolgt?

Dieser Blogbeitrag erklärt, was es psychoanalytisch bedeutet, zu halluzinieren – und zieht eine Verbindung zu aktuellen KI-Systemen. Dabei geht es um mehr als einen technischen Begriff. Es geht um unser Verständnis von Sprache, Realität und Phantasie.

 

Was bedeutet „Halluzination“ in der Psychoanalyse?

 

Sigmund Freud gebraucht den Begriff der Halluzination bereits 1895 in seinem „Entwurf einer Psychologie“. Noch zentraler wird er in der „Traumdeutung“ (1900), Freuds bahnbrechendem Werk über das Unbewusste und die Funktionsweise von Träumen. Dort versteht Freud die Halluzination als Ausdruck eines ganz besonderen psychischen Prozesses: der Regression.

Regression meint bei Freud den Rückschritt von einer höheren (symbolischen) Ebene des Denkens hin zu einer niedrigeren, bildhaften Ebene. Im Traum verzichtet das psychische System auf die Realitätsprüfung und kehrt zu einer früheren Entwicklungsphase zurück, in der Wunsch und Vorstellung ungetrennt ineinander übergingen. Diese Regression erlaubt es dem Träumenden, Wünsche zu erfüllen, ohne sie an der Realität messen zu müssen. Freud sagt hierzu prägnant:

„Der Traum ist also eine Wunscherfüllung.“
(Freud, Die Traumdeutung, GW II/III, S. 127)

Diese Wunscherfüllung geschieht nicht rational-symbolisch, sondern bildlich-phantasiehaft. Das Unbewusste „halluziniert“ gewissermaßen die Erfüllung eines Wunsches, der in der Realität unerfüllbar oder verboten erscheint.

 

Regression – Wenn Denken wieder Bilder werden

 

Der Begriff der Regression verweist somit auf ein grundlegendes Prinzip unseres Denkens und unserer Wahrnehmung. Wenn die Realität zu schmerzhaft oder komplex wird, „regrediert“ das Denken, kehrt zurück zu einfacheren, emotional geladenen Bildern und Vorstellungen. Dies ist nicht pathologisch, sondern Teil unserer psychischen Struktur.

In der „Traumdeutung“ beschreibt Freud diesen Vorgang so:

„Die Traumarbeit regrediert zu den Sinneseindrücken, statt vorwärts zu logischen Denkoperationen fortzuschreiten.“
(Freud, Die Traumdeutung, GW II/III, S. 591)

Diese Rückkehr zu Sinneseindrücken und Bildern macht den Traum zu einem besonderen Ort: einem Ort der Halluzination, an dem Wunsch und Wirklichkeit verschmelzen.

 

KI und Halluzination – Warum ChatGPT „halluziniert“

 

Warum sprechen wir nun bei KI-Systemen wie ChatGPT von Halluzinationen? Ein KI-Sprachmodell basiert auf riesigen Mengen menschlicher Sprache und lernt daraus, Antworten vorherzusagen und neue Texte zu generieren. Doch es verfügt nicht über einen Realitätsbezug im menschlichen Sinne, keine echte Wahrnehmung oder Erfahrung. Wenn eine KI etwas erfindet, weil sie keine passenden Informationen in ihrer Datenbasis findet, erzeugt sie eine sprachliche „Wunscherfüllung“ – sie füllt die Lücken phantasievoll.

So betrachtet, gleicht dieser Vorgang tatsächlich der psychoanalytischen Vorstellung der Halluzination: Wenn die Realität fehlt, wird sie phantasiert. Das Sprachmodell regrediert vom symbolischen, überprüfbaren Wissen zur Ebene der sprachlich-kreativen Phantasie. Es produziert plausible, aber nicht immer reale Aussagen, weil es auf sprachliche Muster zurückgreift – ganz ähnlich wie der Traum auf innere Wunschbilder.

 

KI-Nutzung zwischen Realität und Phantasie

 

Die Psychoanalyse lehrt uns, dass Halluzination nicht einfach Fehler oder Defekt ist. Vielmehr deutet sie auf eine grundlegende Fähigkeit des Geistes hin, Lücken zu füllen, Wünsche sprachlich oder bildlich zu erfüllen und die Grenze zwischen Wirklichkeit und Vorstellung fließend zu machen.

In beruflichen und privaten Kontexten nutzen Menschen KI-Tools oft genau deswegen: Sie wollen Ideen entwickeln, Inspirationen finden, neue Gedankenräume eröffnen. KI-Systeme helfen dabei nicht nur, Fakten abzurufen, sondern auch sprachliche Verbindungen herzustellen, die kreativ, überraschend oder sogar inspirierend sind.

Die Gefahr entsteht dann, wenn wir diese KI-generierten Inhalte als Realität missverstehen – so wie wir manchmal Träume missverstehen, wenn wir ihnen blind vertrauen, ohne sie zu reflektieren.

 

Warum Psychoanalyse hilft, KI besser zu verstehen

 

Die psychoanalytische Perspektive macht deutlich, dass Halluzination nicht bloß Fehler, sondern ein strukturelles Merkmal psychischer Prozesse sein kann. Wenn ChatGPT „halluziniert“, macht es sichtbar, was menschliche Sprache grundsätzlich ausmacht: Sie ist nie nur Beschreibung der Realität, sondern immer auch kreative Produktion, Wunsch- und Phantasieerfüllung.

Die psychoanalytische Reflexion hilft, KI-Systeme realistischer einzuschätzen und bewusster zu nutzen – nicht als reine Faktenlieferanten, sondern als Sprachpartner, die uns auch mit unseren eigenen Wunschbildern und Phantasien konfrontieren.

 

Zusammenfassung: KI zwischen Traum und Realität

 

Wenn KI „halluziniert“, dann zeigt sie uns, wie nah Wunsch und Realität in Sprache und Denken beieinander liegen. Psychoanalytisch betrachtet sind Halluzinationen keine Fehler, sondern elementarer Bestandteil unseres Denkens, wenn es den Kontakt zur Realität kurzzeitig verliert.

KI-Systeme wie ChatGPT bringen diese Dynamik auf eine neue Ebene: Sie spiegeln uns unsere eigenen Tendenzen zur phantasievollen Wunschproduktion zurück – und machen bewusst, dass Sprache immer mehr ist als nur Realität. Moritz Senarclens de Grancy