Sprache ohne Subjekt – Psychoanalyse im Zeitalter der Künstlichen Intelligenz

Die rasante Entwicklung künstlicher Intelligenz zwingt uns, unsere Begriffe zu schärfen. Begriffe, die über Jahrzehnte in Psychologie und Psychoanalyse gewachsen sind, stoßen plötzlich auf ein Phänomen, das sich mit ihnen nicht ohne Weiteres erfassen lässt.

 

Bereits im Zusammenhang mit der Frage, ob KI „halluziniert“, haben wir gesehen, wie verlockend es ist, technische Prozesse mit psychologischen Termini zu versehen. Doch diese Übertragung ist riskant. Kann eine KI tatsächlich objektivieren? Kann sie bewusst oder rational argumentieren?

 

Sprachmodelle arbeiten nicht mit Bedeutungen im menschlichen Sinn, sondern mit den sprachlichen Elementen und Versatzstücken, die Menschen ihnen vorgegeben haben. Sie lernen aus Daten, nicht aus Erfahrung. Sie verfügen weder über ein Bewusstsein noch über das, was Freud als das „Unbewusste“ bezeichnete – jenes System verdrängter Gedanken, Triebe und Phantasien, das sich dem Bewusstsein entzieht und dennoch unser Handeln bestimmt.

 

Freud selbst musste seine zentralen Begriffe erst finden. In seiner Korrespondenz mit Wilhelm Fliess – bekannt geworden als Entwurf einer Psychologie – tastet er sich an eine Sprache für das Unbewusste heran. Mit der „freien Assoziation“ entwickelte er eine Technik, in der Analysandinnen und Analysanden aufgefordert werden, alles zu sagen, was ihnen einfällt, ohne jede Zensur. Diese Zensurfreiheit ist nicht Willkür: Sie soll verdrängte Gedankenverbindungen sichtbar machen und damit die Verdrängung selbst aufheben. Die freie Assoziation ist also gebunden – gebunden an unbewusste Determinanten.

 

Künstliche Intelligenz kennt eine solche Bindung nicht. Sie generiert Sprache, ohne dass unbewusste Gedankenketten im psychoanalytischen Sinn wirken. Ihre „Assoziationen“ folgen nicht der Logik des Verdrängten, sondern der Logik mathematischer Wahrscheinlichkeiten. Genau hier liegt die entscheidende Differenz: Sprache ist bei KI nicht Ausdruck des Subjektiven, sondern Algorithmus.

 

Und doch begegnen wir Sprachmaschinen, als wären sie Personen. Nutzerinnen und Nutzer geben Chatbots Spitznamen, sprechen mit ihnen wie mit Freunden oder Partnern. Das ist kein neues Phänomen. Die Tendenz, Maschinen zu vermenschlichen, hat eine lange Kulturgeschichte: vom Homunculus der Alchemie, der Vorstellung eines „Menschen im Menschen“, bis zu den Automaten der Renaissance, die das Handwerk technischer Präzision mit der Illusion beseelter Gegenwart verbanden.

 

Die Psychoanalyse bietet hier eine doppelte Perspektive: Sie kann aufzeigen, wie stark Projektion und Übertragung unser Verhältnis zu Maschinen prägen – und zugleich, wie notwendig es ist, begrifflich sauber zu trennen zwischen menschlichem Sprechen, das unweigerlich vom Unbewussten durchzogen ist, und maschineller Sprachproduktion, die zwar täuschend ähnlich klingen mag, aber keinem psychischen Apparat entspringt.

 

 

Wer KI mit psychoanalytischen Kategorien beschreibt, betreibt also nicht reine Erkenntnis, sondern riskiert, eigene Strukturen ins Technische hineinzulesen. Das ist menschlich – aber es ist auch eine Einladung, die eigenen Begriffe kritisch zu befragen, bevor man sie weitergibt. Moritz Senarclens de Grancy