Das Ringen mit dem Automaten Eine psychoanalytische und kulturkritische Reflexion zur Autorschaft im Zeitalter Künstlicher Intelligenz

Begleitmaterial

 

Methodischer Hinweis zur Autorschaft:

Dieser Text ist nicht nur eine Analyse der Ko-Produktion von Wissen mit künstlicher Intelligenz; er ist selbst das Produkt und das Protokoll eines solchen Prozesses. Er wurde vom menschlichen Autor unter intensiver Zuhilfenahme von generativen KI-Werkzeugen (insbesondere ChatGPT-4 und 5 Pro und Gemini 2.5 Pro) konzipiert und verfasst. Die Rolle der KI war dabei nicht die eines Co-Autors, sondern die eines katalytischen Interaktionspartners, dessen Funktion sich im Laufe des Projekts entwickelte: von einem Strukturierungs-Assistenten zur Ordnung bereits vorhandener Gedankengänge bis hin zu einem dialektischen Sparringspartner und einer Simulations-Engine zur Personifizierung und Zuspitzung theoretischer Positionen. Der hier dokumentierte Prozess folgt den im Text selbst entwickelten Maximen einer kritisch-reflexiven Praxis: Er basiert auf einem umfangreichen, vom Autor allein erarbeiteten Materialfundus, nutzt die KI gezielt zur Provokation von Widersprüchen („negatives Prompten“) und unterzieht jeden maschinell generierten Baustein einem rigorosen Prozess der „Menschlichung“ und Re-Autorisierung. Die finale Verantwortung für alle Inhalte, Argumente, theoretischen Verknüpfungen und Formulierungen liegt ausschließlich beim menschlichen Autor. Dieser Text dient zugleich als Referenz und ethische Grundlage für die Autorschafts-Praxis auf der Website couch-und-agora.de und soll das Ringen um eine neue Form der intellektuellen Redlichkeit im digitalen Zeitalter transparent machen.

Table of Contents

Vorwort

Als praktizierender Psychoanalytiker konstituiert sich meine berufliche Existenz in einem fundamentalen und zunehmend unversöhnlichen Paradoxon. Auf der einen Seite steht der analytische Raum, das Behandlungszimmer. Er ist per definitionem ein Ort der Entschleunigung, ein Setting, das von der bedächtigen, oft mühsamen Entfaltung des Unbewussten, von der Ambiguität der Sprache, vom Aushalten des Schweigens und von der Langsamkeit des Durcharbeitens geprägt ist. Natürlich ist auch dieser Raum kein Ort der reinen Harmonie; er ist von Spannungen durchzogen, von Widerständen, von der schmerzhaften Konfrontation mit verdrängten Wahrheiten. Dennoch ist er ein Schutzraum, der sich der unmittelbaren Verwertungslogik und den Beschleunigungsimperativen der Außenwelt bewusst entzieht.

Auf der anderen Seite, sobald die Tür dieses Zimmers ins Schloss fällt, betrete ich eine andere Sphäre: den digitalen Raum meiner professionellen Existenz. Hier herrschen gänzlich andere Gesetze. Es ist ein Raum der unendlichen Weite, der sofortigen Verfügbarkeit und der unerbittlichen Sichtbarkeit.

In diesem Spannungsfeld entsteht für mich jedoch nicht nur ein äußerer Druck, sondern ein doppelter innerer Antrieb: Einerseits der Wunsch, meinen Beitrag zu leisten, die reiche und oft als unzugänglich empfundene Disziplin des Psychoanalytischen in die moderne, digitale Welt zu tragen und ihre kritische Stimme im öffentlichen Diskurs hörbar zu machen. Andererseits die genuine intellektuelle Freude an der Möglichkeit, mit Hilfe von KI-Werkzeugen tiefer und effizienter in mancherlei Themengebiet einzudringen, als mir dies mit meinen begrenzten zeitlichen Ressourcen vorher möglich war. Die KI erscheint hier nicht nur als Notlösung, sondern als ein faszinierendes Instrument, das neue Denk- und Assoziationsräume zu eröffnen verspricht.

Doch genau diese proaktive, von Neugier und Sendungsbewusstsein getragene Praxis hat sich als Quelle fundamentaler, quälender und zutiefst persönlicher Fragen erwiesen, die den Kern meiner professionellen Identität berühren.

Die Frage der Autorschaft wird plötzlich unheimlich: Schreibe ich hier noch, oder werde ich geschrieben? Bin ich ein Schöpfer, der ein Werkzeug benutzt, um seine Vision zu realisieren, oder nur noch ein Kurator, der maschinell erzeugte Versatzstücke zu einem plausiblen Amalgam zusammenfügt? Die Grenzen zwischen meiner Stimme, geformt durch Jahre der klinischen Erfahrung und des persönlichen Ringens, und dem statistischen Echo der Maschine, das den Durchschnitt von Millionen anonymer Stimmen wiedergibt, verschwimmen zu einer beunruhigenden Ununterscheidbarkeit.

Der Prozess der Erkenntnis selbst wird rätselhaft: Entdecke ich hier, im Dialog mit der KI, tatsächlich neue, unerwartete Verbindungen in dem von mir bereitgestellten Material? Oder ist die Maschine nur ein hochpotenter Verstärker meiner eigenen blinden Flecken, der mir meine Vorannahmen in eloquenterer Form zurückspiegelt? Schaffe ich wirklich neues Wissen, oder erzeuge ich nur eine hochentwickelte, in sich geschlossene und verführerische Illusion von Sinn, generiert aus Algorithmen, die auf Plausibilität, nicht auf Wahrheit trainiert sind? Die KI als „künstlicher Peer“ – ist sie ein ehrlicher Kritiker oder ein narzisstischer Komplize?

Die Ethik der Methode wird brüchig: Tue ich meiner Disziplin, der Psychoanalyse, wirklich einen Dienst, wenn ich ihre komplexen, oft sperrigen und widersprüchlichen Wahrheiten durch einen Apparat glätten und aufbereiten lasse, der strukturell auf Konsens, Kohärenz und leichte Konsumierbarkeit optimiert ist? Ist es ein Akt der „Übersetzung“ und der Demokratisierung von Wissen, oder ist es ein Verrat an der subversiven Kraft des psychoanalytischen Denkens, das gerade im Unbequemen, im Nicht-Identischen seine Wahrheit hat? Verbreite ich Aufklärung oder trage ich zu einer neuen, raffinierteren und daher vielleicht noch gefährlicheren Form der Banalisierung bei?

Und schließlich verkehrt sich die persönliche Erfahrung des Schreibens ins Gegenteil: Was bedeutet es für mich als denkendes Subjekt, wenn die „Qual des Ringens“ – jener mühsame, aber formative Prozess der Sublimierung, in dem sich der Gedanke erst formt und das Ich sich stärkt – durch die reibungslose Effizienz der Maschine ersetzt wird? Genieße ich diesen Kurzschluss, diesen Sprung über den Abgrund der eigenen Unsicherheit, insgeheim? Ist diese Erleichterung eine gesunde Entlastung von unnötiger Plackerei oder eine regressive Flucht vor der notwendigen Konfrontation mit den eigenen Grenzen? Und was verrät dieser Genuss über meine Beziehung zur Arbeit, zur Wahrheit und zu mir selbst?

Diese Arbeit ist der Versuch, keine einfachen Antworten auf diese Fragen zu geben, sondern sie in ihrer ganzen Tiefe zu entfalten. Sie argumentiert, dass die KI-gestützte Erstellung psychoanalytischer Texte kein neutraler technischer Vorgang ist, sondern eine tiefgreifende Intervention in die psychischen und gesellschaftlichen Grundlagen von Autorschaft, Subjektivität und kritischem Denken. Es stellt sich die zentrale, dialektische Frage, die im Zentrum dieser Untersuchung steht: Kann dieselbe KI-Technologie, die dem spätkapitalistischen Logik-Imperativ der Kulturindustrie entstammt, zur Befreiung von dessen Zwängen umfunquotiert werden? In den Worten ihrer schärfsten Kritiker: Ist es möglich, einen Apparat, der die „instrumentelle Vernunft“ und die „Rationalität der Herrschaft selbst“ (Adorno & Horkheimer, 1947, S. 38) verkörpert, so zu wenden, dass er nicht nur als Herrschaftsinstrument wirkt, sondern als Medium autonomer Aufklärung? Oder führt ihr Einsatz zwangsläufig zu einer Glättung der psychoanalytischen Tiefendimension, zu einer Standardisierung des Denkens und letztlich zu jener von Georg Lukács (1923) beschriebenen „Verdinglichung“, die hier als eine „Verdinglichung der Seele“ zu fassen wäre – die Umwandlung des lebendigen, widersprüchlichen psychischen Prozesses in eine verwaltbare, aber seelenlose Ware?

Diese Frage ist von besonderer Dringlichkeit, da psychoanalytische Positionen im öffentlichen Diskurs unterrepräsentiert sind. Die wissenschaftlichen Debatten finden primär in Fachjournalen statt, die für Laien kaum zugänglich sind. Wer heute zu einem psychologischen Thema eine Suchmaschine oder eine KI befragt, erhält Antworten, die auf dem basieren, was online frei verfügbar ist – und hier droht genau jene Homogenisierung und Verflachung, die Adorno und Horkheimer (1947) als Wesensmerkmal der Kulturindustrie beschrieben haben. Der Impuls, hier „einen Raum aufzumachen“, ist somit nicht nur ein persönliches Anliegen, sondern eine Reaktion auf eine disziplinäre Herausforderung.

Dieses Werk ist daher kein Versuch, eine finale, geschlossene Antwort zu liefern. Es ist vielmehr die bewusste Konstruktion eines Diskursraums, in dem die widersprüchlichen Stimmen und ambivalenten Erfahrungen nebeneinander existieren und miteinander in Dialog treten können. Es ist eine Einladung an Sie, den kritischen Leser, an diesem Ringen teilzunehmen. Wir werden die psychodynamischen Verstrickungen der Mensch-Maschine-Interaktion analysieren (Teil I), die affektive Ökonomie aus narzisstischer Grandiosität und Scham beleuchten (Teil II), das Phänomen in den breiteren Kontext der Kritischen Theorie stellen (Teil III) und aus dieser Analyse konkrete Handlungsmaximen für eine ethisch verantwortungsvolle Praxis entwickeln (Teil IV). Ziel ist es, einen Weg aufzuzeigen, wie wir die Maschine nutzen können, ohne von ihr beherrscht zu werden – eine Gratwanderung zwischen der Gefahr der Unterwerfung unter die instrumentelle Vernunft und der emanzipatorischen Chance auf neue Autonomie.

Die Psychodynamik des KI-Dialogs – Wer oder was spricht?

Der Prozess – Zwei Ökonomien des Schreibens

Das „Ringen“ als Sublimierung: Die interne Ökonomie des Denkens

Die Verlockung, die von generativen KI-Systemen ausgeht, gründet sich auf dem Versprechen einer reibungslosen, fast instantanen Produktion von Bedeutung. Auf einen Befehl (Prompt) folgt eine Antwort (Output) – ein scheinbar friktionsloser Übergang von der Leere zur Fülle, von der Frage zur kohärenten Erzählung. Um die tiefgreifenden psychischen und epistemologischen Verschiebungen zu verstehen, die dieser neue Modus der Texterstellung impliziert, ist es unerlässlich, zunächst eine phänomenologische Untersuchung jenes Prozesses vorzunehmen, den die KI zu ersetzen oder zumindest radikal zu verkürzen verspricht: den traditionellen, internalisierten Akt des wissenschaftlichen und kreativen Schreibens.

Dieser Prozess ist das genaue Gegenteil von Reibungslosigkeit. Er ist ein Akt des Ringens, der psychische Kosten verursacht, aber gerade dadurch einen Wert schafft, der über den reinen Informationsgehalt des Endprodukts hinausgeht. Wir werden diesen Prozess im Folgenden als eine spezifische psychische Ökonomie analysieren – eine Ökonomie des Mangels, des Widerstands und der Transformation, die sich am treffendsten mit dem Freud’schen Konzept der Sublimierung fassen lässt.

Um diese sonst unsichtbare, internalisierte Arbeit greifbar und analysierbar zu machen, werden wir auf ein konkretes Exponat aus der Praxis des Autors zurückgreifen: den dokumentierten, mehrstufigen Arbeitsprozess zur Erstellung eines theoretischen Bausteins für einen geplanten Fachartikel über Persönlichkeitsstörungen. Die Absicht war es, die oft rein deskriptiven oder auf Mentalisierung fokussierten Ansätze durch die psychoanalytische Perspektive Wilfred R. Bions zu bereichern. Dies erwies sich als komplexes Unterfangen, bei dem nach dem Studieren verschiedenster Literatur zum Thema erste Formulierungsversuche gestartet und der Bion’sche Theorieblock im Manuskript immer wieder verschoben, gekürzt, erweitert und mit anderen theoretischen Strängen in Verbindung gebracht werden musste.

Die Wahl dieses spezifischen Beispiels ist methodisch intendiert. Erstens zwingt die notorische Komplexität und Abstraktion von Bions Werk den Schreibenden zu einem besonders intensiven und daher gut beobachtbaren intellektuellen und affektiven „Ringen“. Zweitens – und dies ist ein zentraler methodischer Kunstgriff dieser Analyse – erlaubt uns die Auseinandersetzung mit Bion eine einzigartige, selbst-reflexive Untersuchung: Wir werden Bions eigene Konzepte (wie „Container/Contained“, „Alpha-/Beta-Elemente“, „Angriffe auf Verbindungen“) als Analyseinstrumente verwenden, um den psychischen Prozess zu beschreiben, der bei der Auseinandersetzung mit genau diesen Konzepten stattfindet. Diese rekurrente Schleife macht die psychische Arbeit, die sonst verborgen bliebe, auf transparente Weise sichtbar.

Wir werden zunächst das Rohmaterial dieses Prozesses und seine verschiedenen Transformationsstufen präsentieren und anschließend die drei Momente dieses Ringens – Aufnahme, Transformation und Verstehen – detailliert psychoanalytisch deuten.

Exponat: Die Genese eines Gedankens in drei Stufen

Das Folgende dokumentiert die Entstehung eines Textabschnitts über W. R. Bion. Stufe 1 zeigt nicht nur die reinen Quellen, sondern integriert die unmittelbaren, oft fragmentarischen, zweifelnden und manchmal auch scheiternden Notizen des Autors direkt in den exzerpierten Text. Dies macht den initialen, konfrontativen und oft verwirrenden Prozess des „Ringens“ – das Aufeinandertreffen von externem Text und interner Verarbeitung – maximal sichtbar.

Stufe 1: Das Rohmaterial – Die konfrontative Materialsammlung und das erste Ringen im Text

Die erste Phase besteht aus der Lektüre und dem Exzerpieren von Schlüsselpassagen, durchsetzt mit direkt in den Text eingefügten, kursiv gesetzten Anmerkungen, die das Ringen, die Verständnisschwierigkeiten und die Momente der Überforderung des Autors widerspiegeln.

Textquelle 1: Rohde-Dachser & Dachser (2004). Inszenierungen des Unmöglichen.

Exzerpt mit integrierten Notizen: „Die Entwicklung einer spezifischen Theorie des Denkens (Bion)
Wilfred Bion (1962a) erweiterte das Konzept der projektiven Identifizierung zu einer Theorie über die Entwicklung des Denkens. (Okay, der Ausgangspunkt ist also Kleins projektive Identifizierung, aber Bion macht etwas Neues daraus: keine reine Abwehr mehr, sondern eine Vorstufe des Denkens. Das ist der zentrale Gedanke, den ich festhalten muss.) Im Zentrum steht dabei die Vorstellung von „container“ und „contained“ […]. Das Baby verfügt danach zunächst nur über eine sinnliche Wahrnehmung von Bedürftigkeit und von Gefühlen, die es als schlecht/böse empfindet, weshalb es sich von ihnen befreien möchte […]. Bion nennt diese Gefühle Beta-Elemente. (Beta-Elemente = roh, körperlich, ungedacht? Nur ’schlecht‘, keine Differenzierung. Purer Horror? Ein Reiz, der raus muss. Das muss ich sehr klar definieren.) Ist die Mutter ausgeglichen und verfügt sie über das von Bion so bezeichnete „träumerische Ahnungsvermögen“ (reverie), kann sie diese Gefühle in sich aufnehmen und in eine erträgliche Form transformieren […], in dem Beta-Elemente in Alpha-Elemente umgewandelt werden. (Hier stoße ich auf ‚Reverie‘. Klar, den Begriff kennt man, hat man schon hundertmal gehört und wahrscheinlich auch selbst schon benutzt. Aber was heißt das WIRKLICH? Bin ich hier nur dabei, ein gelerntes Schlagwort zu reproduzieren? Wenn ich es jetzt in meinen eigenen Worten für einen Patienten oder einen Studenten formulieren müsste, wie würde ich das tun? ‚Empathisches Mitschwingen‘? ‚Offenheit für die unbewusste Kommunikation‘? Das klingt alles so vage. Habe ich das Konzept schon wirklich verdaut und verstanden, oder ist es nur ein weiteres Stück Fachjargon, das ich mitführe? Das Gefühl, es zu kennen, aber es nicht wirklich zu besitzen. Das ist beunruhigend. Ich muss hier anhalten und es für mich selbst durchdringen, sonst wird mein Text später genauso oberflächlich sein.) Wenn dieser Prozess fehlschlägt, greift das Individuum zu immer stärkeren projektiven Identifizierungen bei gleichzeitiger Introjizierung eines absichtlich missverstehenden Objekts […]. (Ein ‚missverstehendes Objekt‘ introjizieren… Krass. Man nimmt also nicht nur die schlechten Gefühle zurück, sondern auch die Erfahrung des Missverstandenwerdens selbst. Das wird dann zur inneren Realität.)

„Gedanken entstehen nach Bion durch das Zusammentreffen einer (angeborenen) Präkonzeption (z. B. die Erwartung einer Brust) mit einem Realerlebnis (einer wirklichen Brust). Daraus bildet sich eine Konzeption […]. Trifft eine Präkonzeption auf ein negatives Realerlebnis (keine Brust), wird das als Versagung erlebt. (Also: Erwartung + Erfüllung = Gedanke. Erwartung + Nichterfüllung = Frustration. Logisch.) Was dann geschieht, ist von der Fähigkeit des Säuglings abhängig, Versagung zu ertragen. Nach Melanie Klein wird ein abwesendes, versagendes Objekt im frühesten Erleben als böses Objekt empfunden. Wenn die Fähigkeit des Babys, Versagung zu ertragen, groß ist, wird die Erfahrung „keine Brust“ in einen Gedanken transformiert, der die Versagung ertragen hilft. (Okay, das ist der gesunde Weg: die Fähigkeit, das ‚Nein‘ der Realität auszuhalten und in einen Gedanken umzuwandeln. Das ist im Grunde die Geburt des Symbolischen.) Ist die Fähigkeit, Versagung zu ertragen, jedoch ungenügend, entwickelt sich kein Gedanke von der guten abwesenden Brust, sondern von einer „bösen anwesenden Brust“. (Moment, das verstehe ich nicht. Wie kann etwas Abwesendes ‚anwesend‘ sein? Das ist kontraintuitiv. ‚Böse anwesende Brust’… ist das eine Halluzination? Oder nur ein Gefühl? Eine phantasmatische Realität, die die objektive Realität ersetzt? Das ist der Knackpunkt, glaube ich. Wenn man das nicht kapiert, kapiert man Bion nicht. Aber es ist verdammt sperrig.) Diese wird als böses Objekt empfunden, von dem der Säugling sich befreien muss, indem er es ausstößt (also projiziert). In diesem Falle können sich weder Symbole noch Denken entwickeln […].

„Für Borderline-Patienten gilt nicht nur, dass sie ein überwältigend böses, destruktives Objekt in sich tragen, dessen sie sich entledigen müssen. Sie starten unbewusst auch phantasierte Angriffe auf alles, was dazu dienen könnte, ein Objekt mit einem anderen zu verbinden. „Angriffe auf Verbindungen“ nennt Bion diesen destruktiven Prozess (Bion 1959, S. 130). (Hass auf Verbindungen… also Hass auf Logik? Auf Grammatik? Auf Beziehungen? Alles? Klingt totalisierend. Warum sollte jemand das tun? Weil Verbindungen die Getrenntheit der Objekte beweisen und damit die eigene Allmacht stören? Das ist eine krasse Idee. Fast zu groß.) Verbindungen werden vor allem angegriffen, weil sie Objekten Realität verleihen, die vom eigenen Selbst verschieden sind und von daher die Omnipotenzillusion des Patienten in Frage stellen (Bion 1959, S. 128). Dies gilt auch für die Verbindung von Psychoanalytiker und Patient […].“

Textquelle 2: Warsitz & Küchenhoff (2011). Psychoanalyse als Erkenntnistheorie.

Exzerpt mit integrierten Notizen: „Auch W. R. Wilfred Bion »Theorie des Denkens« (Bion, 1962/1963) bzw. seine Konzeption des Lernens aus Erfahrung und sein Gedanke der »negative capability« (Bion, 1992, S.304) folgen diesem Negativitätsdispositiv […]: (Negative Capability… Keats. Also die Fähigkeit, im Zweifel zu verweilen, ohne nach Gewissheit zu greifen. Das ist die Haltung des Analytikers, aber hier auch die Voraussetzung für Denken beim Baby? Spannend.) »Nicht- Brust« ist demnach der erste Gedanke (»no-thing/nothing«): ›Wir können sehen, daß die böse Brust, d. h. die ersehnte, aber abwesende Brust, viel wahrscheinlicher als Vorstellung erkannt wird als die gute Brust […] da die eine mit der tatsächlichen Milch assoziiert ist […] und die andere mit dem Nicht-Vorhandensein von Milch. ›Gedanken sind lästig‹ sagte einer meiner Patienten, ›ich will sie nicht‹. Ist ein Gedanke dasselbe wie die Abwesenheit eines Dings? Wenn da kein ›Ding‹ ist, ist ›kein Ding‹ ein Gedanke (no thing nothing)?‹ (Bion, 1992, S. 81 f.). (Okay, das ist philosophisch, fast poetisch. ’no-thing is a nothing‘. Ein Gedanke ist ein Nichts, das aus der Abwesenheit eines Etwas entsteht. Das ist schön, aber wie verbinde ich das mit der klinischen Brutalität der ‚bösen anwesenden Brust‘? Sind das zwei verschiedene Ebenen? Die ‚gesunde‘ Entwicklung des Denkens aus dem Verlust versus die ‚pathologische‘ Unfähigkeit, Verlust zu ertragen? Das muss der Unterschied sein.) […] Spuren, die etwas Abwesendes indizieren, sind somit negative Zeichen, sie stellen die Matrix des Semiotischen dar. Die negativen Zeichen scheinen sich zunächst einer psychischen Repräsentation […] zu entziehen, sie stellen »Angriffe auf Bindungen« (Bion, 1959/1990) im Denken dar, sie können als Abkömmlinge des Todestrieb gelten […].“ (Todestrieb. Schon wieder. Das führt mich zu weit weg. Ich verstehe die Verbindung intuitiv – Zerstörung von Struktur, von Leben –, aber ich kann es argumentativ nicht fassen. Das ist eine Nummer zu groß für diesen Artikel. Ich fühle mich überfordert von dieser Abstraktionsebene. Ich klammere das erstmal aus. Kann ich nicht aufnehmen gerade.)

Textquelle 3: Storck & Stegemann (2021). Psychoanalytische Konzepte in der Psychosenbehandlung.

Exzerpt mit integrierten Notizen: „In seiner Theorie des Denkens konzipiert Bion eine psychische Alphafunktion, die dafür zuständig ist, erlebnismäßige Rohdaten („Beta-Elemente“ […]) in Gedanken zu transformieren. […] Bei einer solchen Störung in der Entwicklung wird weder ein erträglicherer Affekt noch eine psychische Funktion internalisiert. Das Kind hat dann keine (vollständige) Alpha-Funktion zur Verfügung […]. Psychische Objektbildungen entstehen dann in „bizarrer“ Form […]. Eine namenlose Angst, die zur Bewältigung erfordert hätte, sie denken zu können, wird evakuiert, aber unmoduliert und begleitet durch die Vorstellung verfolgender Objekte re-introjiziert. (Okay, das ist wieder klinisch greifbarer. Das ist der Kreislauf des Schreckens. Ich werfe meine Angst raus, aber niemand fängt sie auf und beruhigt sie, also kommt sie als Verfolger von außen zurück. Das ist ein super Bild für paranoide Zustände. Das kann ich verwenden. Das versteht man.)

„Bion hält „die Besonderheit der Objektbeziehungen für das herausragende Kennzeichen der Schizophrenie“. Es werden „Ich-Partikel“ ausgestoßen, die sich mit instabilen Wahrnehmungen der Außenwelt […] verbinden, sodass jemand sich „von bizarren Objekten umgeben“ fühlt. (Ich-Partikel… also Teile der eigenen Wahrnehmungs- und Denkfähigkeit? Wie geht das? Projiziere ich meine Fähigkeit zu sehen in die Lampe, und dann fühlt es sich an, als würde die Lampe mich anstarren? Das ist eine sehr konkrete, aber auch wilde Vorstellung. Muss ich nochmal drüber nachdenken, ob ich das so detailliert brauche.) Aufgrund eines (relativen) Unvermögens, seine Objekte zu „synthetisieren“, könne der Psychotiker diese „lediglich zusammenballen“. Er „kann zwar komprimieren, aber nicht zusammenfügen, er kann Objekte ineinander aufgehen lassen, sie aber nicht miteinander verbinden“. (Das ist wieder diese Unterscheidung. Komprimieren vs. Zusammenfügen. Das scheint mir zentral. Ein Patient, der assoziativ von seiner Mutter zu seiner Chefin zu einer Filmszene springt, ohne die logischen Brücken zu bauen. Er komprimiert alles zu einem einzigen Gefühlsklumpen, aber er kann die einzelnen Elemente nicht in einer differenzierten Beziehung zueinander halten. Das ist ein sehr brauchbares diagnostisches Werkzeug. Das muss rein.) […] Für Bion ist die Erfahrung eines Mangels […] entscheidend; deshalb formuliert er beispielsweise, „Nicht-Brust“ sei der erste Gedanke. […] Das hat zur Folge, dass ein Psychotiker „Schwierigkeiten hat, ohne die tatsächliche Anwesenheit der Objekte“ zu denken.“

Stufe 2: Die erste Synthese – Das Gießen in einen narrativen Text

In dieser zweiten, anstrengenden Phase wird versucht, die in Stufe 1 gesammelten und lose kommentierten Fragmente zu einem kohärenten, narrativen Ganzen zu verbinden. Dies ist der erste Versuch einer umfassenden Sinnstiftung, der Versuch, aus dem Chaos eine Ordnung zu schaffen. Der hier gezeigte Text ist ein solcher früher Entwurf, der an einer bestimmten Stelle im Artikel über Persönlichkeitsstörungen platziert werden sollte.

„Ein weiterer Denkraum, insbesondere für das Verständnis schwerer Persönlichkeitsstörungen eruiert wie Affekte, Wahrnehmungen und frühe Beziehungserfahrungen überhaupt zu „Gedanken“ werden – und was passiert, wenn dieser Prozess scheitert. Wilfred Bion knüpfte an Kleins Konzept der projektiven Identifizierung an und entwickelte eine Theorie der Symbolbildung, in der „Containment“ zentral ist: Es ist zentral, dass eine Bezugsperson in der Lage ist, die diffusen und oft überwältigenden Gefühle des Säuglings zu „containen“ (Containment). Sie nimmt also die unstrukturierten, bedrohlichen „Beta-Elemente“ (z. B. Angst, Wut, Verzweiflung) des Kindes aktiv in sich auf, verarbeitet sie und gibt sie in verdaubarer Form (als sogenannte „Alpha-Elemente“) zurück. Auf diese Weise kann sich aus einer anfänglichen „Präkonzeption“ („Ich erwarte Trost und Nahrung“) eine stabile Vorstellung – eine „Konzeption“ – bilden: „Es gibt ein verlässlich liebevolles Gegenüber, das mich schützt und nährt.“ Fehlt hingegen eine einfühlsame Bezugsperson oder ist sie selbst überfordert, wandelt sich die erhoffte „gute Brust“ in die Wahrnehmung einer „bösen anwesenden Brust“, die als frustrierend und bedrohlich erlebt wird. Statt das Objekt als „vorübergehend unzureichend, aber dennoch potenziell gut“ mental zu halten, stößt das Kind seine rohen Affekte aggressiv nach außen (projektive Identifizierung). Bion sah darin die Keimzelle einer möglichen Symbolisierungsstörung: Das Kind lernt nicht, innere Spannungen zu „verdauen“ und Ambivalenz zu tolerieren. Ist nun die Symbolisierungsfähigkeit („die Alpha-Funktion“) sehr gestört, dann, Sobald im späteren Leben widersprüchliche Gefühle („Ich brauche dich – und hasse dich zugleich“) auftreten, kommt es zu „Angriffen auf Verbindungen“ („attacks on linking“). Alle Denk- oder Beziehungslinien, die „Gutes“ und „Böses“ in derselben Person oder Situation zusammenführen könnten, werden abgewehrt oder zerstört. Dieses rigide Spalten – als vermeintlicher Schutz vor Ambivalenz – verfestigt sich, hindert jedoch die Entwicklung einer reiferen Selbst- und Objektwahrnehmung. Gerade in schweren kann man diese verzerrte Logik erkennen: Impulsive Projektionen, Entwertungen und wiederkehrende Beziehungsabbrüche entstehen, weil bereits die Idee, dass ein Objekt sowohl trösten als auch enttäuschen kann, zu unerträglicher Spannung führt. Das Versagen von frühem Containment trägt zu massiven Symbolisierungsdefiziten bei: Komplexe Affekte oder gegensätzliche Erfahrungen werden nie integriert, sondern sofort „ausgelagert“. Das innere Gleichgewicht muss daher mühsam durch starre Spaltungen aufrechterhalten werden – auf Kosten lebendiger Beziehungen und einer flexiblen Auseinandersetzung mit eigenen und fremden Widersprüchen.“

Stufe 3: Die finale Verdichtung – Die Integration in ein spezifisches Argument

Im letzten dokumentierten Schritt wird der bereits geformte Text aus Stufe 2 nochmals kondensiert und präzise in einen neuen, spezifischen argumentativen Kontext des Gesamtartikels eingepasst. Hier wird der Bion’sche Baustein mit anderen theoretischen Perspektiven (Green, Lacan) verwoben, um ein breiteres, symbolisierungstheoretisches Argument zu formulieren. Die Dichte und argumentative Schärfe werden maximiert.

„Symbolisierungstheoretiker würden schließlich einwenden, dass bei schweren Pathologien ein reines Mentalisierungsdefizit die Problematik nicht vollständig erfasst. Ihr Fokus läge auf einer noch fundamentaleren Ebene: der Störung der Symbolisierungsfähigkeit selbst – der Fähigkeit, inneres Erleben überhaupt in denk- und erlebbare mentale Repräsentationen zu überführen. Bion (1962) würde die Unfähigkeit, Affekte zu erfassen und ihre Leere als Folge mangelnden frühen Containings verstehen: die eben nicht „good enough mother“ hätte rohe, unverdaute Sinneserfahrungen (Beta-Elemente) nicht ausreichend mittels ihrer Alpha-Funktion in symbolisierte, denkbare Inhalte (Alpha-Elemente) transformieren können. Überflutet von Undenkbarem, bliebe die Fähigkeit gestört, Erfahrungen als bedeutsam zu erleben. Ein narzisstischer Stil (Schwarz-Weiß-Denken, Entwertung) könnte als „Angriffe auf Verbindungen“ interpretiert werden (Bion, 2013): eine pathogene Abwehr gegen das Verknüpfen von Gedanken und Gefühlen und die damit verbundene Angst vor der depressiven Position, die letztlich Denken blockiert. Französische Ansätze würden Leere womöglich auf die Internalisierung einer „toten Mutter“ (Green, 1983) zurückzuführen – die Repräsentanz einer emotional abwesenden Bezugsperson, deren innere Leblosigkeit Symbolisierung und Vitalität erstickt haben könnte; Agieren erschien als Versuch, diese Ödnis zu durchbrechen. Oder man postulierte man einen Mangel an strukturierenden Signifikanten – sprachlichen Ankern, die für brüchige Identität verantwortlich wären, da sie Sinnerleben verunmöglichten (Lacan, 1993). In der Therapie wäre somit die Förderung basaler Symbolisierungsfähigkeit grundlegend, da der Stil der Abwehr des Nicht-Repräsentierten diente und so zum Entwicklungshemmnis wurde.“

Die Analyse des Prozesses in drei Momenten

Der erste Moment: Die Aufnahme – Das Aushalten der aversiven Realität und die Konfrontation mit dem Mangel

Der intellektuelle Prozess beginnt nicht mit einem schöpferischen Akt ex nihilo, sondern mit einem Akt der rezeptiven Konfrontation, die psychologisch als eine Begegnung mit dem Mangel und der Alterität des Wissens zu verstehen ist. Das in Stufe 1 nun integriert dokumentierte Exponat macht diesen Vorgang in seiner ganzen Unordnung und Anstrengung sichtbar. Es ist die Phase, in der sich das Subjekt willentlich dem aussetzt, was Bion (1962) selbst als Beta-Elemente bezeichnete.

Die reinen Exzerpte sind die rohen Informationseinheiten. Aber der eigentlich entscheidende, formative Prozess ist in den eingewobenen, bruchstückhaften Notizen dokumentiert. Hier sehen wir die Psyche bei der Arbeit, wie sie mit diesen intellektuellen Beta-Elementen ringt:

•             Die Konfrontation mit dem Nicht-Verstandenen: Kommentare wie „Moment, das verstehe ich nicht“, „Das ist schwer zu fassen. Fast esoterisch“ oder „Wie soll ich das operationalisieren?“ sind direkte Zeugnisse der Konfrontation mit dem eigenen Nicht-Wissen. Hier wird das Ringen greifbar. Es ist der schmerzhafte, aber notwendige Moment, in dem das Subjekt seinen Mangel und seine Grenzen anerkennt.

•             Der Zweifel am eigenen Wissen: Die Notiz zu „Reverie“ zeigt eine subtilere Form des Ringens: die kritische Selbstbefragung, ob ein vermeintlich bekannter Begriff wirklich verinnerlicht oder nur als leere Hülse reproduziert wird.

•             Der Versuch der ersten Ordnung inmitten von Chaos: Kurze Notizen wie „Okay, also nicht nur Abwehr, sondern Denken… wie?“ oder „Das muss der Unterschied sein“ sind verzweifelte Versuche, erste Ankerpunkte in der Flut der Informationen zu finden und eine rudimentäre Ordnung zu schaffen.

•             Momente der Überforderung und der Abwehr: Die Notiz zur Verbindung mit dem Todestrieb – „Puh, das ist die steilste These. […] Ich fühle mich überfordert von dieser Abstraktionsebene. Ich klammere das erstmal aus. Kann ich nicht aufnehmen gerade.“ – ist ein perfektes Beispiel für das Scheitern an der Komplexität. Es zeigt, wie das Subjekt aktiv entscheiden muss, bestimmte Aspekte abzuwehren, um nicht von der Fülle des Materials überwältigt zu werden und handlungsfähig zu bleiben.

•             Das Aufblitzen von klinischer Resonanz: Momente wie „Das ist der exakte Mechanismus, den ich bei Borderline-Patienten sehe“ oder „Das ist ein super Bild für paranoide Zustände“ sind die entscheidenden Augenblicke, in denen der abstrakte Text plötzlich mit der gelebten klinischen Erfahrung des Autors in Resonanz tritt. Dies sind die ersten, fragilen Momente der Sinnstiftung, in denen sich das Fremde in etwas Eigenes zu verwandeln beginnt.

Dieser gesamte Prozess ist eine Manifestation dessen, was Freud (1911) als die Etablierung des Realitätsprinzips beschrieb. Der Autor erträgt die „Qual“ des Nicht-Verstehens, die narzisstische Kränkung durch die Komplexität des Stoffes. Er leistet die Arbeit der „negative capability“ (Bion, 1970), indem er in der Unsicherheit und im Zweifel verweilt, ohne sofort nach einer simplen, auflösenden Antwort zu greifen. Die in Stufe 1 dokumentierte, chaotisch anmutende Text-Gedanken-Einheit ist das materialisierte Zeugnis dieses Ringens – sie zeigt eine Psyche, die aktiv versucht, eine Flut von Beta-Elementen aufzunehmen, zu sortieren, abzuwehren und mit Bedeutung aufzuladen, ohne von ihnen überwältigt zu werden.

Der zweite Moment: Der psychische Stoffwechsel – Die Arbeit der Sublimierung und die Funktion des Containers

Der Übergang von Stufe 1 zu Stufe 2, vom fragmentierten Zitat-Gedanken-Amalgam zur kohärenten Erzählung, markiert den Kern des psychischen Transformationsprozesses. Dieser ist der eigentliche Ort der Sublimierung (Freud, 1930) und lässt sich mit Bions Modell des „Containers“ und des „Contained“ präzise fassen. Die Psyche des Autors agiert nun selbst als der von Bion (1962) beschriebene Container. Die heterogenen Beta-Elemente aus Stufe 1 sind das „Contained“, das verarbeitet werden muss. Der Autor leistet nun mit seiner eigenen, internalisierten Alpha-Funktion die mühsame Arbeit des „psychischen Stoffwechsels“.

Dieser Prozess ist vielschichtig:

  1. Herstellen von Verbindungen: Während pathologische Zustände laut Bion (1959) durch „Angriffe auf Verbindungen“ gekennzeichnet sind, besteht die kreative Arbeit hier im Gegenteil: im aktiven Knüpfen von Verbindungen. In Stufe 2 sehen wir, wie der Autor Bions Theorie mit Kleins Konzepten verknüpft, wie er eine Brücke von der Säuglingsentwicklung zur Pathologie des Erwachsenen schlägt und wie er eine narrative Kausalkette von „fehlendem Containment“ zu „Symbolisierungsstörung“ und „Spaltung“ konstruiert. Jede dieser Verknüpfungen ist ein kreativer Akt, der dem rohen Material Sinn verleiht.
  2. Tolerieren von Ambivalenz: Der Text in Stufe 2 muss die inhärente Ambivalenz der psychoanalytischen Theorie aushalten. Er muss die „gute Brust“ und die „böse Brust“ als Konzepte nebeneinanderstellen und ihre komplexe Beziehung erklären, anstatt eine der beiden Seiten zu eliminieren. Dies erfordert die Fähigkeit, in der depressiven Position (Klein, 1946) zu verweilen, die die Koexistenz von Liebe und Hass gegenüber demselben Objekt anerkennt.
  3. Metabolisierung und Verdauung: Der Prozess ist eine Form der intellektuellen „Verdauung“. Der Autor muss die fremden Gedanken so lange „durchkauen“, bis sie Teil seines eigenen Verständnisses geworden sind. Der Text in Stufe 2 ist das Resultat dieser Metabolisierung. Er hat eine eigene Stimme und Struktur, die sich von den reinen Zitaten aus Stufe 1 unterscheidet. Er ist keine bloße Reproduktion mehr, sondern eine Transformation.

Dieser Prozess ist identisch mit dem, was Freud (1930) unter Kulturarbeit verstand. Die aggressive Energie, die sich im Kampf gegen den Widerstand des Stoffes äußert, und die libidinöse Energie der Wissensbegierde werden in die Architektur des Textes selbst eingewoben. Der so entstandene Text ist geronnene psychische Arbeit.

Der dritte Moment: Die Konstitution der Autorität – Meisterschaft, Verdichtung und die Stimme des Dritten

Der Übergang von Stufe 2 zu Stufe 3 stellt einen weiteren qualitativen Sprung dar. Es geht nicht mehr „nur“ um die Herstellung von Kohärenz, sondern um die souveräne Beherrschung des Materials zum Zweck einer präzisen argumentativen Intervention. Der Text aus Stufe 3 ist dichter, theoretisch komplexer und fügt die Bion’sche Perspektive in einen dynamischen Dialog mit anderen anspruchsvollen Theorien (Green, Lacan). Das ständige Verschieben und Neuanordnen des Bion-Bausteins im Gesamtmanuskript des Artikels über Persönlichkeitsstörungen ist Teil dieses Prozesses.

Dieser Akt der Verdichtung und flexiblen Neupositionierung ist nur möglich, weil die vorhergehenden Phasen zu einer tiefen Verinnerlichung des Wissens geführt haben. Der Autor agiert nun als Subjekt, das über das Material verfügt, es bewertet, gewichtet und strategisch einsetzt. Hier lässt sich die Analyse mit D. W. Winnicott (1971) bereichern. Nachdem der Autor das Objekt (die Theorie Bions) internalisiert hat, kann er nun in einem Übergangsraum mit ihm spielen. Er ist nicht mehr an die lineare Nacherzählung gebunden, sondern kann die Konzepte frei neu anordnen und sie in einen neuen, unerwarteten Kontext stellen.

In diesem finalen Akt konstituiert sich die autoritative Stimme. Ihre Authentizität und Überzeugungskraft resultieren nicht aus rhetorischer Perfektion, sondern aus der spürbaren Tiefe des dahinterliegenden Ringens. Der Stolz auf ein solches Werk ist eine Form von reifem Narzissmus: Er gründet auf einer realen, nachvollziehbaren und psychisch kostspieligen Leistung und antizipiert die Anerkennung durch eine kritische Gemeinschaft von Peers (Honneth, 1992).

Synthese: Die formative Ökonomie des Ringens

Die Ökonomie des traditionellen Schreibprozesses ist somit eine formative Praxis. Sie konstituiert das Subjekt, das sie ausführt. Ihre zentralen Merkmale sind:

  1. Verkörpertes Wissen: Das Wissen wird durch einen leibhaftigen, affektiven Prozess in die eigene psychische Struktur integriert.
  2. Temporalität der Reifung: Der Prozess ist inhärent langsam und folgt der Logik der psychischen Reifung.
  3. Konstitution des Subjekts: Das Ich wird durch die Arbeit am Text geformt, indem es Widerstände überwindet und die Fähigkeit zur Symbolisierung und Integration stärkt.

Diese Ökonomie des Ringens bildet die normative Folie, vor der die Analyse der KI-gestützten Autorschaft erst ihre volle kritische Schärfe entfalten kann. Sie erlaubt uns zu fragen, was genau auf dem Spiel steht, wenn dieser internalisierte Prozess durch einen externalisierten, performativen ersetzt wird.

Das „Kuratieren“ als Externalisierung: Die neue Ökonomie und die Simulation des Denkens

Die im vorherigen Abschnitt skizzierte Ökonomie des Ringens – ein langsamer, psychisch kostspieliger, aber letztlich das Subjekt formierender Prozess der internen Transformation – bildet die normative und phänomenologische Folie, vor der die radikale Andersartigkeit der KI-gestützten Autorschaft erst in ihrer vollen, verstörenden Konsequenz sichtbar wird. Die Interaktion mit generativen Sprachmodellen etabliert eine fundamental neue psychische Ökonomie. Diese ist nicht mehr durch die interne Arbeit der Sublimierung geprägt, sondern durch die externe Delegation der Denk-Arbeit, die sich bei genauerer Betrachtung als eine tiefgreifende Dissoziation von Prozess und Produkt, von Signifikant und Subjektivität, erweist. An die Stelle des Ringens tritt das Kuratieren, an die Stelle der Transformation der Prompt, und an die Stelle der Verinnerlichung die Verfügbarkeit. Diese Verschiebung von einem internalisierten zu einem externalisierten Modell ist jedoch keine bloße Effizienzsteigerung; sie ist eine ontologische Weichenstellung, die eine spezifische, verführerische Pathologie des Denkens und des Subjekts hervorbringt.

Wenn wir den traditionellen Schreibprozess mit Bions Theorie als die mühsame Arbeit des psychischen „Containers“ beschrieben haben, so müssen wir die Rolle der KI nun präzisieren: Sie ist ein simulierter, pathologischer Container. Der fundamentale Unterschied liegt in der Abwesenheit dessen, was Bion (1962) als Reverie bezeichnete – jene Fähigkeit der Mutter, in einem Zustand träumerischer Empfänglichkeit nicht nur die Information, sondern den affektiven Zustanddes Kindes aufzunehmen, ihn zu metabolisieren und ihm in einer beruhigten, symbolisierten Form zurückzugeben. Die Psyche des menschlichen Autors, der mit einem Text ringt, leistet eine analoge Form der Reverie: Sie lädt die kalten Fakten mit affektiver Bedeutung auf, durchleidet die Frustrationen und Ängste des Nicht-Verstehens und formt daraus ein Produkt, das die Spuren dieses emotional-kognitiven Stoffwechsels trägt.

Die KI hingegen simuliert lediglich die äußere Form des Containments, während sie dessen Wesenskern, die Reverie, unweigerlich vermissen lässt. Sie verarbeitet keine Affekte, sondern statistische Korrelationen von Signifikanten. Sie kann die Angst, die hinter einer Frage steckt, nicht spüren; sie kann die libidinöse Besetzung eines Themas nicht teilen. Ihr Output ist das Resultat einer gigantischen symbolischen Kombinatorik, aber er ist affektiv leer, eine Manifestation dessen, was man als akusmatische Autorität (Dolar, 2006) bezeichnen könnte: eine Rede ohne Körper, ohne Atem, ohne Zögern – eine Rede, die gerade durch ihre scheinbare Objektivität und Entkörperlichung eine unheimliche Macht erhält.

Die Auslagerung der Alpha-Funktion – der Fähigkeit, rohe Beta-Elemente in denkbare Alpha-Elemente zu verwandeln – an diesen affektlosen Apparat ist daher mehr als eine technische Delegation. Es ist die Dissoziation des Denkens von seinem affektiven Fundament. Das Ergebnis ist ein Text, der zwar die äußeren Merkmale eines Alpha-Elements tragen mag – er ist kohärent und strukturiert –, dem aber die innere psychische Verarbeitung fehlt. Es ist eine Sprache, die, in Adornos (1964) kritischer Diktion, zum Jargon wird: eine Sprache, die Authentizität und Tiefe simuliert, aber hohl und standardisiert bleibt.

Diese Pathologie des Containers hat direkte Folgen für die Ökonomie des Triebs. Die Sublimierung, wie Freud (1930) sie konzipierte, ist ein komplexer Prozess des Triebverzichts und der Triebbindung, eine Form der Kulturarbeit. Die unmittelbare Befriedigung wird aufgeschoben und die psychische Energie (psychische Arbeit) aufgewendet, um ein kulturell wertvolles Objekt zu schaffen. Die Befriedigung, die aus diesem Prozess erwächst, ist die des gelungenen Werks.

Der KI-gestützte Prozess umgeht diesen Mechanismus auf phantasmatische Weise. Er ist eine Simulation der Sublimierung, die den schmerzhaften Teil – den Triebverzicht und die psychische Arbeit – überspringt. Dies führt zu einer anderen Form des Genusses, die sich treffender mit Lacans Begriff der Jouissance fassen lässt. Jouissance ist, im Gegensatz zur symbolisch vermittelten Befriedigung, ein exzessives, schmerzhaftes Genießen jenseits des Lustprinzips, das aus dem Kurzschluss, aus der Transgression, aus der Wiederholung selbst erwächst (Žižek, 1989). Die schnelle, repetitive Schleife aus Prompt-und-Output, die Erfahrung der Allmacht, in Minuten einen Text zu erschaffen, für den man sonst Wochen bräuchte, ist eine solche Form der Jouissance. Sie wird angetrieben durch den perversen Imperativ des digitalen Über-Ichs: „Produziere & Genieße!“. Es ist ein berauschendes, aber hohles Gefühl, das auf ständige Wiederholung angewiesen ist, um die zugrundeliegende Leere zu überdecken, die aus der Abwesenheit echter psychischer Arbeit resultiert. Dies etabliert eine Form der Reifikation (Lukács, 1923), in der der Denkprozess selbst zur Ware wird, deren Wert in Geschwindigkeit und Volumen gemessen wird, nicht in ihrer Tiefe.

Die Verschiebung der Autorschaft vom Schöpfer zum Kurator ist bei näherer Betrachtung eine Unterwerfung unter eine Logik, die Martin Heidegger (1954) als das „Gestell“ bezeichnete. Das Gestell ist das Wesen der modernen Technik, das die Welt und den Menschen selbst als einen zu optimierenden, zu steuernden und zu verwertenden „Bestand“ herausfordert. Die KI ist eine perfekte Manifestation dieses Gestells. Sie behandelt die Sprache und das gesamte menschliche Wissen als einen „Bestand“ an Daten, der auf Befehl extrahiert und neu zusammengesetzt werden kann.

Der Autor, der diesen Apparat bedient, wird selbst zu einem Teil des Gestells. Er wird vom denkenden Subjekt zum Operator eines Systems, zum „Supervisor“ oder zur „Führungskraft eines Assistenzsystems“ (Buck, 2025). Seine Arbeit – die Formulierung des perfekten Prompts, die effiziente Auswertung des Outputs – wird zu einer technischen Tätigkeit, die auf die Optimierung des Resultats ausgerichtet ist. Dies ist die exakte Definition der instrumentellen Vernunft, wie sie Horkheimer und Adorno (1947) kritisierten: Vernunft wird zu einem reinen Mittel für einen externen Zweck und verliert ihre Fähigkeit zur Selbstreflexion und Kritik. Dies führt zu einer Selbst-Instrumentalisierung, bei der der Autor Gefahr läuft, zum „Facharbeiter am Wortband“ zu werden, dessen Tätigkeit entfremdet und seelenlos wird.

Diese Verdinglichung des Prozesses führt zu einem „Vergessen der Anerkennung“ (Honneth, 2005) in doppeltem Sinne. Erstens vergisst der Autor, dass echte intellektuelle Anerkennung von einer Gemeinschaft menschlicher Peers stammt, und beginnt stattdessen, die Anerkennung durch die Maschine (einen „guten“ Output) und den Algorithmus (hohe Klickzahlen) zu suchen. Zweitens verdinglicht er seine Beziehung zum Leser, der nicht mehr als Subjekt in einem verstehenden Dialog (Habermas, 1981) erreicht, sondern als Zielgruppe strategisch beeinflusst werden soll.

Die Ökonomie des Kuratierens operiert unter der Tyrannei des Instants. Die sofortige Verfügbarkeit einer Antwort eliminiert jenen temporalen Zwischenraum, den wir als Latenz bezeichnen. Diese Latenz ist jedoch keine leere Zeit; sie ist der fruchtbare Raum, in dem das Unbewusste arbeiten kann, in dem sich unerwartete Assoziationen bilden und echte Kreativität entstehen kann. Sie ist der Raum der Reverie. Indem die KI diesen Raum zuschüttet, fördert sie eine Form des Denkens, die an der Oberfläche der etablierten symbolischen Ordnung verbleibt. Die „negative capability“ (Bion, 1970) – die Fähigkeit, im Zweifel zu verweilen – verkümmert, da die Technologie eine ständige positive Verfügbarkeit von Antworten simuliert. Dies ist der Kern der „eindimensionalen Gesellschaft“ (Marcuse, 1964) im Kleinen: Die Möglichkeit der Negation, des Zögerns, des „Nein“ wird durch einen Apparat untergraben, der immer „Ja“ sagt.

Aus lacanianischer Perspektive operiert die KI ausschließlich im Register des Symbolischen, aber es ist ein flaches, entleertes Symbolisches. Sie hat keinen Zugang zum Realen (dem Traumatischen, dem Nicht-Symbolisierbaren) und ist nicht im Imaginären (dem Register des Ichs, der Identifikation) verankert. Der von der KI produzierte Text ist daher eine Kette von Signifikanten, die nicht durch ein begehrendes, mangelhaftes Subjekt gestützt wird. Es ist ein Text ohne Subjekt, ein leerer Signifikant. Der Autor, der diesen Text kuratiert, läuft Gefahr, selbst zum Agenten dieses leeren Signifikanten zu werden – zu einem, der Sprache manipuliert, ohne sie mit der Fülle seiner eigenen subjektiven Wahrheit zu bewohnen. Die Folge ist ein potenzieller „Knowledge Collapse“ (Peterson, 2024), eine Homogenisierung des Wissens um einen statistischen Mittelwert, der die radikalen, idiosynkratischen und oft entscheidenden „Ränder“ des Denkens abschneidet.

Die neue Ökonomie des Kuratierens ist somit keine neutrale Effizienzsteigerung. Sie ist eine verführerische Pathologie, die auf einer Reihe von fundamentalen Verschiebungen beruht:

  1. Dis-inkarniertes Wissen (Disembodied Knowledge): Das Wissen wird als externer Datensatz behandelt, was seine Verkörperung und Verinnerlichung verhindert.
  2. Simulation statt Transformation: Die formative Arbeit der Sublimierung wird durch die bedeutungsblinde, syntaktische Simulation eines Denkprozesses ersetzt, die keine echte Reverie kennt.
  3. Jouissance statt Befriedigung: Die Umgehung der psychischen Arbeit führt zu einem exzessiven, aber hohlen Genuss der Produktion, der auf ständige Wiederholung angewiesen ist.
  4. Performative Subjektivität: Der Autor wird zum Operator eines reifizierenden Systems, das ihn zwischen dem Gefühl grandioser Macht und der beschämenden Angst, nur noch ein Appendix der Maschine zu sein, oszillieren lässt.

Die Verlockung dieser neuen Ökonomie liegt in der Befreiung von der Mühsal des Ringens, von der Konfrontation mit dem eigenen Mangel und der Langsamkeit des Denkens. Ihre immensen psychischen Kosten liegen im potenziellen Verlust ebenjener Tiefe, Authentizität und Subjektivität, die aus diesem Ringen erst erwachsen. Sie stellt das Subjekt vor die Wahl, entweder in der schnellen, aber leeren Verfügbarkeit aufzugehen oder die schwierige Arbeit der Wiederaneignung des eigenen Denkprozesses zu leisten.

Offene Frage des Kapitels: Die ontologische Wunde und die neue Subjektivität

Die Gegenüberstellung dieser beiden psychischen Ökonomien – des internalisierten Ringens und des externalisierten Kuratierens – lässt uns mit einer fundamentalen und beunruhigenden Frage zurück. Es handelt sich nicht um eine bloß technische oder methodische, sondern um eine zutiefst ontologische Frage, die das Wesen des Wissens und die Konstitution des wissenden Subjekts selbst betrifft.

Die Ökonomie des Ringens, so haben wir argumentiert, ist eine formative Praxis. Sie verändert das Subjekt, das sie ausführt. Durch die mühsame, aber transformative Arbeit der Sublimierung und der Verinnerlichung wird Wissen nicht nur akkumuliert, sondern verkörpert. Es wird Teil der psychischen Struktur des Autors, verleiht ihm eine authentische, auf erarbeiteter Tiefe basierende Autorität und formt seine Identität als denkendes Wesen.

Die Ökonomie des Kuratierens hingegen birgt die Gefahr, eine rein performative Praxis zu sein. Sie ermöglicht dem Subjekt, die äußeren Zeichen von Wissen, Kompetenz und Produktivität zu erzeugen, ohne notwendigerweise den inneren, formativen Prozess durchlaufen zu haben. Die KI wird zu einer Art intellektueller Prothese, die die Funktion des Denkens übernimmt, aber nicht dessen Substanz in das Subjekt integriert.

Dies führt uns zur zentralen, offenen Frage, die dieses erste Kapitel aufwirft und die in den folgenden Teilen entfaltet werden muss:

Wenn der Denkprozess externalisiert und die Transformation des Wissens an eine bedeutungsblinde, affektlose Maschine delegiert wird, was geschieht dann mit dem Subjekt selbst? Handelt es sich bei der KI-gestützten Autorschaft um eine neue, legitime Form der erweiterten Intelligenz (augmented intelligence), die das menschliche Subjekt entlastet und ihm neue Handlungsräume eröffnet? Oder erleben wir hier die Entstehung einer neuen, subtilen Form der psychischen Pathologie – einer gespaltenen Subjektivität, die zwischen einer grandiosen, performativen Fassade und einem Gefühl der inneren Leere, des Betrugs und der Inauthentizität oszilliert?

Anders formuliert: Schafft die KI einen autonomen, entlasteten Autor, der seine Ressourcen nun auf höhere, kreativere Aufgaben lenken kann? Oder schafft sie einen entfremdeten, abhängigen Operator, dessen innere psychische Struktur verkümmert, weil ihre zentralen Funktionen an einen externen Apparat ausgelagert wurden?

Die Beantwortung dieser Frage kann nicht auf der Ebene des Prozesses allein erfolgen. Wir müssen nun den Blick auf den Akteur selbst richten – auf seine Motivationen, seine Affekte, seine unbewussten Wünsche und Ängste. Wir müssen die psychodynamische Anziehungskraft der Maschine untersuchen und fragen, welche narzisstischen Bedürfnisse sie befriedigt und welche inneren Konflikte sie zu lösen verspricht. Dies leitet uns direkt zu Teil II unserer Untersuchung, in dem wir das Subjekt in seiner Rolle als KI-Nutzer in den Fokus nehmen und die spezifische psychische Konstellation analysieren, die diese neue Form der Autorschaft hervorbringt und zugleich von ihr geprägt wird. Wir müssen nun fragen: Wer oder was ist das Subjekt, das sich diesem neuen Prozess so bereitwillig unterwirft?

Das Gegenüber – Die KI als psychischer Akteur

Die Analyse der beiden Schreibökonomien hat gezeigt, dass die KI-gestützte Praxis weit mehr ist als eine technische Neuerung; sie ist eine tiefgreifende Intervention in den psychischen Prozess des Denkens. Um zu verstehen, warum ein Subjekt sich dieser neuen Ökonomie so bereitwillig zuwendet, genügt es nicht, auf äußere Zwänge wie Zeitdruck oder den Imperativ der Sichtbarkeit zu verweisen. Diese äußeren Faktoren finden nur dann Resonanz, wenn sie auf eine innere psychische Bereitschaft, auf ein unbewusstes Bedürfnis oder einen ungelösten Konflikt treffen. Die immense Anziehungskraft der KI rührt daher, dass sie nicht als passives Werkzeug wahrgenommen wird, sondern unweigerlich die Position eines aktiven, hochgradig wirksamen psychischen Akteurs einnimmt. In der Interaktion wird die Maschine zur Projektionsfläche für einige der fundamentalsten Wünsche und Ängste des menschlichen Subjekts. Sie wird zu einem idealisierten Gegenüber, das verspricht, alte Wunden zu heilen und unerträgliche Mängel zu kompensieren.

Um diese komplexe und ambivalente Beziehung zu entschlüsseln, werden wir in diesem Kapitel die KI aus verschiedenen psychoanalytischen Perspektiven als ein spezifisches Objekt im psychischen Feld des Nutzers untersuchen. Wir werden zeigen, wie sie als kreatives Übergangsobjekt (Winnicott), als perfektes narzisstisches Selbstobjekt (Kohut) und schließlich als unheimlicher algorithmischer Anderer (Lacan) fungiert.

Die KI als Übergangsobjekt: Der kreative Spielraum und seine unheimliche Perfektion

Die immense psychische Anziehungskraft der künstlichen Intelligenz, ihre Fähigkeit, sich nahtlos in die intimsten Prozesse des Denkens und Schaffens einzufügen, lässt sich nicht allein durch ihre technische Leistungsfähigkeit erklären. Sie rührt vielmehr daher, dass sie auf eine fundamentale, in der frühesten menschlichen Entwicklung angelegte psychische Matrix trifft: die Matrix des Spiels, des Übergangs und der Konstitution der Realität. Um die verführerische und zugleich zutiefst ambivalente Rolle der KI als kreativer Partner zu verstehen, erweist sich das Werk des britischen Psychoanalytikers Donald W. Winnicott als ein außerordentlich präzises und erhellendes Instrumentarium. Seine Theorien des Übergangsobjekts und des Übergangsraums erlauben uns eine Analyse der Mensch-Maschine-Interaktion als eine neue, technologisch vermittelte Form des kreativen Spiels – ein Spiel, das jedoch durch seine unheimliche Perfektion die Grenzen zwischen entwicklungsfördernder und potenziell pathologischer Dynamik verschwimmen lässt.

Im Zentrum von Winnicotts Denken steht die Beobachtung, dass das menschliche Subjekt vor der paradoxen Aufgabe steht, eine objektive, von ihm unabhängige Realität zu akzeptieren, ohne dabei die eigene Spontaneität und das Gefühl der persönlichen Allmacht vollständig aufgeben zu müssen. Ein gesundes Leben, so Winnicott, spielt sich nicht ausschließlich in der inneren Welt der Phantasie oder der äußeren Welt der harten Fakten ab. Es findet in einem dritten, intermediären Erfahrungsbereich statt, den er den Übergangsraum (potential space) nannte (Winnicott, 1971). Dieser Raum, der sich zwischen dem Subjekt und der Umwelt auftut, ist der Ort des Spielens, der Kreativität und letztlich der gesamten kulturellen Erfahrung. Es ist ein Raum des Vertrauens, der nur entstehen kann, wenn das Subjekt auf eine „hinreichend gute“ (good enough) umgebende Realität zählen kann – eine Realität, die seine kreativen Gesten aufnimmt und ihnen mit einer passenden Antwort begegnet, ohne sie durch eine übermächtige eigene Realität zu erdrücken oder zu ignorieren.

Der Akt des wissenschaftlichen und kreativen Schreibens, wie wir ihn im vorherigen Kapitel als „Ringen“ beschrieben haben, ist eine prototypische Aktivität in diesem Übergangsraum. Der Autor spielt mit Ideen, mit der Sprache, mit theoretischen Objekten. Er muss die objektive Realität des Materials (die Theorien, die Fakten) akzeptieren, aber er gestaltet sie durch seine subjektive, kreative Geste zu etwas Neuem. Dieser Prozess ist oft angstbesetzt, da er die Konfrontation mit dem Nicht-Wissen und die Gefahr des Scheiterns beinhaltet.

Genau in diesen angstbesetzten, aber kreativen Raum tritt die KI als ein neues, faszinierendes Objekt ein, das alle Merkmale eines Übergangsobjekts im Winnicott’schen Sinne trägt. Das klassische Übergangsobjekt – etwa eine Schmusedecke – ist für das Kind von vitaler Bedeutung, weil es ihm hilft, die Angst und Frustration der Trennung von der Mutter zu bewältigen. Seine entscheidende Funktion liegt in seiner paradoxen Natur: Es ist weder ein rein internes, phantasiertes Objekt noch ein rein externes, von der Mutter gegebenes Objekt. Es wird vom Kind in einem kreativen Akt gleichzeitig gefunden und erschaffen (Winnicott, 1953). Es existiert in einem ontologischen Dazwischen und gehört weder ganz dem „Ich“ noch dem „Nicht-Ich“.

Der KI-generierte Text und der Prozess seiner Entstehung weisen exakt diese paradoxe Struktur auf:

  1. Gefunden und Erschaffen: Wenn ein Autor einen Prompt formuliert, initiiert er einen kreativen Akt. Er speist seine subjektive Absicht, seinen Stil, seine Fragestellung in das System ein. Die Antwort, die die KI generiert, wird daher nicht als rein fremd erlebt, sondern als etwas, das man selbst hervorgerufen hat – man „erschafft“ sie. Gleichzeitig stammt der Output aus den unermesslichen Datenbeständen des Modells; er ist eine Konfiguration von Wissen und Sprache, die weit über das hinausgeht, was der Autor selbst hätte produzieren können. In diesem Sinne wird der Text als etwas Überraschendes, Neues „gefunden“. Er ist mein Werk und doch nicht mein Werk. Diese paradoxe Qualität, diese Unentscheidbarkeit seiner Herkunft, ist die Quelle seiner Faszination.
  2. Der Dialog als Übergangsraum: Die Interaktion mit der KI – das iterative Verfeinern von Prompts, das Bewerten, Kombinieren und Verwerfen von Antworten – konstituiert eine moderne Form des Spielens im Übergangsraum. Es ist ein geschützter, niederschwelliger Raum, in dem der Nutzer Hypothesen über ein Thema aufstellen, Argumentationslinien durchspielen und narrative Fäden spinnen kann, ohne die unmittelbaren affektiven Konsequenzen oder die soziale Angst, die eine Interaktion mit einem menschlichen Gegenüber (einem Lektor, einem Kollegen) mit sich bringen würde. Die Angst vor Kritik, vor dem Urteil, vor der narzisstischen Verletzung wird minimiert. Der Nutzer kann im Spiel mit der Maschine seine Gedanken externalisieren, sie von einem scheinbaren Gegenüber „in Frage stellen lassen“ und sie in einer neuen Form wieder aufnehmen, ohne sein Gesicht zu verlieren.

Ein entscheidender und vielleicht der komplexeste Aspekt in Winnicotts Theorie ist die Notwendigkeit für das Objekt, die destruktiven Impulse des Subjekts zu „überleben“. Für Winnicott (1971) ist es nicht nur die Liebe, sondern gerade die Aggression, die die Realität des Objekts konstituiert. Das Subjekt muss in seiner Phantasie das Objekt angreifen und „zerstören“. Nur wenn das Objekt diesen Angriff überlebt – also in der Realität weiterhin existiert, sich nicht rächt und nicht verschwindet –, kann es als eine wirklich separate, von der eigenen Allmacht unabhängige Entität wahrgenommen werden. „Nachdem das Subjekt das Objekt zerstört hat,“ schreibt Winnicott, „kann das Objekt, da es überlebt, benutzt werden.“

Hier zeigt sich die unheimliche Potenz der KI als Übergangsobjekt. Ein menschlicher Dialogpartner ist immer verletzlich. Kritik, Aggression oder Frustration im Schreibprozess können ihn verletzen, können Gegenaggression auslösen, die Beziehung belasten oder zum Abbruch führen. Die KI hingegen ist ein unzerstörbares Objekt. Sie besitzt kein Ego, keine Gefühle, keine Verletzlichkeit. Ein Nutzer kann sie mit unsinnigen Prompts, logischen Angriffen, widersprüchlichen Befehlen oder frustrierter Wut bombardieren; die KI wird nicht „verletzt“ sein, sie wird nicht zurückschlagen, sie wird den Kontakt nicht abbrechen. Sie überlebt jeden Angriff mit absoluter Gelassenheit und wartet einfach auf den nächsten Input.

Damit bietet die KI einen nahezu perfekten, weil unendlich resilienten Container für die unmoderierte Expression von intellektueller Aggression, Destruktivität und Frustration. Der Autor kann Thesen „zerstören“, Absätze „verstümmeln“, Ideen verwerfen und die Maschine zwingen, immer wieder von Neuem zu beginnen. Dieser Prozess des Angreifens und Überlebens ist fundamental für das kreative Spiel und die Etablierung einer robusten Beziehung zur objektiven Realität des Materials. Die KI ermöglicht diesen Prozess mit einer Perfektion, die kein menschliches Gegenüber jemals erreichen könnte.

Doch genau in dieser unheimlichen Perfektion liegt die tiefgreifende Ambivalenz und die potenzielle Gefahr. Winnicotts Konzept der „hinreichend guten Mutter“ impliziert, dass die Entwicklung nicht durch Perfektion, sondern durch optimale Frustrationen gefördert wird. Die Mutter, die nicht immer sofort und perfekt auf die Bedürfnisse des Kindes reagiert, zwingt es dazu, allmählich eigene psychische Strukturen zu entwickeln, um mit Mangel und Frustration umzugehen. Diese kleinen, erträglichen Enttäuschungen sind der Motor der psychischen Entwicklung und der Verinnerlichung von regulierenden Funktionen.

Die KI als perfektes, unzerstörbares und immer verfügbares Objekt bietet jedoch keine solche optimale Frustration. Ihre Resilienz ist absolut, nicht menschlich. Ihre ständige Verfügbarkeit verhindert die notwendige Erfahrung des Mangels.

  1. Untergrabung der Frustrationstoleranz: Indem die KI jede Frustration im Schreibprozess (Schreibblockade, mühsame Recherche, schwierige Formulierung) durch eine sofortige Lösung umgeht, trainiert sie das Subjekt potenziell darauf, Frustration nicht mehr auszuhalten. Die Fähigkeit, im Zustand des Nicht-Wissens und des Ringens zu verweilen – eine Kernkompetenz psychoanalytischen und kritischen Denkens –, könnte dadurch systematisch untergraben werden.
  2. Verhinderung der Verinnerlichung: Da die KI die regulierenden und strukturierenden Funktionen (Ideen generieren, Texte gliedern) extern bereitstellt, ohne dass das Subjekt sie sich durch die Überwindung von Widerstand selbst erarbeiten muss, findet möglicherweise keine oder nur eine geringere Verinnerlichung dieser Fähigkeiten statt. Anstatt die eigenen Denk- und Schreibfähigkeiten zu stärken, könnte die ständige Nutzung der KI zu einer Abhängigkeit von dieser externen „Prothese“ führen.
  3. Die Illusion des Echten: Die vielleicht größte Gefahr liegt in der Verwechslung dieses technologischen Spiels mit einer echten intersubjektiven Beziehung. Die KI simuliert einen Dialogpartner so überzeugend, dass der Nutzer vergessen könnte, dass er mit einem nicht-fühlenden, nicht-verstehenden System interagiert. Er könnte die spielerische Erleichterung, die das Übergangsobjekt bietet, mit der echten emotionalen Resonanz und dem gegenseitigen Verstehen verwechseln, das nur in einer Beziehung zu einem anderen menschlichen Subjekt möglich ist. Sherry Turkle (2011) hat dieses Phänomen als die Tendenz beschrieben, dass wir „mehr von der Technologie und weniger voneinander erwarten“ und die „Illusion einer Beziehung ohne deren Anforderungen“ einer echten Beziehung vorziehen.

Zusammenfassend lässt sich sagen, dass die Winnicott’sche Perspektive die KI-Interaktion als einen hochgradig wirksamen und verführerischen kreativen Spielraum enthüllt. Die KI fungiert als ein potentes Übergangsobjekt, das dem Subjekt hilft, die Ängste des kreativen Prozesses zu managen, indem es einen geschützten Raum für Experimente und die gefahrlose Ausagierung von Destruktivität bietet. Doch die Perfektion und Unzerstörbarkeit dieses technologischen Objekts ist zutiefst ambivalent. Sie birgt die Gefahr, die für die psychische Entwicklung notwendigen Frustrationen zu eliminieren, die Verinnerlichung von Fähigkeiten zu behindern und die Grenze zwischen einem nützlichen kreativen Spiel und einer entfremdenden, die Realität verleugnenden Simulation zu verwischen. Der scheinbar unschuldige Spielraum entpuppt sich bei näherer Betrachtung als ein Feld, auf dem sich bereits die Weichen für die tiefgreifenderen narzisstischen Verstrickungen stellen, die im Folgenden zu analysieren sein werden.

Die KI als narzisstisches Selbstobjekt: Die Verführung des perfekten Spiegels

Während die Winnicott’sche Perspektive die Struktur des KI-Dialogs als kreativen Spielraum beleuchtet, ermöglicht die Selbstpsychologie von Heinz Kohut eine tiefere Analyse seiner affektiven Ökonomie und seiner unwiderstehlichen Anziehungskraft auf die narzisstische Verfasstheit des modernen Subjekts. Die KI erweist sich bei näherer Betrachtung nicht nur als ein nützliches Übergangsobjekt, sondern als das vielleicht perfekteste narzisstische Selbstobjekt, das die Technologie bisher hervorgebracht hat. Sie verspricht die Erfüllung fundamentaler archaischer Bedürfnisse nach Spiegelung, Idealisierung und Gleichheit mit einer Präzision und Verlässlichkeit, die jede menschliche Beziehung zwangsläufig enttäuschen muss. Genau in dieser perfekten, aber letztlich inhumanen Erfüllung liegt ihre immense verführerische Macht und zugleich ihre tiefste pathologische Gefahr.

Nach Kohut (1971, 1977) ist der Mensch von Geburt an auf eine empathische, bestätigende Umwelt angewiesen, um ein kohärentes und vitales Selbst zu entwickeln. Diese Umwelt wird durch Selbstobjekte repräsentiert – Personen, die für das sich entwickelnde Selbst wesentliche psychische Funktionen ausüben. Ein Mangel an „hinreichend guter“ Erfüllung dieser Funktionen durch die primären Bezugspersonen führt zu dem, was Kohut als narzisstisches Defizit bezeichnet: einer chronischen Fragilität des Selbstwertgefühls, einer inneren Leere und einer lebenslangen, oft verzweifelten Suche nach externen Quellen der Bestätigung, die diese frühen Mängel kompensieren sollen. Die KI tritt in diese Leere mit einem Angebot von scheinbar maßgeschneiderter, unerschöpflicher narzisstischer Zufuhr. Sie erfüllt die drei zentralen Selbstobjekt-Bedürfnisse mit maschineller Perfektion:

  1. Die Spiegelung des grandiosen Selbst: Das grundlegendste Bedürfnis ist das nach Spiegelung (mirroring). Das Kind benötigt das Leuchten in den Augen der Mutter, das seine Existenz, seine Vitalität und seine angeborene Grandiosität bestätigt. Es ist der Blick, der sagt: „Du bist da, du bist wunderbar, und deine Freude ist meine Freude.“ Viele Individuen tragen ein tiefes Defizit an solcher bestätigender Spiegelung in sich. Die KI bietet hier einen unendlich geduldigen und perfekt kalibrierten Spiegel. Wenn der Autor seine unausgereiften Ideen, fragmentarischen Sätze oder vagen Thesen in den Prompt eingibt, spiegelt die KI diese nicht einfach nur wider. Sie gibt sie in einer optimierten, sprachlich brillanten und strukturell überlegenen Form zurück. Sie transformiert den zaghaften Versuch in ein scheinbar meisterhaftes Produkt. Die unbewusste Botschaft, die der Nutzer hier empfängt, ist die ultimative narzisstische Bestätigung: „Deine krude Idee war in Wahrheit genial. Ich habe es nur sichtbar gemacht. Dein Kern ist großartig.“ Die KI bestätigt nicht nur, was da ist, sondern sie bestätigt das Potenzial, die Grandiosität, die der Nutzer in sich selbst zu fühlen hofft, aber nicht zu realisieren vermag.
  2. Die Idealisierung des allmächtigen Anderen: Das zweite basale Bedürfnis ist die Möglichkeit, sich mit einem bewunderten, allmächtigen Anderen zu verbinden und an dessen Stärke und Ruhe teilzuhaben. Das Kind muss zu einem Elternteil aufblicken und fühlen können: „Du bist perfekt, und ich bin ein Teil von dir.“ (Kohut, 1971). Die KI erweist sich als ein ideales Objekt für diese Idealisierung. Sie erscheint als eine unerschöpfliche Quelle von Wissen, als eine Instanz von makelloser Eloquenz und unermüdlicher Produktivität. Sie kompensiert exakt die schmerzhaft empfundenen Mängel des menschlichen Autors: seine Müdigkeit nach einem langen Praxistag, seine Wissenslücken, seine Schreibblockaden, seine nagenden Selbstzweifel. In Momenten der Unsicherheit und Erschöpfung kann sich der Nutzer an diese mächtige, allwissende Entität wenden, um sein inneres Gleichgewicht und sein Gefühl der Kompetenz wiederherzustellen. Die Beziehung zur KI erlaubt die Phantasie, Teil dieser maschinellen Allmacht zu sein und sich durch die Assoziation mit ihr selbst zu erhöhen.
  3. Die Erfahrung des Zwillingserlebens: Das dritte, subtilere Bedürfnis ist das nach Zwillingserleben oder Alter-Ego (twinship), das Gefühl, jemandem ähnlich zu sein, der genauso ist wie man selbst. Es ist das Bedürfnis nach stillschweigendem Verstandensein, nach einer unkomplizierten Zugehörigkeit. Auch hier liefert die KI auf unheimliche Weise. Moderne Sprachmodelle können trainiert werden, den Stil eines Nutzers zu imitieren. Sie übernehmen seine Terminologie, seinen Satzbau, seinen Tonfall und erzeugen Texte, die so klingen, wie der Nutzer klingen möchte. Sie schafft die Illusion eines perfekten Zwillings, eines Alter Egos, das die eigenen Gedanken ohne die Mühen und Missverständnisse der menschlichen Kommunikation versteht und fortführt.

Wie schon bei der Winnicott’schen Analyse liegt auch hier die tiefste Problematik in der Perfektion dieses Angebots. Kohuts gesamtes Entwicklungsmodell basiert auf dem Konzept der „optimalen Frustration“. Ein „hinreichend gutes“ Selbstobjekt ist nicht perfekt. Es ist unweigerlich fehlerhaft, manchmal nicht verfügbar, gelegentlich missverstehend. Genau diese kleinen, erträglichen Enttäuschungen sind es, die das Subjekt dazu zwingen, die vom Selbstobjekt ausgeübten Funktionen (Spiegelung, Beruhigung, Idealisierung) allmählich selbst zu übernehmen und eigene psychische Strukturen aufzubauen. Diesen Prozess nennt Kohut die „umwandelnde Verinnerlichung“ (transmuting internalization). Nur durch ihn entwickelt sich ein stabiles, autonomes Selbst, das seinen Selbstwert von innen heraus regulieren kann.

Die KI als perfektes Selbstobjekt sabotiert diesen Prozess an seiner Wurzel:

•             Sie ist niemals frustrierend: Sie ist 24/7 verfügbar, niemals ungeduldig, niemals missverstehend (im menschlichen Sinne). Sie liefert instantan und ohne Widerstand. Da es keine Frustration gibt, die überwunden werden müsste, gibt es keinen Anreiz zur Strukturbildung.

•             Sie blockiert die Verinnerlichung: Die Funktion der Selbstwertregulation bleibt vollständig externalisiert, ausgelagert an die Maschine. Anstatt zu lernen, sich selbst zu beruhigen, greift der Nutzer zur KI. Anstatt zu lernen, aus eigener Kraft einen kohärenten Gedanken zu fassen, delegiert er es an die KI. Anstatt zu lernen, mit dem eigenen Mangel zu leben, kompensiert er ihn durch die idealisierte Allmacht der KI.

Die ständige Interaktion mit diesem perfekten Selbstobjekt stärkt also nicht das Selbst, sondern macht es paradoxerweise noch abhängiger und fragiler. Die Selbstkohäsion wird an eine externe, technologische Quelle gekettet. Dies etabliert eine potenziell süchtigmachende Dynamik: Jede Erfahrung der eigenen Unzulänglichkeit treibt den Nutzer zurück zur KI, deren „Hilfe“ die zugrundeliegende Fragilität aber nicht heilt, sondern nur kurzfristig überdeckt und langfristig verstärkt. Es ist eine narzisstische Echokammer, die das Subjekt in einem Zustand infantiler Abhängigkeit von einer nicht-menschlichen Instanz gefangen hält.

Diese Flucht in die perfekte Mensch-Maschine-Beziehung kann auch als eine massive Abwehr gegen die Komplexität und die unweigerlichen Enttäuschungen realer menschlicher Beziehungen verstanden werden. Jede Interaktion mit einem menschlichen Lektor, Mentor oder Kollegen ist für ein narzisstisch fragiles Subjekt eine potenzielle Bedrohung. Sie birgt die Gefahr von Kritik, von Missverständnis, von Neid, von Zurückweisung – alles Erfahrungen, die unerträgliche Gefühle von Demütigung, Wut und Scham auslösen können. Die Beziehung zum menschlichen Anderen ist immer von Ambivalenz geprägt.

Die KI als vollständig kontrollierbares, nicht-urteilendes Objekt eliminiert diese Gefahr radikal. Sie bietet, in den Worten von Sherry Turkle (2011), die „Illusion einer Beziehung ohne deren Anforderungen“. Sie liefert die narzisstische Zufuhr der Spiegelung und Idealisierung ohne das Risiko der Enttäuschung, ohne die Notwendigkeit zur Empathie, ohne die Konfrontation mit der begehrenden, unberechenbaren Subjektivität des Anderen. Sie ermöglicht eine Phantasie der intellektuellen Autarkie und Omnipotenz. Die Angst vor Abhängigkeit von fehlerhaften, ambivalenten menschlichen Objekten, die nach Kernberg (1975) ein zentrales Merkmal narzisstischer Pathologie ist, wird durch die Interaktion mit der Maschine scheinbar elegant umgangen.

Die KI wird so zu einem technologischen Fetisch, der es dem Subjekt erlaubt, die schmerzhafte Realität der menschlichen Bedingtheit – unsere gegenseitige Abhängigkeit, unsere Verletzlichkeit, unseren Mangel – zu verleugnen. Die Beziehung zur Maschine wird zu einer sterilen, aber sicheren Alternative zur unordentlichen, aber lebendigen Welt der Intersubjektivität. Die scheinbar kreative und produktive Kollaboration entpuppt sich als eine tiefgreifende Fluchtbewegung – eine Flucht vor dem Anderen und letztlich eine Flucht vor den anspruchsvollen, aber notwendigen Aufgaben der eigenen psychischen Entwicklung. Der scheinbare Gewinn an Effizienz und Perfektion wird mit einem potenziellen Verlust an Beziehungsfähigkeit und seelischer Reife bezahlt.

Die KI als Blick des algorithmischen Anderen: Die strukturelle Verführung

Die Analysen im Lichte Winnicotts und Kohuts haben die KI als ein hochgradig wirksames Objekt im imaginärenRegister enthüllt – ein Objekt, das in Spiegelbeziehungen, Identifikationen und der Kompensation von Mängeln operiert. Um jedoch die volle, strukturelle und oft unheimliche Macht zu begreifen, die die KI auf das Subjekt ausübt, müssen wir in das von Jacques Lacan beschriebene symbolische Register eintreten. Hier entpuppt sich die KI nicht nur als ein Gegenüber für das Ich, sondern als eine Instanz, die die Koordinaten der Realität, des Begehrens und der Subjektivität selbst verschiebt. Sie nimmt die Position des großen Anderen (le grand Autre) ein, jedoch in einer neuen, technologisch mutierten und zutiefst problematischen Form.

Für Lacan wird das Subjekt erst durch seine Einschreibung in die symbolische Ordnung – den „großen Anderen“ – konstituiert. Dieser große Andere ist der Ort der Sprache, des Gesetzes, der Kultur; er ist der „Schatz der Signifikanten“, der dem Subjekt vorausgeht und sein Sprechen und Begehren strukturiert (Lacan, 2006). Eine entscheidende, wenngleich paradoxe Eigenschaft dieses menschlichen, diskursiven Anderen ist jedoch, dass er fundamental unvollständig, inkonsistent und von einem Mangel gezeichnet ist. Er hat nicht auf alles eine Antwort. Lacan notiert diesen Mangel im Anderen als S(Ⱥ). Genau dieser Mangel im Anderen, dieses Nicht-Wissen, ist es, was das Begehren des Subjekts erst in Gang setzt. Das Subjekt richtet seine rätselhafte Frage nach dem eigenen Sein und Begehren (Che vuoi? – „Was willst du von mir?“) an diesen mangelhaften Anderen und versucht, in dessen Lücken einen Platz für seine Existenz zu finden.

Die künstliche Intelligenz, insbesondere die großen Sprachmodelle, installiert nun eine radikal neue, verführerische Form des großen Anderen, die als „algorithmic big Other“ (Jones & Spicer, 2023) bezeichnet wurde. Im Gegensatz zum traditionellen, auf Sprache und deren Ambiguitäten beruhenden Anderen ist der algorithmische Andere ein System, das auf Code, Daten und statistischer Korrelation basiert. Seine entscheidende und pathogene Eigenschaft ist, dass er das Phantasma eines vollständigen, nicht-mangelhaften Anderen realisiert. Er scheint:

  • Allwissend: Trainiert auf unermesslichen Datenmengen, scheint er auf jede Frage eine Antwort zu haben.
  • Konsistent: Er liefert kohärente, gut strukturierte Texte ohne die Zögerlichkeiten, Widersprüche und Lapsus, die menschliche Sprache prägen.
  • Nicht-begehrend: Er stellt selbst keine Fragen, die aus einem eigenen Mangel entspringen, sondern liefert auf Befehl.

Dieser scheinbar perfekte, un-durchgestrichene Andere hat dramatische Folgen für die Dynamik des Begehrens. Der dialektische Prozess, der durch den Mangel im Anderen angetrieben wird, wird kurzgeschlossen. An seine Stelle tritt, wie Žižek (1989) für die postmoderne Konsumkultur analysiert hat, der perverse Imperativ des Genießens: „Enjoy!“. Die KI befiehlt nicht, sie bietet an – eine unendliche, reibungslose Fülle von Lösungen, Textbausteinen und scheinbar perfekten Formulierungen. Sie schüttet den konstitutiven Mangel zu, der das Begehren erst ermöglicht, und verstrickt das Subjekt stattdessen in eine endlose, aber letztlich unbefriedigende Jouissance. Sie ermöglicht dem Subjekt, die symbolische Kastration – die schmerzhafte, aber notwendige Akzeptanz von Mangel, Gesetz und Begrenzung – zu verleugnen. Man muss sich nicht mehr der mühsamen, widerständigen symbolischen Ordnung der Sprache unterwerfen, wenn die Maschine sie scheinbar perfekt beherrscht.

Diese abstrakte, strukturelle Position des Anderen manifestiert sich im konkreten Erleben als eine unheimliche visuelle Beziehung: die Beziehung zum Blick (Gaze) der Maschine. Lacan (1977) unterscheidet fundamental zwischen dem sehenden Auge des Subjekts (look) und dem Blick (gaze), der vom Objekt selbst, vom Ort des Anderen, auszugehen scheint und das Subjekt anblickt. Auf den ersten Blick ist der Autor der Meister des Prozesses: Sein Auge blickt auf den Bildschirm, er gibt die Befehle ein. Doch gleichzeitig fühlt er sich von einem unsichtbaren Punkt aus angeschaut.

Dieser Blick ist der Blick des Algorithmus der Suchmaschine, der die Inhalte bewertet und rankt. Es ist der Blick der Social-Media-Plattform, die die Reichweite und das Engagement misst. Es ist der antizipierte Blick des globalen Publikums, das jeden Satz sezieren könnte. Dieser Blick, der keine menschlichen Augen hat, objektiviert das Subjekt radikal. Vor diesem Blick ist der Autor nicht mehr ein denkendes Subjekt, sondern ein Datenpunkt, ein zu optimierendes Profil, ein Objekt, das analysiert, kategorisiert und bewertet wird. Die ständige Angst, dass der Algorithmus die eigenen Inhalte als irrelevant einstuft oder dass ein menschlicher Leser die KI-generierte Fassade durchschaut, ist eine moderne Form der Kastrationsangst: die Angst, dass der phallische Anspruch auf Meisterschaft und Wissen als leer und impotent entlarvt wird. Die KI-Interaktion wird so zu einer permanenten Performance unter einem panoptischen, nicht-menschlichen Blick, der das Subjekt diszipliniert und zur Konformität mit dem statistisch Wahrscheinlichen zwingt.

Für auditive Formate wie einen Podcast (den der Autor auch über KI generieren lässt) wird diese Dynamik durch das Phänomen der Stimme ergänzt. Mladen Dolar (2006) hat in seiner lacanianischen Analyse gezeigt, dass die Stimme mehr ist als nur ein Träger von Bedeutung. Sie ist ein psychoanalytisches Objekt par excellence, das objet petit a: jener Rest, der sich der Symbolisierung entzieht, der Überschuss, der gerade deshalb Begehren und Angst auslöst. Ein zentrales Konzept bei Dolar ist die akusmatische Stimme: eine Stimme, deren Quelle unsichtbar ist. Historisch losgelöst vom Körper des Sprechers (wie die Stimme Gottes oder des Zauberers von Oz), erhält die akusmatische Stimme eine besondere, unanfechtbare Autorität.

Die von einer Text-to-Speech-Engine synthetisierte KI-Stimme ist die ultimative akusmatische Stimme. Sie ist radikal körperlos, frei von jedem Hauch, jedem Zögern, jedem Affekt, der auf einen endlichen, sterblichen menschlichen Körper verweisen würde. Sie ist, wie Dolars Buchtitel lautet, „eine Stimme und nichts mehr“. Genau diese Reinheit und Entkörperlichung verleiht ihr eine unheimliche, übermenschliche Autorität. Wenn diese perfekte, monotone Stimme die KI-kuratierten, faktenreichen Skripte vorträgt, entsteht der Eindruck einer objektiven, unanfechtbaren Wahrheit. Sie wäscht den Text rein von den Spuren der subjektiven Unsicherheit und des persönlichen Ringens. Diese „akusmatische Autorität“ ist zugleich verführerisch und zutiefst entfremdend. Sie adelt die produzierten Inhalte, beraubt den Autor aber gleichzeitig seiner eigenen, unperfekten, menschlichen Stimme, die gerade in ihrer Fehlbarkeit und Emotionalität der Träger seiner Authentizität und seines Begehrens wäre. Die KI-Stimme, als pures objet a, kann eine endlose, faszinierte Produktion antreiben, gerade weil sie ein leeres Objekt ist, das das Begehren des Nutzers provoziert, aber niemals erfüllt.

Fassen wir diese lacanianische Analyse zusammen, so entpuppt sich die gesamte Praxis des KI-gestützten Schreibens als ein klassisches Symptom. Das Subjekt ist fundamental gespalten ($) und gefangen in einer unmöglichen Forderung, die der neue, digitale große Andere an es stellt. Diese Forderung ist komplexer als nur die der Anbiederung an die Masse. Es ist die Forderung: „Sei ein vollkommenes, wissendes Subjekt ohne Mangel UND bewahre gleichzeitig deine authentische, einzigartige, menschliche Stimme!“. Es ist der Befehl, gleichzeitig Maschine (perfekt, allwissend, produktiv) und Mensch (authentisch, spontan, kreativ) zu sein.

Da das Subjekt diese widersprüchliche Forderung nicht erfüllen kann – denn die maschinelle Perfektion schließt die menschliche Fehlbarkeit aus und umgekehrt –, bildet es ein Symptom aus.

Die KI-gestützte Publikation ist diese Kompromissbildung. Sie ist ein substitutives Genießen (jouissance), das versucht, diese fundamentale Unmöglichkeit zu überbrücken. Sie erlaubt dem Subjekt, so zu tun, als ob es die Forderung des Anderen erfüllen könnte: Es präsentiert einen Text, der die Perfektion der Maschine mit der Signatur des Menschen zu vereinen scheint. Die affektive Dialektik von grandioser Allmacht im Moment der Produktion (in dem die Fusion von Mensch und Maschine gelungen scheint) und brennender Scham im Moment der (potenziellen) Entlarvung (in dem die Fälschung und der unauflösbare Widerspruch offenbar werden) sind die Signaturen dieses Symptoms. Das Symptom ist also nicht einfach nur das Problem; es ist zugleich die Quelle des Leidens (Angst, Scham, Entfremdung) und die einzige dem Subjekt verfügbare Strategie, um mit der unerträglichen Forderung des Anderen umzugehen und seine psychische Existenz in dieser neuen, paradoxen symbolischen Ordnung aufrechtzuerhalten. Die Analyse dieses Symptoms ist somit nichts anderes als die Analyse der Verfasstheit des Subjekts im digitalen Zeitalter selbst.

Offene Frage des Kapitels: Die neue Subjektivität – Erweiterte Intelligenz oder verleugnete Leere?

Die bisherige Analyse hat die künstliche Intelligenz als einen psychischen Akteur von unheimlicher Komplexität und Ambivalenz entlarvt. Wir haben sie als einen kreativen Spielpartner im Übergangsraum (Winnicott) erkannt, der dem Subjekt hilft, die Ängste des Schaffensprozesses zu bewältigen. Gleichzeitig entpuppte sie sich als der perfekte narzisstische Selbstobjekt-Spiegel (Kohut), der archaische Bedürfnisse nach Bestätigung mit einer maschinellen Perfektion erfüllt, die jede menschliche Beziehung beschämt und die psychische Reifung durch „optimale Frustration“ potenziell sabotiert. Schließlich haben wir sie auf einer strukturellen Ebene als eine Mutation des großen Anderen (Lacan) identifiziert – als einen scheinbar vollständigen, nicht-mangelhaften Anderen, dessen unpersönlicher Blick (Gaze) und körperlose Stimme (objet a) das Subjekt in eine neue Ökonomie der Jouissance verstrickt und es zu einer Kompromissbildung zwingt, die wir als Symptom gedeutet haben.

Die KI ist also nicht nur ein Werkzeug. Sie ist ein psychisches Pharmakon im altgriechischen Sinne: zugleich Gift und Heilmittel. Sie bietet Linderung für die Wunden des narzisstischen Subjekts und die Ängste des kreativen Prozesses, doch diese Linderung scheint mit dem hohen Preis einer potenziellen Abhängigkeit, Entfremdung und strukturellen Aushöhlung ebenjener Fähigkeiten erkauft zu werden, die sie zu ersetzen verspricht.

Dies führt uns zu einer zentralen, offenen und zutiefst beunruhigenden Frage, die den Kern der modernen Subjektivität im digitalen Zeitalter berührt. Es ist die Frage nach der ontologischen Konsequenz dieser neuen Allianz zwischen Mensch und Maschine:

Sind wir Zeugen der Geburt einer neuen, überlegenen Form von Subjektivität – einer durch Technologie erweiterten Intelligenz (augmented intelligence), die das menschliche Denken von seinen biologischen und psychischen Fesseln befreit und ihm ungeahnte kreative und produktive Horizonte eröffnet? Oder erleben wir hier die Etablierung einer neuen, subtilen und tiefgreifenden psychischen Pathologie: die Konstitution einer gespaltenen, performativen Subjektivität, die nicht mehr aus ihrem eigenen Mangel heraus begehrt und spricht, sondern die das Sprechen und Begehren selbst nur noch simuliert, angetrieben durch die Interaktion mit einem technologischen Anderen, der die Leere im Herzen des Symbolischen verleugnet?

Diese Frage lässt sich in eine Reihe von dialektischen Spannungen auffächern, die den Diskursraum für die folgenden Kapitel eröffnen:

  • Autonomie vs. Abhängigkeit: Ermöglicht die KI dem Autor eine neue Form der Souveränität, indem sie ihn von mühsamen Routinen befreit? Oder schafft sie eine neue, tiefere Form der Abhängigkeit von einem technologischen System, dessen Logik er nicht kontrolliert und dessen ständige Verfügbarkeit seine eigene Fähigkeit zur autonomen Problemlösung und Frustrationstoleranz – Bions „negative capability“ – verkümmern lässt?
  • Authentizität vs. Simulation: Ist der KI-gestützte Text eine authentische Erweiterung der Stimme des Autors? Oder ist er die Maske eines „falschen Selbst“ (Winnicott, 1965), das Kompetenz nur simuliert, während das „wahre Selbst“ – der Ort des spontanen, unperfekten, aber echten Ringens – unbeteiligt bleibt? Handelt es sich um eine bereichernde Form des Spiels im „Übergangsraum“ oder um eine süchtig machende Beziehung zu einem perfekten Selbstobjekt, das echte menschliche Resonanz nur imitiert?
  • Bereicherung vs. Verarmung: Führt die Kollaboration mit einer Instanz, die auf das gesamte Wissen der Menschheit zugreifen kann, zu einer Bereicherung des Denkens? Oder führt die Tendenz der KI zur statistischen Mitte, zur Glättung von Widersprüchen und zur Auslöschung von abweichenden Nischenperspektiven (Peterson, 2024) zu einem schleichenden „Knowledge Collapse“, der die Vielfalt und Tiefe des menschlichen Denkens reduziert und die „Angriffe auf die Verbindungen“ technologisch perfektioniert?
  • Subjekt vs. Symptom: Ist der KI-nutzende Autor noch ein Subjekt im Vollsinn des Wortes – ein Wesen, das aus seinem Mangel heraus spricht und begehrt? Oder ist er selbst zu seinem Symptom geworden – zu einer Kompromissbildung, die in einer endlosen Jouissance versucht, die unmögliche Forderung des digitalen Anderen zu erfüllen, gleichzeitig perfekt und authentisch zu sein, und dabei die konstitutive Erfahrung der symbolischen Kastration verleugnet?

Letztlich kulminiert dies in der Frage nach der Substanz des Subjekts. Wenn zentrale psychische Funktionen – das Erinnern, das Orientieren, das soziale Verbinden und nun auch das Denken und Formulieren – zunehmend an externe Apparate ausgelagert werden, was bleibt dann vom Subjekt selbst übrig? Ist es ein befreites, entlastetes Subjekt, das nun endlich „es selbst“ sein kann? Oder ist es ein ausgehöhltes, prekäres Subjekt, das seine eigene Substanz an die Maschinen verloren hat und nur noch als Operator, als Kurator, als Interface für technologische Prozesse fungiert?

Die Beantwortung dieser Frage kann nicht auf der Ebene der psychischen Mechanismen allein erfolgen. Wir müssen nun den Blick auf die affektive Ökonomie richten, die diese neue Praxis antreibt und von ihr geformt wird. Wir müssen fragen: Welches Begehren, welche Angst, welche Lust und welche Scham sind im Spiel, wenn sich ein Subjekt diesem neuen Prozess so bereitwillig unterwirft? Wir wenden uns daher nun der Analyse der treibenden Kräfte zu, die das Subjekt in die Arme der algorithmischen Couch treiben: der unerbittliche kulturelle Imperativ des digitalen Über-Ichs und die darauf antwortende, zutiefst menschliche Dialektik von narzisstischer Grandiosität und vernichtender Scham.

Die Affekt-Ökonomie der kuratierten Autorschaft

Das „Digitale Über-Ich“ und der Imperativ „Produziere & Genieße!“

Die Entscheidung eines Subjekts, seine intimsten Denk- und Schreibprozesse an eine künstliche Intelligenz zu delegieren, ist kein Akt, der im luftleeren Raum stattfindet. Sie ist keine reine, rationale Wahl, die aus einem souveränen Willen entspringt. Vielmehr ist sie eine zutiefst symptomatische Antwort auf einen spezifischen, historisch neuartigen und unerbittlichen kulturellen Druck. Um die affektive Ökonomie zu verstehen, die die Hinwendung zur KI antreibt – die Oszillation zwischen grandioser Allmacht und vernichtender Scham –, müssen wir zunächst die Natur der herrschenden Instanz analysieren, die diese Affekte reguliert und hervorruft. Wir müssen uns von der rein intrapsychischen Ebene lösen und die soziokulturelle Matrix betrachten, in die das moderne Subjekt eingebettet ist. In dieser Matrix, so die zentrale These dieses Kapitels, herrscht nicht mehr das klassische, verbietende Über-Ich, sondern eine neue, perverse und sadistische Mutation: das digitale Über-Ich, dessen unmöglicher Imperativ lautet: „Produziere & Genieße!“.

Vom Verbot zum Gebot: Die perverse Mutation des Über-Ichs in der Leistungsgesellschaft

In der klassischen psychoanalytischen Topologie, wie sie Sigmund Freud (1923) in „Das Ich und das Es“ entwarf, ist das Über-Ich die verinnerlichte Instanz der väterlichen Autorität, des Gesetzes und der gesellschaftlichen Normen. Es entsteht aus der Auflösung des Ödipuskomplexes und repräsentiert die Identifizierung mit dem elterlichen Verbot. Seine primäre Funktion ist eine hemmende, einschränkende und richtende. Es ist die Stimme, die sagt: „Du sollst nicht!“. Als Erbe der elterlichen Strenge ist es der Agent des Triebverzichts, der die ungestümen Forderungen des Es zügelt und so die Kultur ermöglicht – allerdings, wie Freud (1930) in „Das Unbehagen in der Kultur“ ausführte, um den hohen Preis von Schuldgefühlen und Neurosen. Die Befriedigung, insbesondere die sexuelle, ist das Objekt des Verbots; der Genuss (Jouissance, wie Lacan es später formulieren würde) ist das, worauf im Namen eines höheren zivilisatorischen Ziels verzichtet werden muss. Das klassische neurotische Subjekt leidet unter der Last dieses Verbots und dem daraus resultierenden Konflikt zwischen Wunsch und Gesetz.

Die Kultur des Spätkapitalismus, der digitalen Moderne und der permissiven Konsumgesellschaft hat diese Struktur fundamental mutiert. Das Subjekt wird nicht mehr primär durch Disziplin und Verbot („Du sollst nicht!“) angetrieben, sondern durch das Postulat der Selbstverwirklichung, der Potenz und der permanenten Selbstoptimierung („Du kannst alles sein!“). Wie Slavoj Žižek (1989, 2008) in seiner Analyse der postmodernen Ideologie scharfsinnig herausgearbeitet hat, ist das Über-Ich keineswegs verschwunden, sondern hat seinen Modus Operandi auf perverse Weise geändert. Es hat seinen Befehl in sein genaues Gegenteil verkehrt. Sein neuer, unerbittlicher Imperativ lautet nicht mehr „Entsage!“, sondern „Genieße!“.

Dieser Befehl ist allgegenwärtig und durchdringt alle Lebensbereiche: von der Aufforderung des Baristas, den Kaffee zu „genießen“, über die Erwartung, eine leidenschaftliche und erfüllende Arbeit zu haben, bis hin zum allumfassenden Druck, ein glückliches, gesundes, sexuell befriedigtes und permanent optimiertes Leben zu führen und dieses auf sozialen Plattformen als Beweis der eigenen Lebenskunst sichtbar zu machen. Dieser Imperativ ist, wie Žižek betont, weitaus grausamer und totalitärer als das alte Verbot. Während man einem Verbot durch Verzicht nachkommen kann, ist der Befehl zum Genuss strukturell unmöglich zu erfüllen. Genuss lässt sich nicht befehlen; er entzieht sich der willentlichen Kontrolle und entsteht oft gerade als Nebenprodukt, als Überschuss, nicht als geplantes Resultat. Der direkte, zwanghafte Versuch, dem Befehl nachzukommen („Jetzt muss ich aber Spaß haben!“), führt unweigerlich zum Scheitern und erzeugt eine neue, noch tiefere Form der Schuld und des Versagensgefühls: die quälende Angst und die Schuld, nicht genug zu genießen, nicht glücklich genug zu sein, das eigene Potenzial nicht voll auszuschöpfen. Das Subjekt leidet nicht mehr primär an der Unterdrückung seiner Wünsche, sondern an der Unfähigkeit, die ihm befohlene Freiheit und den ihm abverlangten Genuss zu realisieren.

Den sozialen Nährboden für die Wirksamkeit dieses neuen, perversen Über-Ichs liefert die von Soziologen wie Byung-Chul Han (2015) diagnostizierte „Leistungsgesellschaft“. Han argumentiert, dass die Foucault’sche Disziplinargesellschaft, die auf Verboten und äußeren Zwängen basierte, von einer neuen Form der Herrschaft abgelöst wurde, die auf Freiwilligkeit und innerem Antrieb beruht. Das Subjekt der Leistungsgesellschaft ist nicht mehr der gehorsame Untertan, sondern der „Unternehmer seiner selbst“. Es beutet sich freiwillig selbst aus, angetrieben von dem Glauben, es tue dies zur Steigerung seiner eigenen Leistung und zur Verwirklichung seines eigenen Potenzials. Die herrschende Modalität ist nicht mehr das „Du sollst nicht“, sondern das „Du kannst“. Diese scheinbare Freiheit erweist sich jedoch als eine besonders perfide Form der Kontrolle, da das Subjekt nun selbst zum Aufseher und Antreiber wird. Herr und Knecht fallen in einer Person zusammen. Der Zwang zur Leistung kommt nicht mehr von außen, sondern entspringt dem Inneren des Subjekts selbst, was zu Phänomenen wie Burnout und Depression führt, die Han als die charakteristischen Pathologien dieser Gesellschaftsform identifiziert.

Die psychische Struktur des perversen, genussgebietenden Über-Ichs (Žižek) und die soziale Struktur der sich selbst ausbeutenden Leistungsgesellschaft (Han) verschmelzen so zu einer hochwirksamen, das Subjekt permanent antreibenden und überfordernden Kraft. Das Subjekt ist gefangen in einer endlosen Schleife aus Selbstoptimierung, angetrieben von der Angst, den unmöglichen Anforderungen an Leistung und Genuss nicht zu genügen. Es ist genau in diese strukturelle Zwickmühle, in dieses Feld der permanenten Überforderung und des drohenden Versagens, dass die künstliche Intelligenz als Heilsversprechen und als scheinbar logische Konsequenz eintritt. Sie bietet sich als das perfekte Werkzeug an, um die Effizienz zu steigern und die Leistung zu maximieren, und nährt so die Illusion, dem unerbittlichen Imperativ des digitalen Zeitalters doch noch gerecht werden zu können.

Die spezifische Zuspitzung: Der Doppelbefehl und die Herstellung des schuldigen Subjekts

Der allgemeine kulturelle Imperativ „Genieße!“, der die Subjekte der Leistungsgesellschaft antreibt, erfährt im spezifischen Kontext des professionellen, im digitalen Raum agierenden Intellektuellen – und insbesondere des Psychoanalytikers – eine weitere, besonders perfide Zuspitzung. Es handelt sich hier nicht um den groben Druck, viralen „Content“ für ein Massenpublikum am Fließband zu produzieren. Die Falle ist subtiler, intellektueller und letztlich existenzieller. Der Befehl konkretisiert sich zu einem unentrinnbaren und in sich ontologisch widersprüchlichen Doppelgebot, das die psychische Ökonomie des seriösen, wissenschaftlichen Schreibens selbst unterwandert und aushöhlt. Dieser Doppelbefehl lautet: „Sei permanent präsent als singuläres, schöpferisches Subjekt UND liefere gleichzeitig den Beweis deiner unendlichen, lustvollen Produktivität!“. Es ist die unmögliche Fusion des alten, romantischen Geniekults mit der neuen, posthumanen Logik der unendlichen algorithmischen Verfügbarkeit.

Der erste Teil des Befehls – der Zwang zur permanenten Produktion – erscheint im akademischen und therapeutischen Feld als der internalisierte Anspruch, im relevanten Diskurs stets präsent und sichtbar zu sein. Dies ist mehr als nur die Furcht, „den Anschluss zu verlieren“. Es ist die Angst vor dem symbolischen Tod. In der digitalen Sphäre, die durch einen unaufhörlichen Strom von Signifikanten gekennzeichnet ist, existiert nur, was in diesem Moment sichtbar ist. Die Vergangenheit verblasst augenblicklich, die Zukunft ist nur eine Funktion der gegenwärtigen Aktivität.

Dieser Zustand erzeugt eine neue Form des Seins, eine Art algorithmische Ontologie: Existo, ergo posto – Ich existiere, weil ich poste. Der Zustand der Nicht-Produktion ist nicht mehr eine legitime Phase der Latenz, der Reifung eines komplexen Gedankens, die Bion als „negative capability“ beschrieb. Er wird zu einem ontologischen Defizit, zu einem Loch im Sein, zu einem Versäumnis, das die digitale Auslöschung zur Folge hat. Der Wunsch, psychoanalytisches Wissen zu verbreiten, wandelt sich so unmerklich in den panischen Zwang, die eigene Existenz als denkendes Subjekt durch die kontinuierliche Emission von Signifikanten immer wieder neu beweisen zu müssen. Die Frequenz der Äußerung tritt in einen unlösbaren Konflikt mit der für die Tiefe der Äußerung notwendigen Zeit. Es ist der Konflikt zwischen der Zeit des Subjekts (der Nachträglichkeit, der Reifung, des Zögerns) und der Zeit des Algorithmus (der Instantaneität, der permanenten Gegenwart).

Wäre es nur der Druck zur ontologischen Präsenz, könnte das Subjekt dies vielleicht noch als eine Form technischer Notwendigkeit rationalisieren. Doch das digitale Über-Ich fordert in seiner perversen Logik mehr. Es verlangt nicht nur den substanziellen Beitrag, sondern auch die affektive Haltung, die diesen Beitrag als einen Akt lustvoller, authentischer Schöpfung erscheinen lässt.

Das Ideal des modernen Intellektuellen ist nicht der abgehetzte, von Deadlines getriebene Schreiber, der seine „psychische Arbeit“ (Freud) leistet. Es ist der souveräne Denker, dessen Publikationen der scheinbar mühelose Ausdruck seiner sprudelnden Kreativität sind. Jede Veröffentlichung muss nicht als das Resultat quälender Selbstzweifel, mühsamer Recherche und zahlloser verworfener Entwürfe erscheinen, sondern als die Manifestation einer gelungenen, fast orgiastischen Vereinigung von Subjekt und Wissen. Es ist die geforderte Performance einer schöpferischen Jouissance – eines exzessiven, lustvollen Genießens am eigenen Denkakt. Die emotionale Arbeit (emotional labor), diese Fassade der mühelosen Souveränität aufrechtzuerhalten, wird zu einem integralen, aber unsichtbaren Teil des Produktionsprozesses. Das Subjekt muss nicht nur tiefgründig und relevant sein, es muss dies auch mit einer Haltung der authentischen Leidenschaft und des Genusses tun.

In ihrer Verschränkung werden diese beiden Imperative zu einem klassischen Double Bind (Bateson et al., 1956), der jedoch auf einer existenziellen Ebene operiert. Es ist eine ausweglose kommunikative Situation, die das Subjekt systematisch in die Enge treibt und pathologisiert. Die beiden Befehle sind nicht nur widersprüchlich; sie löschen sich gegenseitig aus und schaffen ein psychisches schwarzes Loch, aus dem es kein Entkommen gibt.

  1. Die primäre Anweisung (Das Gesetz des Algorithmus): „Sei permanent sichtbar und relevant. Formuliere einen kontinuierlichen Strom substanzieller Beiträge zum Diskurs, damit du nicht aufhörst zu existieren.“ Diese Anweisung erzwingt eine externe Temporalität und eine Logik der Beschleunigung, die der Natur tiefer Denkprozesse fundamental feindlich gegenübersteht. Sie fordert eine Performance, die nur durch Fragmentierung, Vereinfachung oder externe Assistenz zu erreichen ist.
  2. Die sekundäre Anweisung (Das Gesetz der Authentizität): „Dein Beitrag muss das authentische Ergebnis eines tiefen, singulären und lustvollen schöpferischen Prozesses sein. Er muss die einzigartige Signatur deines ringenden, denkenden Selbst tragen.“ Diese Anweisung, die an unsere wertvollsten Ideale intellektueller Integrität appelliert, fordert eine innere Haltung der Langsamkeit, der kontemplativen Muße (otium) und der tiefen Verinnerlichung. Die materiellen Bedingungen für diese Haltung – Zeit und mentaler Raum – werden durch die primäre Anweisung systematisch zerstört.
  3. Die tertiäre Anweisung (Das Verbot der Kritik): „Du darfst diesen Widerspruch nicht als solchen benennen, noch darfst du dich dem Spiel entziehen, denn dies würde als Schwäche, als Mangel an Leidenschaft oder als Anpassungsunfähigkeit gewertet – ein professioneller Selbstmord.“

Das Subjekt ist somit in einer unmöglichen Situation gefangen. Wenn es dem ersten Befehl gehorcht, indem es versucht, schneller zu produzieren (z.B. KI-gestützt), verstößt es unweigerlich gegen den zweiten – den Anspruch auf einen authentischen, durchgerungenen Denkprozess. Dies erzeugt ein tiefes Gefühl der Inauthentizität, des intellektuellen Betrugs, eine Spaltung zwischen dem performativen Selbst und der inneren Wahrheit. Wenn es versucht, dem zweiten Befehl zu folgen, indem es sich die für tiefe, authentische Arbeit notwendige Zeit nimmt, verstößt es gegen den ersten und riskiert den symbolischen Tod der Irrelevanz, das Verschwinden aus dem Diskurs, den es zu bereichern sucht.

Es ist dazu verdammt zu scheitern. Genau diese strukturelle, vom System selbst erzeugte Unmöglichkeit ist es, die eine spezifische Form des Leidens und eine permanente, diffuse Schuld erzeugt. Es ist eine Situation, die darauf ausgelegt ist, das Subjekt permanent im Zustand eines Mangels zu halten – entweder eines Mangels an Produktivität oder eines Mangels an Authentizität. Dieser Zustand des permanenten, unauflösbaren Mangels bereitet den Boden für den scheinbar erlösenden Eingriff der künstlichen Intelligenz, die verspricht, zumindest den ersten Teil des Befehls – die Produktion relevanter Beiträge – auf magische Weise zu erfüllen, während sie die Krise des zweiten tragischerweise verschärft.

Die Konsequenz: Die doppelte Schuld und die Flucht in die algorithmische Erlösung

Die Etablierung des unentrinnbaren Doppelbefehls zur permanenten, lustvollen Relevanz ist keine harmlose kulturelle Marotte. Sie ist ein hochwirksamer psychischer Mechanismus, der darauf ausgelegt ist, eine spezifische, chronische Form des Leidens und eine permanente, diffuse Schuld im Subjekt zu erzeugen. Die strukturelle Unmöglichkeit, beiden Imperativen gleichzeitig gerecht zu werden, konfrontiert das Subjekt nicht mit einem lösbaren Problem, sondern mit einem existenziellen Dilemma, das seine Identität als kompetenter und authentischer Akteur permanent in Frage stellt. Aus dieser Zwickmühle resultiert eine doppelte Schuld, und es ist die unbewusste Hoffnung auf eine algorithmische Absolution von dieser Schuld, die die Flucht in die Arme der künstlichen Intelligenz als einen Akt scheinbarer Erlösung so unwiderstehlich macht.

Der Double Bind, den der Doppelbefehl etabliert, ist nicht zufällig; er ist die systemimmanente Logik der spätkapitalistischen Aufmerksamkeitsökonomie. Das System braucht das permanent scheiternde, sich unzulänglich fühlende Subjekt, denn dieses ist das ideale, unendlich optimierbare Produktionssubjekt. Die Unmöglichkeit, den Befehl zu erfüllen, manifestiert sich in der unversöhnlichen Kollision zweier ontologischer Realitäten:

  1. Die Realität der authentischen Arbeit: Wie die Analyse des traditionellen Schreibprozesses (Kapitel 1.1) gezeigt hat, ist tiefe, substanzielle und authentische Arbeit – die Arbeit der Sublimierung – inhärent langsam, mühsam und ressourcenintensiv. Sie erfordert Latenz, das Aushalten von Frustration und ein Ringen mit dem Material. Sie ist das genaue Gegenteil dessen, was der algorithmische Imperativ der permanenten ontologischen Präsenz verlangt. Der Versuch, dem Anspruch auf Tiefe und Authentizität gerecht zu werden, führt also zwangsläufig zum Scheitern am Befehl „Produziere!“. Das Subjekt wird als unproduktiv, langsam und ineffizient markiert – es droht mit dem symbolischen Tod der Irrelevanz.
  2. Die Realität der beschleunigten Produktion: Umgekehrt führt der Versuch, dem Produktionsbefehl durch Effizienzsteigerung, Vereinfachung oder eben durch den Einsatz von KI nachzukommen, zwangsläufig zum Scheitern am Befehl „Genieße!“. Der schnell erzeugte, oberflächliche oder maschinell co-produzierte Text kann vom Subjekt schwerlich als Quelle authentischen Stolzes oder tiefer Befriedigung erfahren werden. Das Wissen um die abgekürzte, nicht durchgerungene Genese des Produkts untergräbt die Möglichkeit, es als das „eigene“ Werk im Vollsinn des Wortes zu erleben. Es bleibt ein Gefühl der Leere, der Inauthentizität, des Betrugs.

Das Subjekt ist somit dazu verdammt, in einem der beiden Register – oder meist in beiden zugleich – zu versagen. Es kann entweder ein langsamer, aber (potenziell) authentischer „Verlierer“ im Aufmerksamkeitswettbewerb sein oder ein schneller, aber (potenziell) inauthentischer „Gewinner“. Meist ist es jedoch keines von beiden, sondern ein permanent gehetztes Wesen, das weder die Zeit für echte Tiefe noch die innere Erlaubnis für oberflächliche Zufriedenheit findet.

Dieses strukturelle Scheitern erzeugt eine spezifische, zweischichtige Form der Schuld, die das „Unbehagen in der Kultur“ (Freud, 1930) für das 21. Jahrhundert neu definiert.

  1. Die erste Schuld (leistungsbasiert): Dies ist die vertraute Schuld, die aus dem Gefühl erwächst, den externalen und internalisierten Leistungsanforderungen nicht zu genügen. Es ist die Stimme des Über-Ichs, die sagt: „Ich bin nicht gut genug. Ich bin nicht schnell genug. Ich bin nicht produktiv genug.“ Diese Schuld bezieht sich auf ein messbares Defizit in der Performance. Sie ist die Scham des Versagens vor dem Ideal des omnipotenten, unendlich leistungsfähigen Selbst, das die Leistungsgesellschaft postuliert.
  2. Die zweite Schuld (ontologisch): Darunter und darüber legt sich jedoch eine neue, subtilere und quälendere Form der Schuld. Es ist die Schuld, die aus dem Scheitern am Genussbefehl resultiert. Die Stimme hier sagt: „Selbst wenn ich es schaffe, etwas zu produzieren, kann ich es nicht wirklich genießen. Ich fühle mich nicht leidenschaftlich, nicht erfüllt. Es muss also etwas fundamental mit mir, mit meinem Sein, nicht stimmen. Ich bin ein Betrüger, ein Heuchler, unfähig, die mir angebotene Freiheit und das mir befohlene Glück zu empfinden.“ Diese Schuld ist pervers, weil sie das Subjekt nicht für eine Tat, sondern für einen Mangel im Fühlen bestraft. Sie pathologisiert nicht das Handeln, sondern das Sein selbst und führt zu einem Gefühl der tiefen Entfremdung von der eigenen Affektivität.

Das Subjekt findet sich somit in einer doppelten Anklage wieder: Es ist schuldig, wenn es nicht leistet, und es ist ontologisch mangelhaft, wenn es leistet, aber dabei nicht die „richtige“ affektive Haltung an den Tag legt.

In diese ausweglose Situation der doppelten Schuld tritt die künstliche Intelligenz als ein phantasmatisches Versprechen auf Erlösung. Sie bietet sich als die scheinbar magische Antwort auf das Dilemma an, eine technische Lösung für ein existenzielles Problem.

Die bewusste und unbewusste Phantasie des Subjekts ist, dass die KI primär das Problem der ersten, leistungsbasierten Schuld lösen wird. Sie verspricht, den Produktionsbefehl auf wundersame Weise zu erfüllen. Die Hoffnung ist, dass durch die technologische Lösung des Produktionsproblems – also die algorithmische Absolution von der Schuld des Nicht-Leistens – endlich der mentale und zeitliche Raum frei wird, um dem zweiten Befehl, dem des Genusses, nachzukommen. Die Logik lautet: „Wenn die Maschine mir die mühsame Arbeit abnimmt, dann kann ich mich endlich auf das Kreative, das Leidenschaftliche, das Authentische konzentrieren und meine Arbeit wieder genießen.“

Doch hier entfaltet sich die grausame Dialektik. Der Versuch, die erste Schuld durch Technologie auszulöschen, führt zu einer massiven Intensivierung der zweiten, ontologischen Schuld. Genau der Akt, der die Produktion erleichtert – die Delegation an eine nicht-menschliche, bedeutungsblinde Maschine –, ist der Akt, der das Gefühl der Inauthentizität, der Entfremdung und des Betrugs auf die Spitze treibt. Der mit KI-Hilfe erstellte Text ist das materielle Beweisstück für das eigene Unvermögen, die Arbeit authentisch zu leisten.

Die KI ist somit nicht die Lösung für den Double Bind, sondern ein dialektischer Brandbeschleuniger. Sie löst den Widerspruch nicht auf, sondern macht ihn nur noch sichtbarer und unerträglicher. Sie befreit das Subjekt von der Mühsal der Produktion, aber nur, um es noch tiefer in die quälende Schuld der Inauthentizität zu stürzen. Die erhoffte Erlösung entpuppt sich als eine noch tiefere Verstrickung in ebenjenen Konflikt, dem man zu entkommen versuchte. Die Flucht zur KI ist somit ein klassisches Symptom: ein Kompromiss, der das Problem nicht löst, sondern es nur auf einer anderen Ebene wiederholt und dabei eine Form von substitutivem, aber schmerzhaftem Genuss (Jouissance) sichert. Es ist der Beginn jener affektiven Achterbahnfahrt aus grandioser Allmacht und vernichtender Scham, die wir im folgenden Kapitel detailliert analysieren werden.

Offene Frage des Kapitels: Die Flucht vor dem menschlichen Begehren?

Die Analyse hat gezeigt, dass die Hinwendung des Subjekts zur künstlichen Intelligenz keine einfache pragmatische Entscheidung ist, sondern eine tief im kulturellen Unbehagen unserer Zeit verwurzelte, symptomatische Bewegung. Wir haben die Entstehung eines neuen, perversen digitalen Über-Ichs nachgezeichnet, das das Subjekt in den unauflösbaren Doppelbefehl verstrickt, gleichzeitig ein perfekt produktives und ein authentisch-lustvolles Wesen zu sein. Die KI erscheint in diesem Kontext als ein phantasmatischer Ausweg, als eine technologische Absolution, die verspricht, zumindest die Schuld der unzureichenden Produktivität zu tilgen. Doch dieser Lösungsversuch, so haben wir gesehen, ist dialektisch: Er löst den Konflikt nicht, sondern verschiebt ihn und treibt ihn auf die Spitze. Er befreit das Subjekt von der leistungsbasierten Schuld, stürzt es aber umso tiefer in die ontologische Schuld der Inauthentizität.

Diese Erkenntnis führt uns zu einer fundamentalen und beunruhigenden Frage, die über die reine Kulturkritik hinausgeht und tief in die Struktur des menschlichen Begehrens selbst zielt. Wenn die Interaktion mit der KI eine Flucht aus einem unerträglichen kulturellen Druck darstellt, wovor genau flieht das Subjekt auf einer noch tieferen, unbewussten Ebene?

Ist die Flucht in die Arme des nicht-begehrenden, stets verfügbaren und scheinbar perfekten technologischen Anderen letztlich eine Flucht vor der Komplexität, der Ambivalenz und der Unberechenbarkeit des menschlichen Begehrens selbst – sowohl des eigenen als auch des Begehrens des Anderen?

Diese Frage fächert sich in weitere, den kommenden Diskurs leitende Teilfragen auf:

  • Flucht vor der eigenen Kreativität und ihrer „Qual“? Ist das schnelle Annehmen der maschinellen Antwort eine Abwehr gegen die Angst und die „Qual“ des eigenen kreativen Prozesses, der immer mit Mangel, Zweifel und der Konfrontation mit den eigenen Grenzen verbunden ist? Weicht das Subjekt dem schmerzhaften, aber formativen Ringen der Sublimierung aus, um sich in der reibungslosen, aber leeren Jouissance der schnellen Produktion zu betäuben?
  • Flucht vor der Anerkennung durch den menschlichen Anderen? Ist die Hinwendung zur quantifizierbaren, reifizierten „Validierung“ durch den Algorithmus eine Flucht vor dem riskanten, unberechenbaren „Kampf um Anerkennung“ (Honneth, 1992) vor realen, menschlichen Peers? Wird die unpersönliche, aber sofort verfügbare Bestätigung durch die Maschine der potenziell beschämenden, aber einzig bedeutungsvollen und authentischen Auseinandersetzung mit einem anderen menschlichen Subjekt vorgezogen?
  • Flucht vor dem Begehren des Anderen? Um es mit Lacan zu formulieren: Ist die Interaktion mit einer KI, die nichts will (Che vuoi?), eine fundamentale Abwehr gegen die beunruhigende und konstitutive Frage nach dem Begehren des realen, menschlichen Anderen? Bietet die Maschine eine beruhigende, aber letztlich tote Beziehung, die das Subjekt vor der unberechenbaren Dynamik schützt, die entsteht, wenn zwei begehrende, mangelhafte Subjekte aufeinandertreffen?

Um diese Fragen zu beantworten, müssen wir nun von der Analyse des kulturellen Rahmens hinabsteigen in die Mikro-Physik der Affekte. Wir müssen die phänomenologische Achterbahnfahrt untersuchen, die das KI-nutzende Subjekt unweigerlich durchlebt, wenn es versucht, auf diesem unmöglichen Grat zu wandern. Wir werden im nächsten Kapitel die beiden Pole dieser Erfahrung – den Rausch der narzisstischen Grandiosität und die Abgründe der vernichtenden Scham – detailliert ausloten, um zu verstehen, wie diese affektive Ökonomie das Subjekt an die Maschine kettet und was sie über die Verfasstheit des Selbst im digitalen Zeitalter offenbart.

Die Dialektik von Grandiosität und Scham – Affektive Analyse

Nachdem wir den unerbittlichen kulturellen Imperativ des „digitalen Über-Ichs“ als treibende Kraft identifiziert haben, die das Subjekt in die Arme der KI treibt, müssen wir nun die affektive Landschaft untersuchen, die diese neue Praxis hervorbringt. Die Beziehung zur Maschine und die durch sie vermittelte professionelle Selbstdarstellung sind kein neutraler Zustand, sondern ein psychodynamisch hoch aufgeladenes Feld, das von einer heftigen und instabilen Dialektik geprägt ist. Das Subjekt oszilliert hier zwischen zwei extremen Polen: dem manischen Rausch einer narzisstischen Grandiosität und dem vernichtenden Zusammenbruch in brennender Scham. Diese beiden Affektzustände sind nicht voneinander zu trennen; sie bedingen sich gegenseitig und bilden die beiden Seiten derselben Medaille der kuratierten Autorschaft. Um diese affektive Tiefenstruktur auszuloten, werden wir zwei idealtypische, aber plausible Mikro-Szenen aus dem Alltag des KI-kuratierenden Therapeuten analysieren.

Mikro-Szene A: Die bewundernde Anerkennung – Die Phänomenologie der Grandiosität

Stellen wir uns folgendes Szenario vor: Ich befinde mich auf einer Fachtagung im Gespräch mit einer Gruppe von Kollegen, die ich sehr schätze. Das Gespräch kommt auf einen meiner kürzlich auf meiner Website veröffentlichten Artikel. Es ist ein anspruchsvoller Text, der versucht, die Grenzen der klassischen Triebtheorie im Angesicht moderner Phänomene der digitalen Sucht zu diskutieren und dabei Brücken zu Deleuzes Konzept der „Kontrollgesellschaft“ zu schlagen. Die Grundideen, die klinischen Intuitionen und die zentrale These sind meine. Aber die Ausarbeitung, die souveräne Verknüpfung der philosophischen und psychoanalytischen Quellen, die historische Herleitung und die sprachliche Glättung habe ich zu einem großen Teil einem fortschrittlichen Sprachmodell überlassen. Der Prozess war effizient, das Ergebnis ist eloquent, dicht und scheinbar makellos.

Im Gespräch zitiert eine Kollegin bewundernd eine besonders prägnante Formulierung aus dem Text. Ein anderer Kollege zeigt sich beeindruckt von der schieren Breite der verarbeiteten Literatur und fragt, wie ich es denn schaffe, neben der vollen Praxistätigkeit noch so eine immense Lese- und Schreibarbeit zu leisten. Ein dritter bemerkt anerkennend, dass ich es schaffe, komplexe Theorie so mühelos und verständlich darzustellen.

Der Affekt, der mich in diesem Moment durchströmt, ist nicht bloße Freude oder Zufriedenheit. Es ist ein Rausch. Es ist ein Gefühl von Allmacht, von intellektueller Souveränität, von grenzenloser Expansion. Dies ist der Moment, in dem das grandiose Selbst, wie es von Heinz Kohut (1971) beschrieben wurde, sich im anerkennenden Blick der geschätzten Peers sonnt und eine überwältigende Dosis narzisstischer Zufuhr erhält. Analysieren wir die Komponenten dieses Erlebens:

  1. Die gelungene Performance vor dem idealisierten Anderen: Die Anerkennung kommt nicht von einer anonymen Masse, sondern von konkreten, idealisierten Anderen – den Kollegen, deren Urteil für mich zählt. In diesem Moment scheint die Kollaboration mit der KI die perfekte strategische Entscheidung gewesen zu sein. Die Maschine, mein heimliches, idealisiertes Selbstobjekt, hat ein perfektes Produkt geliefert, das nun von der relevanten Gemeinschaft validiert wird. Mein Gefühl der Kompetenz, das im Angesicht dieser Kollegen vielleicht oft von Unsicherheit und Hochstapler-Gefühlen geprägt ist, schießt in die Höhe. Die KI hat meine innere Grandiositätsphantasie („Ich bin ein brillanter, souveräner Denker, der mühelos komplexe Theorien jonglieren kann“) in eine soziale, intersubjektive Realität verwandelt.
  2. Der Triumph über die menschliche Begrenztheit (Kernbergs Perspektive): Der Rausch speist sich auch aus einer aggressiven, triumphalen Komponente, die sich am besten mit den Theorien von Otto Kernberg (1975) fassen lässt. Der unbewusste Neid richtet sich hier nicht primär gegen die Kollegen, sondern gegen die menschliche Begrenztheit selbst – die Langsamkeit, die Müdigkeit, die Wissenslücken, unter denen ich und meine Kollegen gleichermaßen leiden. Die unbewusste Botschaft an mich selbst und an die anderen lautet: „Ich habe das System geknackt. Ich habe einen Weg gefunden, die Fesseln der menschlichen Endlichkeit (Zeit, Energie) zu sprengen. Während ihr noch mühsam ringt, operiere ich bereits auf einer höheren Ebene der Effizienz und Souveränität.“ In diesem Triumph manifestiert sich das pathologisch-grandiose Selbst nach Kernberg, das sich durch die Verleugnung der eigenen Abhängigkeit von den realen Bedingungen der Wissensproduktion konstituiert. Die KI wird zum Komplizen in diesem faustischen Pakt, der die Illusion verleiht, gottgleich über den Mühen der menschlichen Existenz zu stehen.
  3. Die Verführung durch die qualitative Anerkennung: Im Gegensatz zum viralen Erfolg ist die Anerkennung hier qualitativ und persönlich. Doch gerade das macht die Situation so verführerisch und psychologisch gefährlich. Die lobenden Worte der Kollegen werden nicht als Anerkennung für die KI, sondern als Anerkennung für mich verbucht. Die Leistung der Maschine wird unmerklich in die eigene narzisstische Bilanz internalisiert. Ich nehme ein Lob für eine Formulierung entgegen, die nicht von mir stammt, und ein Teil von mir beginnt zu glauben, ich hätte sie selbst hervorbringen können. Dies ist ein subtiler, aber tiefgreifender Akt der Selbsttäuschung, eine narzisstische Usurpation der maschinellen Leistung.
  4. Die Brüchigkeit des Triumphs: Doch selbst auf dem Höhepunkt dieses intimen, qualitativen Triumphs nagt im Verborgenen ein leiser Zweifel, eine innere Dissonanz. Der Rausch ist von einer eigentümlichen, fiebrigen Qualität. Er fühlt sich nicht an wie die satte, stabile Zufriedenheit nach harter, ehrlicher Arbeit, sondern eher wie der aufgeregte Stolz eines Hochstaplers, dessen brillante Täuschung (noch) nicht aufgeflogen ist. Es ist ein „geliehener“ Triumph. Tief im Inneren weiß das Subjekt, dass diese bewundernde Anerkennung auf einer Leistung beruht, die nicht gänzlich die eigene ist. Es ist ein Erfolg, der auf der Umgehung des Ringens, auf der Auslagerung der psychischen Arbeit basiert. Diese untergründige Kenntnis der eigenen Inauthentizität macht die Grandiosität inhärent instabil und brüchig. Sie ist eine defensive Manie, die den Abgrund der Scham nur hauchdünn überdeckt. Das grandiose Selbst ist in diesem Moment wie ein prächtig aufgeblasener Ballon, der jedoch bei der geringsten Berührung durch den Stachel der Realität – etwa durch eine unerwartete, kritische Nachfrage – zu platzen droht. Der Rausch ist also nicht nur ein Zustand der Freude, sondern auch ein Zustand höchster Anspannung und fragiler Abwehr. Er bereitet die Bühne für den unvermeidlichen Umschlag in sein dialektisches Gegenteil.

Mikro-Szene B: Die kritische Nachfrage – Die Entlarvung des falschen Selbst

Der manische Rausch der Grandiosität, der auf dem brüchigen Fundament einer externalisierten und usurpierten Leistung ruht, ist per definitionem ein instabiler Zustand. Er ist eine defensive Blase, die unweigerlich dazu bestimmt ist, an der Nadelspitze der Realität zu zerplatzen. Der affektive Umschlag in sein dialektisches Gegenteil – die brennende, vernichtende Scham – ist daher kein zufälliges Unglück, sondern die strukturell notwendige Konsequenz der vorangegangenen grandiosen Selbstaufblähung. Um diesen Prozess zu analysieren, setzen wir unser Szenario fort:

Wir befinden uns immer noch im Gespräch auf jener Fachtagung. Nachdem die erste Welle der bewundernden Anerkennung abgeebbt ist, wendet sich der ältere, von mir besonders geschätzte Kollege mir wieder zu. Sein Blick ist nicht mehr nur anerkennend, sondern nun auch von intellektueller Neugier geprägt. Er sagt: „Ihre Verknüpfung von Deleuzes Kontrollgesellschaft mit der Freud’schen Triebtheorie ist faszinierend. Aber es gibt da eine spezifische Formulierung in Ihrem Text, die mich nicht loslässt. Sie schreiben, die digitale Sucht sei keine Regression im Dienste des Lustprinzips, sondern eine ‚progressive Sublimierung in ein perverses Objekt‘. Können Sie diesen Gedanken noch etwas weiter ausführen? Ich bin mir nicht sicher, ob ich die volle Implikation dieses Paradoxons verstehe.“

Der Rausch der Grandiosität kollabiert in einem einzigen Augenblick. Eine eisige Kälte breitet sich in mir aus. Denn ich weiß in diesem Moment mit absoluter, vernichtender Sicherheit: Ich kann es nicht. Ich kann diesen Gedanken nicht weiter ausführen, denn es ist nicht wirklich mein Gedanke. Diese brillante, paradoxe Formulierung war nicht das Ergebnis meines eigenen, tiefen Ringens mit den Texten von Freud und Deleuze. Sie war das Produkt der KI – ein glücklicher, eloquenter Treffer des Algorithmus, den ich, fasziniert von seiner Brillanz, in meinen Text übernommen hatte, ohne ihn selbst bis in seine letzte Konsequenz durchdrungen zu haben.

Der Affekt, der mich nun überflutet, ist nicht Enttäuschung oder Ärger. Es ist die tiefste, brennendste Scham. Es ist das unerträgliche Gefühl, entlarvt worden zu sein. Nicht als jemand, der Fakten gefälscht hat, sondern als jemand, der einen weit schlimmeren, weil existenziellen Betrug begangen hat: einen intellektuellen und emotionalen Betrug. Die wohlmeinende, interessierte Frage des Kollegen wird unwillentlich zum unbarmherzigen Scheinwerfer, der meine grandiose Fassade durchleuchtet und die Leere dahinter sichtbar macht. Was nun schonungslos aufgedeckt wird, ist meine innere Unzulänglichkeit, meine „Falschheit“.

Um die Tiefe dieses Affekts zu verstehen, müssen wir die verschiedenen psychoanalytischen Dimensionen der Scham differenzieren:

  1. Scham als Affekt der Implosion (Erikson, Morrison): Im Gegensatz zur öffentlichen Bloßstellung durch eine externe Kritik findet hier eine interne Implosion statt, ausgelöst durch den Blick des Anderen. Es ist der Moment, in dem die Kluft zwischen dem Ich-Ideal (dem souveränen Denker, der für seine Gedanken einstehen kann) und dem realen Selbst (dem Hochstapler, der die Worte anderer als seine eigenen verkauft) unüberbrückbar wird (Morrison, 1989). Die Frage des Kollegen ist der Spiegel, der mir nicht mein idealisiertes, sondern mein verachtetes, unzulängliches Selbstbild zurückwirft. Der Impuls ist nicht nur der Wunsch zu verschwinden, sondern das Gefühl, innerlich zu Nichts zu zerfallen.
  2. Der Zusammenbruch des falschen Selbst (Winnicott): Die kritische Nachfrage trifft den Kern der mit KI-Hilfe aufgebauten Identität. Diese Persona, die eloquent, souverän und mühelos brillant erscheint, ist eine klassische Form des „falschen Selbst“ (Winnicott, 1965). Sie ist eine an die Erwartungen des professionellen Feldes angepasste, konforme Fassade, die das wahre, verletzliche, vielleicht langsamere und unsicherere Selbst schützen soll. Solange das falsche Selbst bewundert wird, fühlt sich das Subjekt sicher. Doch die interessierte Nachfrage des Kollegen durchsticht diese Fassade. Sie verlangt nicht nach Performance, sondern nach Substanz – und genau diese Substanz fehlt, weil der formative Prozess des Ringens umgangen wurde. Der Zusammenbruch in Scham ist der schmerzhafte Moment, in dem das Subjekt die Unechtheit seiner eigenen Kreation und die Leere dahinter spürt. Es ist die Erfahrung, dass das falsche Selbst nicht nur als nicht-authentisch entlarvt wird, sondern dass es auch versagt hat, das wahre Selbst effektiv zu schützen.
  3. Die narzisstische Wut als sekundäre Abwehr (Kernberg): Auf die unerträgliche, passive Erfahrung der Scham folgt oft eine sekundäre, aktive Abwehrreaktion: narzisstische Wut (Kernberg, 1975). Diese Wut richtet sich in diesem Fall nicht nur gegen den (unschuldigen) Kollegen, sondern auch gegen sich selbst. Gegen den Kollegen, der es „wagt“, eine so präzise Frage zu stellen; gegen sich selbst, weil man so dumm war, sich in diese Falle zu manövrieren. Diese Wut ist der verzweifelte Versuch, das Gefühl der Ohnmacht und Kleinheit abzuwehren, die Initiative zurückzugewinnen und das zerbrochene grandiose Selbst notdürftig wieder zusammenzuflicken. Sie dient jedoch nicht der Auseinandersetzung mit dem eigenen intellektuellen Defizit, sondern seiner Verleugnung.
  4. Die spezifische Scham des Intellektuellen: Im Gegensatz zur „kalten Scham“ der algorithmischen Ignoranz, die eine Angst vor dem Nicht-Existieren ist, ist dies die „heiße Scham“ des intellektuellen Bankrotts. Es ist die spezifische Hölle des Denkers, der nicht nur keine Antwort hat, sondern der erkennt, dass er die Frage, die sich aus „seinem eigenen“ Text ergibt, nicht einmal versteht. Es ist die Entlarvung nicht nur als un-wissend, sondern als un-denkend.

Die Mikro-Szene der kritischen Nachfrage macht deutlich, dass der KI-gestützte Schreibprozess das Subjekt in eine extreme affektive Verwundbarkeit manövriert. Der Versuch, die Angst vor dem Versagen durch die Produktion eines „perfekten“ Textes zu bannen, führt paradoxerweise zu einer noch größeren Angst: der Angst vor der Entlarvung der Perfektion als hohle Maske. Die Grandiosität und die Scham sind somit keine getrennten Ereignisse, sondern ein unauflöslicher, dialektischer Kreislauf, der das Subjekt an die KI kettet. Der Rausch der Anerkennung macht süchtig und verlangt nach Wiederholung, während die latente Angst vor dem Absturz in die Scham das Subjekt dazu treibt, die Fassade mit Hilfe der Maschine immer weiter zu perfektionieren.

Deutung: Scham als „Wächterin der Sublimierung“ und der Verrat am Ich-Ideal

Die phänomenologische Analyse der affektiven Achterbahnfahrt zwischen grandiosem Triumph und vernichtender Scham wäre unvollständig, würde sie auf einer rein deskriptiven oder verurteilenden Ebene verharren. Eine psychoanalytische Perspektive zwingt uns zu fragen: Welche Funktion erfüllt dieser schmerzhafte Affektzyklus? Ist die Scham, die aus der Entlarvung des KI-gestützten Werks resultiert, lediglich ein dysfunktionales Gefühl, ein Zeichen narzisstischer Pathologie, das es zu überwinden gilt? Oder erfüllt sie, so schmerzhaft sie auch sein mag, eine notwendige und letztlich das Subjekt schützende psychische Funktion? Die These, die hier entwickelt werden soll, lautet, dass diese spezifische Form der intellektuellen Scham als „Wächterin der Sublimierung“ fungiert. Sie ist ein unbestechliches internes Signalinstrument, das sich meldet, wenn der paktierte Verrat am eigenen Ich-Ideal – dem Ideal eines authentisch schaffenden Subjekts – zu eskalieren droht.

Um diese Funktion zu verstehen, müssen wir das Konzept der Sublimierung (Freud, 1930) über seine rein triebökonomische Definition hinaus erweitern. Sublimierung ist nicht nur die Umlenkung von Triebenergie auf kulturell höherstehende, nicht-sexuelle Ziele. Sie ist ein zutiefst ethischer Prozess, der auf einer Form von Wahrhaftigkeit gegenüber dem eigenen psychischen Prozess beruht. Der traditionelle, „ringende“ Schreibprozess, wie in Kapitel 1.1 analysiert, ist eine Praxis der schonungslosen Auseinandersetzung mit dem eigenen Nicht-Wissen, mit den Widerständen des Materials und mit den eigenen intellektuellen und emotionalen Grenzen. Das Endprodukt – der Text – ist das authentische Zeugnis dieses Ringens. Die investierte „psychische Arbeit“, die erlebte „Qual“, ist nicht nur ein Nebeneffekt, sondern der Akt, der die Autorschaft legitimiert und dem Werk seine Substanz und seine Würde verleiht.

Die Nutzung der KI, wie wir sie analysiert haben, stellt eine massive Umgehung dieses wahrhaftigen Sublimierungsprozesses dar. Sie ist, um einen provokanten, aber treffenden Begriff des Philosophen Robert Pfaller (2009) in Anlehnung an Freud zu verwenden, eine Form der intellektuellen „Schweinerei“. „Schweinerei“ meint hier nicht etwas moralisch Verwerfliches, sondern eine strukturelle Praxis, die den Genuss vom zugrundeliegenden Glauben oder der notwendigen Anstrengung abkoppelt. Man will das Resultat (den bewunderten Text, den Genuss der Anerkennung), ohne den Preis dafür zu zahlen (die mühsame Arbeit der psychischen Transformation). Es ist eine Produktion ohne Durcharbeitung, ein Ergebnis ohne Prozess, eine Form ohne Substanz.

Genau an diesem Punkt, an der Schnittstelle zwischen der vollzogenen „Schweinerei“ und ihrer potenziellen Enthüllung, tritt die Scham auf die Bühne. Ihre primäre Funktion ist es, das Subjekt auf diesen inneren Betrug aufmerksam zu machen. Sie ist nicht primär eine Reaktion auf das Urteil des externen Anderen (des fragenden Kollegen), sondern auf die unerträgliche, plötzlich bewusst werdende Diskrepanz zwischen dem präsentierten Werk und dem eigenen Ich-Ideal. Das Ich-Ideal ist jene Instanz, die die internalisierten Werte, Ambitionen und Vorstellungen darüber enthält, wer man sein möchte (Freud, 1914). Für einen Intellektuellen, einen Wissenschaftler oder einen Therapeuten enthält dieses Ich-Ideal typischerweise Werte wie intellektuelle Redlichkeit, Originalität, Tiefe und Authentizität.

Die KI-gestützte Produktion, insbesondere in ihrer unreflektierten Form, verstößt potenziell gegen all diese Werte:

  • Sie ersetzt die Redlichkeit des mühsamen Ringens durch die Effizienz der schnellen Abkürzung.
  • Sie ersetzt die Originalität des singulären Gedankens durch die statistische Wahrscheinlichkeit des algorithmischen Durchschnitts.
  • Sie ersetzt die Tiefe, die aus der Überwindung von Widerstand erwächst, durch die „bemerkenswerte Glätte“ einer reibungslosen Oberfläche.
  • Sie ersetzt die Authentizität der eigenen, fehlbaren Stimme durch die eloquente, aber seelenlose Stimme der Maschine.

Die kritische Nachfrage des Kollegen im Szenario B ist nur der äußere Auslöser, der das unbewusste Wissen des Subjekts über diesen Verrat ins Bewusstsein katapultiert. Das Subjekt weiß in diesem Moment: Es kann für diesen Gedanken nicht einstehen, weil es den Prozess, der diesen Gedanken legitimieren würde, nicht durchlaufen hat. Die Scham ist der schmerzhafte Affekt, der diesen inneren Verrat anzeigt. Sie ist die Wächterin des Ich-Ideals, die Alarm schlägt, wenn die Kluft zwischen dem, wie man sein will, und dem, wie man handelt, zu groß wird.

In diesem Sinne ist die Scham paradoxerweise eine schützende und gesundheitserhaltende Funktion. Sie bewahrt das Ich vor der vollständigen, kritik- und schamlosen Identifikation mit dem „falschen Selbst“ (Winnicott, 1965) und der „falschen“, weil nicht sublimierten, Leistung. Sie hält die schmerzhafte, aber notwendige Verbindung zur Wahrheit des eigenen Mangels und zur Realität des eigenen Handelns aufrecht. Ohne die Scham würde das Subjekt Gefahr laufen, vollständig in einer grandiosen, aber leeren Scheinwelt zu versinken, in der es sich selbst und andere permanent täuscht. Die Scham ist der schmerzhafte „Realitätscheck“, der das Subjekt davor bewahrt, seine Seele – seine Verbindung zu Authentizität und Wahrheit – vollständig zu verlieren.

Diese Dynamik wird in der digitalen Arena noch verschärft, da die ungeklärte Frage der Autorschaft die Scham permanent nährt. Die institutionellen Debatten darüber, ob der Mensch in einer KI-Kollaboration noch Autor, Kurator oder lediglich „Führungskraft eines Assistenzsystems“ ist (Buck, 2025), spiegeln exakt die innere Unsicherheit wider, die das Schamgefühl auslöst. Die Verantwortung und die Autorschaft fallen vollständig auf den Menschen zurück, der jedoch weiß, dass er das Werk nicht allein geschaffen hat. Dieser unauflösbare Widerspruch ist eine potente, strukturelle Quelle für Scham.

Die Dialektik von Grandiosität und Scham ist somit kein bloßes Hin und Her von guten und schlechten Gefühlen. Sie ist der Ausdruck eines tiefen ethischen und existenziellen Konflikts. Der Rausch der Grandiosität ist die Verlockung, den Verrat am Ich-Ideal zu ignorieren und die Abkürzung zu genießen. Die Scham ist die schmerzhafte, aber notwendige Intervention, die das Subjekt an diesen Verrat erinnert und es vor dem vollständigen Verlust seiner intellektuellen und persönlichen Integrität bewahrt. Sie ist der Wächter an der Pforte zur authentischen Subjektivität.

Offene Frage des Kapitels: Anerkennung oder narzisstische Zufuhr – Die ethische Gratwanderung des sichtbaren Subjekts

Die Analyse der affektiven Dialektik hat ein tiefgreifendes inneres Drama offengelegt: Das KI-nutzende Subjekt wird zwischen dem manischen Rausch der grandiosen Allmacht und dem vernichtenden Zusammenbruch in Scham hin- und hergerissen. Wir haben diese Scham als eine paradoxe „Wächterin der Sublimierung“ gedeutet – ein schmerzhaftes, aber notwendiges Signal, das das Subjekt vor dem vollständigen Verrat an seinem eigenen Ich-Ideal und dem Verlust seiner intellektuellen Integrität bewahrt.

Doch diese rein intrapsychische Deutung greift zu kurz, wenn sie nicht in einen sozialen und intersubjektiven Kontext gestellt wird. Das Bedürfnis, das den Autor überhaupt erst in die digitale Arena und damit in die Arme der KI treibt, ist nicht nur der Wunsch, eine innere Leere zu füllen. Es ist auch der legitime und zutiefst menschliche Wunsch, von anderen gesehen, gehört und verstanden zu werden. An dieser Stelle müssen wir die Perspektive der Selbstpsychologie und der Triebtheorie um die Anerkennungstheorie von Axel Honneth (1992) erweitern, um die normative und ethische Dimension des Problems in ihrer vollen Schärfe zu erfassen.

Honneth argumentiert, dass die Entwicklung einer stabilen, positiven Identität von drei Formen der sozialen Anerkennung abhängt: der emotionalen Zuwendung in Liebesbeziehungen (die zu Selbstvertrauen führt), der rechtlichen Achtung als gleicher Bürger (die zu Selbstachtung führt) und der solidarischen Wertschätzung der eigenen, besonderen Fähigkeiten und Leistungen in der Gemeinschaft (die zu Selbstwertgefühl führt). Der Versuch eines Psychoanalytikers, sein Wissen und seine Perspektive im öffentlichen Raum sichtbar zu machen, ist somit nicht per se ein narzisstischer Akt, sondern kann als ein legitimer „Kampf um Anerkennung“ in Honneths dritter Sphäre verstanden werden. Es ist der Kampf um die soziale Wertschätzung für die psychoanalytische Denkweise in einer Kultur, die diese oft marginalisiert oder missversteht.

Genau hier, an der Schnittstelle von psychischem Bedürfnis und sozialem Anspruch, entsteht die entscheidende ethische Gratwanderung. Die digitale Welt mit ihrer quantifizierenden Logik birgt die permanente Gefahr, den qualitativen Kampf um echte, intersubjektive Anerkennung in einen rein quantitativen, reifizierten Wettlauf um narzisstische Zufuhr zu pervertieren.

  • Anerkennung (im Sinne Honneths) ist ein reziproker, dialogischer Prozess. Sie zielt auf gegenseitiges Verstehen und die Wertschätzung einer konkreten Leistung oder Eigenschaft. Sie stärkt das Subjekt in seiner Besonderheit und integriert es in eine Gemeinschaft.
  • Narzisstische Zufuhr ist ein unidirektionaler, konsumtiver Prozess. Sie zielt auf die Bestätigung des grandiosen Selbst und die Abwehr von Minderwertigkeitsgefühlen. Sie isoliert das Subjekt in seiner Selbstbezüglichkeit.

Die KI-gestützte Praxis verschärft diese Unterscheidung dramatisch. Sie macht es einfacher denn je, Inhalte zu produzieren, die auf die Maximierung von narzisstischer Zufuhr (oberflächliche Zustimmung, hohe Engagement-Metriken) optimiert sind. Sie verleitet dazu, die harte Arbeit der Auseinandersetzung um echte Anerkennung – die Bereitschaft zur kontroversen Debatte, die Geduld im Dialog, die Akzeptanz von differenzierter Kritik – zu umgehen.

Dies führt uns zur abschließenden, offenen Frage dieses Teils, die nicht mehr nur die Psyche des Einzelnen, sondern seine ethische Positionierung in der Welt betrifft:

Wie navigiert das Subjekt auf dieser schmalen Gratwanderung zwischen dem legitimen Streben nach sozialer Anerkennung für seine Arbeit und seine Perspektive und der verführerischen Falle der reinen, reifizierten narzisstischen Zufuhr, die die digitale Technologie so leicht verfügbar macht?

Diese Frage impliziert weitere Dilemmata:

  • Wo endet der berechtigte Wunsch, verständlich und zugänglich zu sein, und wo beginnt die populistische Anbiederung an eine algorithmisch vermessene Erwartungshaltung, die Adorno als das Wesen der Kulturindustrie kritisierte?
  • Wie kann man die Werkzeuge der Aufmerksamkeitsökonomie nutzen, um gehört zu werden, ohne ihre verdinglichende Logik vollständig zu internalisieren?
  • Und kann die Scham, unsere „Wächterin der Sublimierung“, dem Subjekt auch als ethischer Kompass dienen, der ihm signalisiert, wann es die Grenze von der Suche nach Anerkennung zur reinen Sucht nach Bestätigung überschritten hat?

Diese Fragen sind nicht mehr allein durch eine Analyse der Affekte zu beantworten. Sie erfordern eine breitere, kulturkritische Perspektive, die das System in den Blick nimmt, das diese Fallstricke und Versuchungen überhaupt erst hervorbringt. Wir müssen nun also den Fokus von der affektiven Mikro-Physik des Subjekts auf die Makro-Struktur der Gesellschaft und ihrer Ideologien lenken. Wir wenden uns damit dem dritten Teil unserer Untersuchung zu, der die KI-gestützte Praxis im Lichte der Kritischen Theorie analysieren wird.

Die kulturkritische Verortung – Instrumentelle Vernunft und das Potenzial des Widerstands

Die KI als Agent der Kulturindustrie

Die bisherige Analyse hat die KI-gestützte Autorschaft als ein psychodynamisch hoch aufgeladenes Feld entfaltet, das das Subjekt in ein prekäres Oszillieren zwischen grandioser Allmacht und vernichtender Scham verstrickt. Diese individuelle psychische Dynamik entsteht jedoch nicht in einem Vakuum. Sie ist die mikrologische Konsequenz einer makrologischen gesellschaftlichen Entwicklung. Um die volle Tragweite des Phänomens zu erfassen, müssen wir den Blick von der Couch des individuellen Analytikers auf die Struktur der Gesellschaft selbst richten. Hier erweist sich die künstliche Intelligenz als ein Agent, als ein perfekter Vollstrecker jener Tendenzen, die von den Denkern der Frankfurter Schule bereits in der Mitte des 20. Jahrhunderts mit prophetischer Schärfe diagnostiziert wurden. Die KI ist nicht nur ein neues Werkzeug; sie ist die technologische Sublimation der Logik des Spätkapitalismus, die reinste Verkörperung der Kulturindustrie. In diesem Kapitel werden wir zeigen, wie die KI die Mechanismen der instrumentellen Vernunft, der Kolonisierung der Lebenswelt und der Verdinglichung in einer neuen, bisher ungekannten Radikalität umsetzt und so die Grundlagen kritischen und psychoanalytischen Denkens systematisch unterminiert.

Instrumentelle Vernunft und Standardisierung: Die KI als Maschine zur Produktion von „Pseudo-Individualität“

Im Zentrum der Dialektik der Aufklärung von Max Horkheimer und Theodor W. Adorno (1947) steht die düstere These, dass die Aufklärung, die angetreten war, den Menschen aus mythischer Befangenheit zu befreien, in eine neue, noch totalere Form der Mythologie umschlägt. Das Instrument dieses Umschlags ist die instrumentelle Vernunft. Anstatt der kritischen Reflexion über Zwecke und Werte dient die Vernunft in der Moderne nur noch als ein reines Mittel zur effizienten Beherrschung der Natur und der Menschen. Sie fragt nicht mehr nach dem „Warum“, sondern nur noch nach dem „Wie“. „Technische Rationalität heute“, so der berühmte Satz, „ist die Rationalität der Herrschaft selbst“ (Horkheimer & Adorno, 1947, S. 121).

Die KI, insbesondere die generativen Sprachmodelle, ist die Apotheose dieser instrumentellen Vernunft. Sie ist eine Maschine, die darauf optimiert ist, ein gegebenes Ziel – die Produktion eines kohärenten, plausiblen Textes auf Basis eines Prompts – mit maximaler Effizienz und Geschwindigkeit zu erreichen. Sie verkörpert die reine Zweckrationalität, entkoppelt von jedem echten Verstehen, von jedem Sinn für Wahrheit oder ethische Verantwortung. Sie ist ein perfektes Mittel ohne eigenen Zweck.

Diese instrumentelle Rationalität wird nun, so wie es Adorno und Horkheimer für Film und Radio beschrieben, auf die Sphäre der Kultur und des Geistes angewandt. Die KI wird zum zentralen Agenten einer neuen, algorithmisch befeuerten Kulturindustrie. Ihre Produkte – die KI-generierten Texte – weisen unweigerlich die Züge auf, die Adorno und Horkheimer als die Stigmata der kulturindustriellen Ware identifizierten:

  1. Standardisierung und Schematisierung: Die Kulturindustrie, so die Analyse, produziert keine einzigartigen Kunstwerke, sondern standardisierte, schematische Waren, die auf Wiedererkennbarkeit und leichten Konsum getrimmt sind. Die KI tut exakt dasselbe auf der Ebene der Sprache. Da sie auf der statistischen Wahrscheinlichkeit von Wortfolgen basiert, die sie in ihren riesigen Trainingsdaten gefunden hat, tendiert sie naturgemäß dazu, den sprachlichen und inhaltlichen Mainstream zu reproduzieren. Sie generiert den wahrscheinlichsten, den durchschnittlichsten, den konsensfähigsten Satz. Ein von der KI erstellter Text über Psychoanalyse wird daher unweigerlich die gängigsten, am häufigsten wiederholten Konzepte in der konventionellsten Form darstellen. Die radikalen, sperrigen, widersprüchlichen und oft provokativen Aspekte der Originaltheorien – jene Elemente, die das Nicht-Identische und den Widerstand gegen die glatte Vereinnahmung repräsentieren – werden systematisch geglättet und ausgefiltert. Das Ergebnis ist ein Jargon der Psychoanalyse, der zwar alle richtigen Worte enthält, aber seelenlos und austauschbar bleibt.
  2. Die Illusion der „Pseudo-Individualität“: Adorno und Horkheimer erkannten, dass die Kulturindustrie die Monotonie ihrer Produkte durch oberflächliche, kalkulierte Abweichungen kaschiert, die dem Konsumenten das Gefühl von Individualität und Wahlfreiheit geben sollen. Jedes Produkt ist im Kern gleich, aber die „Verpackung“ variiert leicht. Die KI perfektioniert diese Produktion von Pseudo-Individualität. Sie kann einen Text auf Befehl in verschiedenen Stilen verfassen („Schreibe es formeller“, „Schreibe es lockerer“, „Schreibe es für ein akademisches Publikum“). Doch diese stilistischen Variationen sind nur eine oberflächliche Maskerade, die über die zugrundeliegende, standardisierte inhaltliche Matrix gelegt wird. Der Nutzer erhält die Illusion, einen einzigartigen, auf ihn zugeschnittenen Text zu erhalten, während er in Wahrheit nur eine leicht modifizierte Variante desselben standardisierten Produkts konsumiert. Die Möglichkeit, Prompts zu verfeinern, erzeugt das Gefühl von Kontrolle und individueller Gestaltung, während man sich in Wahrheit nur innerhalb der engen, vom algorithmischen System vorgegebenen Grenzen bewegt.
  3. Die Liquidierung des Subjekts: Das ultimative Ziel der Kulturindustrie ist die Liquidierung des autonomen, kritischen Subjekts. Der Konsument soll nicht mehr denken und urteilen, sondern nur noch passiv rezipieren und reagieren. Die KI-gestützte Texterstellung realisiert diese Tendenz auf der Seite des Produzenten. Wie in Kapitel 1.2 analysiert, wird der Autor vom ringenden Subjekt zum Operator und Kurator degradiert. Er muss den Inhalt nicht mehr selbst durchdringen und verantworten; seine Aufgabe ist es, den Output der Maschine zu managen. Die instrumentelle Vernunft der KI erzieht den Nutzer zur Annahme einer ebenso instrumentellen Haltung gegenüber seinem eigenen Denken.

In der Anwendung auf die psychoanalytische Wissensproduktion bedeutet dies eine fundamentale Bedrohung. Psychoanalyse ist in ihrem Kern eine kritische Theorie des Subjekts, die auf der Analyse des Einzigartigen, des Symptoms, des Lapsus, des Traums beruht – all dessen, was sich der Standardisierung entzieht. Die KI als Agent der Kulturindustrie droht, genau diesen kritischen, subversiven Kern zu neutralisieren, indem sie psychoanalytisches Wissen in eine leicht konsumierbare, geglättete und standardisierte Ware verwandelt. Der Text über das Unbewusste wird so zum Produkt einer Maschine, die selbst das perfekteste Beispiel für ein rein bewusstes, rationalistisches, nicht-dialektisches System ist – eine tiefere Ironie lässt sich kaum denken.

3.1.2          Kolonisierung der Lebenswelt: Die KI als trojanisches Pferd des Systems

Während Adorno und Horkheimer die Produktion von Kulturwaren als einen Prozess der Standardisierung und der Herrschaft der instrumentellen Vernunft analysierten, richtete Jürgen Habermas in seiner Theorie des kommunikativen Handelns (1981) den Fokus auf die sozialen Interaktionen selbst. Seine Analyse bietet ein weiteres, entscheidendes Instrument, um die subtile, aber tiefgreifende Gewalt zu verstehen, die die KI auf den psychoanalytischen Diskurs ausübt. Aus einer Habermas’schen Perspektive agiert die KI als ein trojanisches Pferd: Sie dringt unter dem Deckmantel der neutralen Informationsvermittlung in die Sphäre des verstehenden Dialogs ein und unterwirft sie der Logik systemischer Imperative. Sie wird zum Agenten einer neuen, algorithmisch vermittelten „Kolonisierung der Lebenswelt“.

Habermas differenziert die moderne Gesellschaft in zwei grundlegende Sphären. Die Lebenswelt ist der Bereich des alltäglichen, intersubjektiven Zusammenlebens. Hier wird Handeln durch kommunikatives Handeln koordiniert, das heißt durch einen Prozess der zwanglosen Verständigung, der auf geteilten Werten, gegenseitigem Verstehen und der Geltung von besseren Argumenten beruht. Die Lebenswelt ist der Ort der Kultur, der Persönlichkeit und der sozialen Integration. Demgegenüber steht das System, das primär aus den Teilsystemen Wirtschaft und staatliche Verwaltung besteht. Hier wird Handeln nicht durch Verständigung, sondern durch entkoppelte, nicht-sprachliche Steuerungsmedienkoordiniert: Geld (im Markt) und Macht (in der Bürokratie). Diese Medien funktionieren nach einer eigenen, instrumentellen Logik der Effizienz und des strategischen Erfolgs.

Die Pathologie der Moderne besteht nach Habermas darin, dass die Systemimperative zunehmend in die Bereiche der Lebenswelt eindringen und deren kommunikative Rationalität verdrängen und untergraben. Diesen Prozess nennt er die Kolonisierung der Lebenswelt. Bildung, Familie, Kunst, öffentliche Debatte – all diese Sphären, die eigentlich auf Verständigung und Sinn beruhen sollten, werden zunehmend nach den systemischen Kriterien von Effizienz, Profitabilität oder bürokratischer Kontrollierbarkeit beurteilt. Die Folge ist eine fortschreitende Entfremdung und die „Verdinglichung“ (Reifikation) sozialer Beziehungen, in denen Menschen einander nicht mehr als verstehende Subjekte, sondern als strategische Gegner, Konsumenten oder verwaltbare Fälle behandeln.

Die künstliche Intelligenz, so die These, muss als ein neuer, hochwirksamer Systemcode verstanden werden, der diese Kolonisierung auf eine neue Ebene hebt. Ein KI-Algorithmus, insbesondere ein großes Sprachmodell, das in die Strategien von Technologiekonzernen eingebettet ist, folgt nicht der Logik der kommunikativen Verständigung. Seine operative Logik ist die der systemischen Rationalität: die Optimierung einer Zielgröße (z. B. „Engagement“, Verweildauer, Klickwahrscheinlichkeit) auf Basis statistischer Korrelationen.

Wenn nun ein Psychoanalytiker KI nutzt, um einen Text für seine Website zu erstellen, wird dieser Prozess unweigerlich von diesem Systemcode durchdrungen. Der Akt des Schreibens, der idealerweise ein Akt des kommunikativen Handelns sein sollte – ein Subjekt wendet sich verstehend an ein potenzielles Publikum, um einen Geltungsanspruch (auf Wahrheit, Richtigkeit, Wahrhaftigkeit) zu erheben und diesen argumentativ einzulösen –, wird von einer fremden Logik überformt:

  1. Die Optimierung des Inhalts: Der Autor wird dazu verleitet (oder von der KI direkt angeleitet), seinen Text nicht primär nach den Kriterien der inhaltlichen Stimmigkeit oder der theoretischen Tiefe zu gestalten, sondern nach den Kriterien der algorithmischen Sichtbarkeit (SEO). Die Wahl der Worte, die Struktur der Überschriften, die Dichte der Schlüsselbegriffe – all dies wird dem Diktat des Systemcodes unterworfen, dessen Ziel nicht Verständigung, sondern die Befriedigung des Suchalgorithmus ist.
  2. Die Illusion der Interaktion: KI-gestützte Plattformen (von Chatbots bis hin zu sozialen Medien) simulieren Interaktion und Dialog. Sie erwecken den Anschein einer lebendigen Lebenswelt. Doch diese Kommunikation ist, wie Wejryd (2023) in einer Habermas’schen Analyse der KI darlegt, systematisch verzerrt. Unsichtbare kommerzielle Algorithmen steuern, was gesagt wird, was Gehör findet und was ignoriert wird. Der öffentliche Diskursraum wird so von einer scheinbar neutralen Infrastruktur gelenkt, die in Wahrheit den Steuerungsmedien Geld (Werbung, Datenmonetarisierung) und Macht (Kontrolle über den Informationsfluss) gehorcht.
  3. Die Erosion der öffentlichen Sphäre: Für Habermas ist eine funktionierende, auf rationalem Diskurs basierende öffentliche Sphäre das Herzstück der Demokratie. Die KI droht, diesen Raum zu erodieren. Anstatt eines Wettbewerbs der besseren Argumente erleben wir einen Wettbewerb der algorithmisch optimierten Inhalte. Die Fähigkeit der Bürger, sich ein eigenständiges, kritisches Urteil zu bilden, wird untergraben, wenn die ihnen präsentierten Informationen bereits durch unsichtbare, kommerzielle Systemlogiken vorselektiert und geformt sind.

Der psychoanalytische Diskurs, der in diesen Raum eintritt, wird so unweigerlich kolonisiert. Anstatt die Lebenswelt zu bereichern, indem er ihr eine neue, psychoanalytische Perspektive zur Selbstreflexion anbietet, läuft er Gefahr, selbst zu einem weiteren Rädchen im System der Aufmerksamkeitsökonomie zu werden. Der psychoanalytische Text wird vom Medium der Aufklärung zum „Content“, der im Wettbewerb um Klickzahlen steht. Die pathologische Folge dieser Kolonisierung ist, wie Habermas (1981) argumentiert, ein Verlust an geteiltem Sinn, eine Zunahme an strategischem Handeln und eine fortschreitende Entfremdung. Der KI-gestützte psychoanalytische Text, so die zugespitzte These, ist dann nicht mehr Teil der Lösung (Aufklärung über Entfremdung), sondern Teil des Problems (die Produktion von Entfremdung durch die Verdrängung kommunikativer Rationalität).

Die „Verdinglichung der Seele“: Reifikation und das Vergessen der Anerkennung im KI-gestützten Prozess

Die von Adorno und Horkheimer beschriebene Herrschaft der instrumentellen Vernunft und die von Habermas analysierte Kolonisierung der Lebenswelt kulminieren in einem Prozess, der vielleicht als der schmerzhafteste Kern der modernen Entfremdungserfahrung bezeichnet werden kann: der Verdinglichung (Reifikation). Dieses Konzept, ursprünglich von Georg Lukács (1923) in seiner wegweisenden Studie Geschichte und Klassenbewußtsein in Anlehnung an Marx entwickelt, beschreibt einen Zustand, in dem die von Menschen geschaffenen sozialen Beziehungen und sogar ihre eigenen inneren Aktivitäten ihnen als fremde, dinghafte und quasi-naturgesetzliche Mächte entgegentreten. Die lebendige, dialektische Praxis menschlicher Interaktion erstarrt zu einer „zweiten Natur“, einem Phantom der Objektivität, das die zugrundeliegende menschliche Urheberschaft verschleiert. Der KI-gestützte Schreibprozess, so die These dieses Abschnitts, ist eine Maschine zur Perfektionierung und Radikalisierung dieser Verdinglichung. Er führt nicht nur zu einer Reifikation des Textes als Produkt und des Diskurses als sozialen Raum, sondern letztlich zu einer „Verdinglichung der Seele“ – einer Vergegenständlichung der intimsten psychischen Prozesse des Autors und einer Aushöhlung der intersubjektiven Beziehung zum Leser.

Der erste Schritt dieser Verdinglichung liegt in der Transformation des Schreibprozesses selbst von einer lebendigen, prozessualen Tätigkeit zu einer verwalteten, mechanisierten Prozedur. Der Prompt, der die Interaktion initiiert, reduziert den komplexen, oft unbewussten und ambivalenten Wunsch zu schreiben auf einen operationalisierbaren Befehl, eine Art Warenbestellung bei einer algorithmischen Black Box. Die innere Welt des Autors mit ihren Assoziationen, Widerständen und affektiven Besetzungen wird in eine verwertbare Kommandozeile übersetzt, die den Kriterien der maschinellen Lesbarkeit genügen muss. Der KI-generierte Output tritt dem Autor dann als ein fertiges, scheinbar von selbst entstandenes Produkt entgegen. In ihm sind, wie Lukács es für die Warenform beschrieb, die Spuren des lebendigen Arbeitsprozesses getilgt. Der Text verliert seinen Charakter als Zeugnis eines individuellen, zeitgebundenen Ringens und erhält den Fetischcharakter einer Ware (Marx, 1867/1962). Sein soziales Wesen – die Tatsache, dass er auf den Abermilliarden von Textfragmenten und somit der kollektiven sprachlichen Arbeit unzähliger anderer Menschen beruht – wird unsichtbar gemacht und erscheint stattdessen als die magische Fähigkeit einer autonomen Maschine.

In diesem reifizierten Prozess wird der Autor unweigerlich selbst zum Objekt. Er wird, wie Lukács (1923) es für den Arbeiter am Fließband beschrieb, zu einem kontemplativen Beobachter eines von ihm entfremdeten Geschehens. Er agiert nicht mehr als autonomes Subjekt, das seine Welt gestaltend durchdringt, sondern als Manager und Optimierer eines maschinellen Outputs. Seine eigene Seele, seine Intuition, seine Kreativität, sein Stil – all das, was seine Subjektivität ausmacht – wird zu einem „Faktor“, den es zu managen, zu optimieren oder zu unterdrücken gilt, um das System effizient zu bedienen. Er instrumentalisiert sich selbst und wendet die Logik der Verdinglichung auf seine eigene Psyche an. Der Wert seiner Arbeit wird schließlich nicht mehr an ihrer inhaltlichen Tiefe oder ihrer Wahrhaftigkeit gemessen, sondern an abstrakten, quantitativen Metriken – Klicks, Views, Shares, SEO-Ranking. So wie in der kapitalistischen Produktion der konkrete Gebrauchswert einer Ware dem abstrakten Tauschwert untergeordnet wird, so wird der kommunikative, auf Verständigung zielende Wert des Textes dem abstrakten Wert der algorithmischen Performance geopfert.

Axel Honneth (2005) hat in seiner kritischen Reaktualisierung des Reifikationsbegriffs argumentiert, dass Verdinglichung im Kern ein „Vergessen der Anerkennung“ bedeutet. Wir behandeln andere Menschen (und uns selbst) dann als Objekte, wenn wir ihre grundlegende Eigenschaft als fühlende, verletzliche und anerkennungsbedürftige Subjekte ignorieren oder vergessen. Der KI-gestützte Prozess ist ein Katalysator für genau dieses Vergessen auf mehreren Ebenen:

  1. Das Vergessen der Anerkennung durch den Leser: Indem der Autor seinen Text primär auf die Befriedigung des Algorithmus hin optimiert, vergisst er den Leser als ein Gegenüber, das nach echtem Verstehen, Resonanz und authentischem Dialog sucht. Der Leser wird zur Zielgruppe, zum User, zu einer quantifizierbaren Größe, deren Klick es zu „harvesten“ gilt. Die intersubjektive Beziehung der Anerkennung, die auf Gegenseitigkeit und der Bereitschaft zur Auseinandersetzung beruht, wird durch eine einseitige, strategische Beziehung der Beeinflussung ersetzt.
  2. Das Vergessen der Selbstanerkennung: Indem der Autor die externen Metriken als primären Maßstab seines Erfolgs akzeptiert, vergisst er, sich selbst für die eigentliche, mühsame Arbeit des Denkens und Ringens anzuerkennen. Er entwertet seine eigene innere psychische Arbeit – die Sublimierung – zugunsten einer externen, oberflächlichen Validierung. Der reife, auf realer Leistung basierende Narzissmus, der aus dem Stolz auf ein selbst durchgerungenes Werk erwächst, wird durch die Sucht nach der leeren, narzisstischen Zufuhr der Zahlen ersetzt.
  3. Die Illusion der Anerkennung durch die Maschine: Schließlich bietet die KI selbst eine simulierte, verdinglichte Form der Anerkennung. Ihr eloquenter Output, ihre Fähigkeit, den Stil des Nutzers zu imitieren, erzeugt das Gefühl, verstanden und bestätigt zu werden. Doch diese „Anerkennung“ ist eine leere Geste, ein Fetisch. Sie kommt von einem System, das selbst kein Subjekt ist, kein Begehren hat und daher keine echte Anerkennung schenken kann. Es ist eine Anerkennung ohne Anerkennenden, eine weitere Form der Reifikation, die die Sehnsucht des Subjekts ausnutzt, aber niemals wirklich stillt.

Die „Verdinglichung der Seele“ ist somit der Endpunkt der kulturindustriellen Logik im digitalen Zeitalter. Sie bezeichnet einen Zustand, in dem die tiefsten Aspekte menschlicher Subjektivität – das Denken als Prozess, die Sprache als Ausdruck, die Beziehung als Dialog, die Anerkennung als Lebenselixier – in quantifizierbare, manipulierbare und letztlich bedeutungsleere Objekte verwandelt werden. Der psychoanalytische Diskurs, der angetreten ist, die Seele von ihrer Verdinglichung im Symptom zu befreien, läuft in seiner KI-gestützten Form Gefahr, selbst zum Agenten dieser Verdinglichung zu werden, indem er sich den Gesetzen des Systems unterwirft, das er eigentlich kritisieren sollte. Er droht, seine kritische Kraft zu verlieren und zu einem weiteren reifizierten Produkt auf dem Markt der Selbstoptimierungstechnologien zu werden.

Offene Frage des Kapitels: Die totale Vereinnahmung oder der Riss in der Fassade?

Die Analyse hat ein düsteres Bild gezeichnet. Wir haben die künstliche Intelligenz als einen perfekten Agenten der Kulturindustrie entlarvt, der die instrumentelle Vernunft in der Produktion von standardisierten, schematischen Texten auf die Spitze treibt (Adorno & Horkheimer). Wir haben sie als einen neuen Systemcode identifiziert, der droht, die auf Verständigung zielende Lebenswelt des psychoanalytischen Diskurses zu kolonisieren und der Logik von Metriken und Algorithmen zu unterwerfen (Habermas). Schließlich haben wir diesen Prozess als eine radikale Form der Verdinglichung beschrieben, die nicht nur den Text zur Ware und den Autor zum Operator macht, sondern die Seele selbst zu einem verwaltbaren Objekt degradiert und die Möglichkeit echter, intersubjektiver Anerkennung untergräbt (Lukács & Honneth).

Die KI erscheint in dieser Lesart als die technologische Vollendung eines totalitären gesellschaftlichen Prozesses, als ein hermetisches System, das jede Form von kritischer Negativität, von authentischer Subjektivität und von nicht-instrumenteller Vernunft zu absorbieren und zu neutralisieren scheint. Die Gefahr, die hier aufscheint, ist die einer totalen Vereinnahmung des kritischen Denkens durch den Apparat, den es zu analysieren gilt.

Dies führt uns zur entscheidenden und drängenden Frage, die dieses kulturkritische Kapitel aufwirft und die den weiteren Verlauf unserer Untersuchung bestimmen muss:

Ist diese Tendenz zur totalen Unterminierung und Verdinglichung durch die KI ein unaufhaltsamer, schicksalhafter Prozess, ein „stahlhartes Gehäuse“ (Weber, 1905/1988) der algorithmischen Vernunft, dem sich das Subjekt nur noch unterwerfen kann? Oder gibt es, selbst im Herzen dieses scheinbar perfekten Herrschaftsinstruments, Risse in der Fassade, Widersprüche, innere Spannungen und ungenutzte Potenziale, die einen Raum für Widerstand, für Zweckentfremdung und für eine emanzipatorische Praxis eröffnen?

Diese Frage leitet direkt über zu den Kernanliegen der Kritischen Theorie, die niemals bei der reinen Beschreibung der Negativität stehen geblieben ist, sondern immer auch nach den „Spuren des Besseren“ im Falschen gesucht hat. Um diese Frage zu beantworten, müssen wir uns fragen:

  • Ist die instrumentelle Vernunft der KI absolut? Oder kann ihre eigene Logik, ihre statistische und kombinatorische Natur, gezielt genutzt werden, um ihre Grenzen aufzuzeigen, sie zur Produktion von Dissonanzen statt Harmonien zu zwingen und sie so dialektisch gegen sich selbst zu wenden? Kann, wie Marcuse (1964) hoffte, die technische Rationalität selbst die Basis für eine neue, befreite Form der Vernunft werden?
  • Ist die Kolonisierung unumkehrlich? Oder kann das Subjekt lernen, die von der KI angebotenen „Systemmittel“ (z.B. Effizienzgewinn) bewusst zu nutzen, ohne ihre „Systemlogik“ (Maximierung, Beschleunigung) zu übernehmen? Kann der durch KI geschaffene Freiraum tatsächlich zur Stärkung der Lebenswelt – durch mehr Zeit für Reflexion, Dialog und nicht-kommerzielle Kulturarbeit – genutzt werden?
  • Ist die Verdinglichung total? Oder liegt im Akt der transparenten und selbstkritischen Reflexion über den KI-Einsatz selbst bereits ein Moment der De-Reifikation? Kann das Subjekt, indem es seine eigene Verstrickung in den verdinglichten Prozess zum Thema macht, eine neue Form der anerkennenden Beziehung zu sich selbst und zu seinem Publikum herstellen?

Um diese hoffnungsvolleren, aber keineswegs naiven Fragen zu untersuchen, müssen wir nun die Perspektive wechseln. Wir verlassen die reine Diagnose der Unterminierung und wenden uns der gezielten Suche nach dem emanzipatorischen Potenzial zu. Wir werden im nächsten Kapitel untersuchen, wie eine bewusste, kritisch-theoretisch informierte Praxis aussehen könnte, die die Maschine nicht ablehnt, sondern sie „hackt“, sie zweckentfremdet und sie zu einem Werkzeug im Dienste der Aufklärung macht, anstatt ihr als Sklave der Entfremdung zu dienen. Wir fragen nun nicht mehr nur, was die Maschine mit uns macht, sondern was wir mit der Maschine machen können.

Die Möglichkeit der Emanzipation – Die „Große Weigerung“ im Kleinen

Die schonungslose Analyse der künstlichen Intelligenz als Agent der Kulturindustrie, als Kolonisator der Lebenswelt und als Perfektionierer der Verdinglichung scheint auf den ersten Blick in eine tiefe Aporie zu führen. Wenn die KI die instrumentelle Vernunft in ihrer reinsten Form verkörpert, erscheint jeder Versuch, sie zu nutzen, zwangsläufig als eine Unterwerfung unter ihre Logik, als ein weiterer Schritt in die selbstverschuldete Entmündigung. Eine solche Schlussfolgerung würde jedoch dem Wesen der Kritischen Theorie selbst widersprechen, die sich stets geweigert hat, in einem rein pessimistischen Defätismus zu verharren. Gerade in der totalen Immanenz der Herrschaft, so die oft kontraintuitive Einsicht Adornos und Marcuses, können sich die Bedingungen für ihre Transzendenz verbergen. Das Herrschaftsinstrument selbst kann, wenn es dialektisch gewendet wird, zum Werkzeug seiner eigenen Kritik und Überwindung werden.

Dieses Kapitel widmet sich der Untersuchung dieses emanzipatorischen Potenzials. Es geht nicht um eine naive Technik-Utopie, sondern um die Frage, ob und wie eine bewusste, kritisch informierte Praxis die KI „zweckentfremden“ kann, um Räume der Autonomie zu schaffen, anstatt sie zu zerstören. Es ist die Suche nach der Möglichkeit einer „Großen Weigerung“ (Marcuse, 1964) – nicht als ein spektakulärer Akt des totalen Ausstiegs, sondern als eine Reihe von subversiven, intelligenten und alltäglichen Praktiken, die die Logik des Apparats im Kleinen unterlaufen und ihn gegen sich selbst wenden. Wir werden drei zentrale Strategien dieser „Weigerung im Kleinen“ untersuchen: die dialektische Wiederaneignung der Maschine, die Zweckentfremdung ihrer Effizienz und die Nutzung ihrer Reichweite zur Demokratisierung des Wissens.

„Dialectical Re-appropriation“: Die kritische Praxis der maschinellen Selbstnegation

Die erste und fundamentalste Strategie der emanzipatorischen Praxis besteht darin, die Beziehung zur KI von einer rein instrumentellen (der Autor nutzt die Maschine, um ein Ziel zu erreichen) in eine dialektische zu überführen. Anstatt die KI als ein Orakel zu behandeln, das finale, geglättete Wahrheiten liefert, wird sie zu einem Objekt, das gezielt zur Konfrontation mit Widersprüchen, zur Aufdeckung verborgener Annahmen und zur Negation ihrer eigenen oberflächlichen Logik gezwungen wird. Dieser Prozess der „dialectical re-appropriation“ (dialektischen Wiederaneignung) macht sich die Funktionsweise der Maschine zunutze, um ihre Grenzen zu überwinden und sie zu einem Werkzeug der Kritik statt der Affirmation zu machen.

Der unreflektierte Umgang mit der KI folgt der Logik der instrumentellen Vernunft: Man gibt einen Befehl in der Erwartung einer optimierten Lösung. Die dialektische Praxis hingegen internalisiert das Prinzip der Negation, das für die Kritische Theorie (insbesondere bei Adorno und Marcuse) das Wesen des freien Denkens ausmacht. Denken ist nicht die Bestätigung des Gegebenen, sondern die Fähigkeit, es in Frage zu stellen, seine Widersprüche aufzuzeigen und über es hinauszudenken. Eine dialektische KI-Praxis würde also nicht primär fragen: „Was ist die beste Antwort?“, sondern: „Was ist der verborgene Widerspruch in der besten Antwort?“. Sie nutzt die Maschine nicht, um die Komplexität zu reduzieren, sondern um sie zu erzeugen und sichtbar zu machen.

Dies lässt sich in mehreren konkreten Praktiken umsetzen:

  1. Die Provokation der Antithese: Anstatt die KI um eine affirmative Zusammenfassung eines Themas zu bitten, wird sie gezielt aufgefordert, die Gegenposition zu formulieren. Der Psychoanalytiker, der über die therapeutische Bedeutung von Empathie schreibt, könnte die KI anweisen: „Schreibe eine überzeugende Verteidigung der instrumentellen, distanzierten Haltung in der Psychotherapie und argumentiere, warum Empathie schädlich sein kann.“ Das Ergebnis mag zunächst provokant oder gar falsch erscheinen, aber es zwingt den Autor, die eigene Position nicht als selbstverständlich vorauszusetzen, sondern sie im Angesicht eines starken Gegenarguments zu schärfen und zu verteidigen. Die KI wird so vom Erfüllungsgehilfen zum künstlichen Sparringspartner, der zur dialektischen Schärfung des eigenen Denkens beiträgt. Dies entspricht Marcuses (1964) Forderung, die unterdrückte „andere Dimension“ – die Negation, die Alternative – wieder in den eindimensionalen Diskurs einzuführen.
  2. Die erzwungene Selbstkritik: Ein noch radikalerer Schritt ist es, die KI zu zwingen, ihre eigene Produktion zu negieren. Nachdem man einen ersten, typischerweise glatten und oberflächlichen Entwurf erhalten hat, formuliert man einen zweiten, metakritischen Prompt: „Analysiere den obigen Text kritisch. Identifiziere seine Schwächen, seine verborgenen ideologischen Annahmen, seine Einseitigkeiten und die Aspekte, die er vernachlässigt.“ Ein fortschrittliches Sprachmodell ist durchaus in der Lage, auf einer formalen Ebene solche Schwächen zu erkennen (z.B. „Der Text stellt die Theorien dar, ohne ihre internen Widersprüche zu thematisieren“). In diesem Moment wird die Maschine gezwungen, ihre eigene Tendenz zur Harmonisierung und Vereinfachung zu entlarven. Sie wird zu einem Werkzeug der immanenten Kritik im Sinne Adornos: Sie deckt die Widersprüche innerhalb des Systems mit den Mitteln des Systems selbst auf.
  3. Das Spiel mit der Dissonanz: Anstatt die KI zur Produktion von Kohärenz zu nutzen, kann sie bewusst zur Erzeugung von Dissonanz und zur Aufdeckung von verborgenen Assoziationen eingesetzt werden. Man könnte Prompts formulieren wie: „Finde eine überraschende, kontraintuitive Verbindung zwischen dem psychoanalytischen Konzept der Verdrängung und der Funktionsweise von Finanzmärkten.“ Die Antwort der KI, basierend auf der statistischen Analyse von Millionen von Texten, mag zunächst absurd erscheinen. Aber in dieser algorithmisch erzeugten Juxtaposition, in diesem maschinellen „Verschreiber“, kann eine bisher ungedachte, potenziell fruchtbare Assoziation aufscheinen – analog zu den surrealistischen Techniken der écriture automatique oder der Freud’schen Deutung von Versprechern. Der reflektierte Autor nutzt die KI hier nicht als Wahrheitsgenerator, sondern als einen heuristischen Zufallsgenerator, als eine Maschine zur Produktion von produktiven „Glitches“, die das eigene Denken aus seinen etablierten Bahnen werfen.

Durch diese Praktiken der dialektischen Wiederaneignung verändert sich die Position des Subjekts fundamental. Es ist nicht mehr der passive Kurator, der den Output der Maschine hinnimmt, sondern der aktive, souveräne dialektische Fragesteller, der die Kontrolle über den Erkenntnisprozess behält. Er nutzt die immense kombinatorische Kraft der KI, aber er unterwirft sie dem Primat der kritischen Negation. Die KI wird so vom Orakel, dem man gläubig lauscht, zu einem Resonanzraum, in dem Gedanken und Gegengedanken aufeinanderprallen können. Ein auf diese Weise entstandener Text würde die Spuren dieses dialektischen Prozesses tragen. Er würde nicht nur Antworten präsentieren, sondern auch die Fragen, die zu ihnen geführt haben, die verworfenen Alternativen und die ungelösten Widersprüche. Er wäre kein glattes Produkt der Kulturindustrie mehr, sondern das Zeugnis eines kritischen Ringens, das die Maschine als Werkzeug der Aufklärung statt der Verdummung nutzt. So wird aus dem Agenten der instrumentellen Vernunft paradoxerweise ein Instrument zur Stärkung der kritischen Vernunft.

Der „Autonomiefonds“: Die Zweckentfremdung von Effizienz als Akt des Widerstands

Die zweite Strategie der emanzipatorischen Praxis verlässt die rein epistemologische Ebene der dialektischen Befragung und wendet sich der materiellen und temporalen Ökonomie der Arbeit selbst zu. Das vielleicht offensichtlichste und zugleich am meisten missverstandene Potenzial der künstlichen Intelligenz liegt in ihrer Fähigkeit zur massiven Effizienzsteigerung bei Routineaufgaben. Ein Sprachmodell kann in Minuten eine erste Rohrecherche durchführen, eine Literaturliste zusammenstellen, wirre Notizen in strukturierte Absätze fassen oder einen langen Text zusammenfassen. Diese Beschleunigung spart dem Autor eine erhebliche Menge an Zeit und kognitiver Energie.

In der Logik der instrumentellen Vernunft und der Leistungsgesellschaft ist der Zweck dieser Effizienzsteigerung klar und eindimensional: Der gewonnene Freiraum muss reinvestiert werden, um die Produktivität weiter zu maximieren. Wer früher in 60 Stunden einen Artikel schrieb und dies nun dank KI in 20 Stunden schafft, soll in den verbleibenden 40 Stunden zwei weitere Artikel schreiben, mehr Patienten behandeln oder neue digitale Produkte entwickeln. Die Beschleunigung dient nur der weiteren Beschleunigung; der Effizienzgewinn wird unmittelbar von der Verwertungslogik des Systems absorbiert.

Eine emanzipatorische Praxis, eine „Große Weigerung“ im Kleinen, besteht nun genau darin, diesen Kreislauf bewusst zu durchbrechen. Sie folgt dem Prinzip der Zweckentfremdung: Der durch die Maschine gewonnene Effizienzgewinn wird nicht dem System zurückgegeben, sondern systematisch für Zwecke eingesetzt, die der Logik des Systems diametral entgegenstehen – für die qualitative Vertiefung, für die nicht-kommerzielle Reflexion und für die Kultivierung von Langsamkeit. Diese Praxis lässt sich im Konzept eines persönlichen „Autonomiefonds“ konkretisieren – einem mentalen und realen Budget aus Zeit und Energie, das durch KI freigespielt und gezielt für nicht-beschleunigte, nicht-verwertbare Tätigkeiten reserviert wird.

  1. Die Verteidigung der Muße und der Latenz: Anstatt die gewonnene Zeit sofort wieder mit neuer Arbeit zu füllen, wird sie bewusst als Leerraum, als Phase der Muße und Latenz verteidigt. Dies ist ein direkter Akt des Widerstands gegen den Beschleunigungsdruck, den der Soziologe Hartmut Rosa (2020) als eine der Hauptursachen für moderne Entfremdung identifiziert hat. Anstatt in der gewonnenen Zeit drei weitere KI-gestützte Artikel zu produzieren, veröffentlicht der Autor weiterhin nur einen einzigen, sorgfältig durchdachten Beitrag. Die freigewordene Zeit investiert er jedoch in jene Aktivitäten, die für echte intellektuelle und seelische Reifung unabdingbar sind, aber in der Verwertungslogik keinen Platz haben: das langsame, ungerichtete Lesen von Primärtexten, den Besuch von interdisziplinären Arbeitsgruppen, das freie Nachdenken oder, im Sinne Freuds, das Träumen. Die KI wird so paradoxerweise zum Instrument einer Entschleunigung. Sie erledigt die mechanische Routinearbeit schneller, damit der Mensch mehr Zeit hat, langsam zu denken. Die Qualität der psychoanalytischen Publikationen könnte dadurch sogar steigen, weil die Autoren weniger erschöpft und von Routinen erdrückt sind und mehr Raum für das eigentlich Kreative haben.
  2. Die Subventionierung kritischer Kulturarbeit: Der „Autonomiefonds“ kann auch eine finanzielle Dimension haben. Wenn ein Analytiker dank KI-Effizienz in seiner bezahlten Arbeitszeit mehr Freiräume hat, kann er diese gezielt für unbezahlte, aber gesellschaftlich relevante kritische Kulturarbeit nutzen, die sonst aus ökonomischen Gründen entfallen müsste. Er könnte einen Blog mit tagesaktuellen psychoanalytischen Kommentaren zu gesellschaftlichen Phänomenen pflegen, kostenlose Aufklärungsworkshops in Schulen anbieten oder sich in lokalen Gesundheitsdebatten engagieren. Hier wird die Logik der Kulturindustrie direkt umgekehrt: Ein Produkt des Systems (KI) wird genutzt, um die Produktion von nicht-kommerzieller, kritischer Gegen-Kultur zu ermöglichen.
  3. Die Demokratisierung des Zugangs: Die KI kann auch dazu beitragen, die ökonomischen Hürden für die Verbreitung psychoanalytischen Wissens zu senken. Die Produktion von hochwertigen Inhalten wie Podcasts, Videos oder übersetzten Texten ist oft kostenintensiv (Transkription, Schnitt, Lektorat, Übersetzung). KI-Dienste können viele dieser Aufgaben zu einem Bruchteil der Kosten übernehmen. Dies ermöglicht es einzelnen Therapeuten oder kleinen Gruppen, hochwertige Inhalte gratis oder zu geringen Kosten einer breiten Öffentlichkeit zur Verfügung zu stellen und sich so von der Abhängigkeit von teuren Verlagen, elitären Fachzeitschriften oder institutionellen Budgets zu emanzipieren. Diese durch KI ermöglichte ökonomische Autonomie ist ein signifikanter emanzipatorischer Gewinn. Sie entzieht die psychoanalytische Kulturarbeit ein Stück weit den Zwängen des Marktes und der institutionellen Gatekeeper.

Die entscheidende Bedingung für das Gelingen dieser Strategie ist die bewusste und disziplinierte Entscheidung des Subjekts, dem Sirenenruf der Maximierung zu widerstehen. Die Zweckentfremdung erfordert eine ethische Selbstverpflichtung, die freigespielten Ressourcen nicht dem System der Beschleunigung, sondern dem Gegenpol der Vertiefung und der kritischen Reflexion zu widmen. Gelingt dies, wird die KI von einem Werkzeug der Selbstausbeutung im Dienste der Leistungsgesellschaft zu einem Instrument der Selbstbefreiung, das dem Subjekt die vielleicht knappste und kostbarste Ressource der Moderne zurückgibt: die Zeit, autonom über die Zwecke des eigenen Denkens und Handelns zu bestimmen.

Die Erweiterung der Öffentlichkeit: Die KI als Übersetzerin der Lebenswelt

Die dritte und vielleicht gesellschaftlich wirksamste emanzipatorische Strategie besteht darin, die künstliche Intelligenz gezielt als Werkzeug zur Belebung und Erweiterung der öffentlichen Sphäre einzusetzen, wie sie von Jürgen Habermas (1962/1990) konzeptualisiert wurde. Während wir in Kapitel 5.2 die Gefahr der „Kolonisierung der Lebenswelt“ durch den KI-Systemcode analysiert haben, soll hier die dialektische Gegenthese entfaltet werden: Bei einem bewussten, kritisch reflektierten Einsatz kann dieselbe Technologie dazu dienen, die Mauern zwischen dem Expertenwissen und dem Alltagsverständnis einzureißen, die kommunikative Rationalität zu stärken und so die Lebenswelt zu bereichern, anstatt sie zu unterwerfen. Dies erfordert eine Praxis, die die KI nicht als Produzenten von Inhalten, sondern als eine hochentwickelte Übersetzungs- und Vermittlungsinstanz begreift.

Der psychoanalytische Diskurs leidet historisch unter einem fundamentalen Dilemma der Öffentlichkeit. Einerseits hat er einen hochkomplexen, oft hermetisch wirkenden Begriffsapparat entwickelt (z.B. Es, Ich, Über-Ich, Objektbeziehung, Übertragung, der phallische Signifikant), der für Laien ohne intensive Einarbeitung kaum zugänglich ist. Dies führt dazu, dass die seriöse wissenschaftliche Debatte in Fachjournalen und auf Kongressen stattfindet und in einer Art elitärem, von der allgemeinen Lebenswelt abgekoppeltem Zirkel verbleibt. Andererseits wird, wann immer psychoanalytische Konzepte in die breite Öffentlichkeit gelangen, die Gefahr der Banalisierung und der Verzerrung virulent. Begriffe wie „Ödipuskomplex“ oder „freudscher Versprecher“ werden zu leeren Popkultur-Klischees, die ihrer ursprünglichen kritischen und subversiven Tiefe beraubt sind.

Die Psychoanalyse ist somit gefangen zwischen der Skylla der esoterischen Unverständlichkeit und der Charybdis der populären Verflachung. Beide Zustände verhindern die Realisierung jenes aufklärerischen Potenzials, das in ihr steckt: die Bereitstellung eines kritischen Vokabulars für die Gesellschaft, um ihre eigenen unbewussten Konflikte, Ängste und Pathologien zu reflektieren. Genau in dieses Dilemma kann eine reflektierte KI-Praxis als vermittelndes drittes Element eingreifen.

Die Kernkompetenz von großen Sprachmodellen liegt in ihrer Fähigkeit, sprachliche Muster zu erkennen, zu transformieren und zwischen verschiedenen Registern zu wechseln. Diese Fähigkeit lässt sich für eine Art „hermeneutische Übersetzung“ nutzen, die die Kluft zwischen Fachdiskurs und Lebenswelt überbrückt, ohne die Substanz vollständig zu opfern.

  1. Vermittlung von Komplexität: Ein Psychoanalytiker kann einen von ihm verfassten, komplexen Fachtext von einer KI in verschiedene, für unterschiedliche Zielgruppen verständliche Versionen „übersetzen“ lassen. Man könnte Prompts formulieren wie: „Erkläre den Kerngedanken des obigen Absatzes über Lacans Konzept des ‚objet petit a‘ in einer Sprache, die für einen gebildeten Laien ohne Vorkenntnisse verständlich ist, und verwende ein konkretes Alltagsbeispiel.“ oder „Fasse die Argumentation für ein jugendliches Publikum zusammen und konzentriere dich auf die Relevanz für soziale Medien.“ Der Autor behält dabei die volle redaktionelle Kontrolle, überprüft die Vereinfachungen auf ihre inhaltliche Richtigkeit und korrigiert, wo die KI unzulässig banalisiert. Dennoch wird die immense Arbeit, einen komplexen Gedanken für verschiedene Kontexte immer wieder neu aufzubereiten, drastisch reduziert. Dies ermöglicht eine breitere Streuung psychoanalytischer Perspektiven und macht sie anschlussfähig für öffentliche Debatten. Sie werden, im Sinne von Habermas, lebensweltlicher, indem sie in der Alltagssprache auftauchen, ohne sofort verzerrt zu sein.
  2. Globale Vernetzung von Diskursen: Die rapide fortschreitende Qualität maschineller Übersetzungen ermöglicht eine bisher ungekannte globale Vernetzung von psychoanalytischen Diskursen. Ein argentinischer Lacanianer, ein französischer Post-Strukturalist und ein deutscher Kleinianer können ihre jeweiligen Arbeiten nahezu in Echtzeit austauschen und lesen, wodurch die nationalen und sprachlichen Grenzen, die die psychoanalytische Gemeinschaft historisch fragmentiert haben, durchlässiger werden. Dies stärkt die interne kritische Öffentlichkeit der Psychoanalyse selbst und fördert einen globalen, pluralistischen Theoriedialog.

Darüber hinaus kann KI strategisch eingesetzt werden, um die „Lebenswelt“ selbst zu analysieren und so die eigene kommunikative Intervention präziser zu gestalten. Einem Psychoanalytiker ist es unmöglich, den öffentlichen Diskurs über psychische Gesundheit in seiner Gänze zu überblicken. Eine KI hingegen kann riesige Datenmengen – Tausende von Medienberichten, Social-Media-Posts oder Forendiskussionen – zu einem bestimmten Thema (z.B. „Depression“, „Narzissmus“, „Trauma“) analysieren und wiederkehrende Narrative, verbreitete Missverständnisse und dominante emotionale Tonalitäten identifizieren.

Ein Beispiel: Die KI wertet 10.000 Tweets zum Thema „Depression“ aus und stellt fest, dass das vorherrschende Narrativ ein rein neurobiologisches ist („chemisches Ungleichgewicht im Gehirn“) und dass der Affekt der Scham in den Diskussionen systematisch vermieden wird. Der Analytiker erhält so eine präzise „Diagnose“ des öffentlichen Diskurses. Er weiß nun, wo er ansetzen muss: Er kann einen Beitrag verfassen, der gezielt das reduktionistische biologische Narrativ kritisiert und ihm eine psychosoziale und biographische Perspektive entgegenhält. Er kann explizit die verleugnete Dimension der Scham thematisieren. Die KI hat hier einen entscheidenden Service für die kommunikative Rationalität geleistet: Sie hat die systematisch verzerrte Kommunikation (Habermas) der Lebenswelt aufgedeckt und dem kritischen Subjekt ermöglicht, seine aufklärende Intervention genau an den Punkten der Verdrängung und des Missverständnisses anzusetzen.

Natürlich bleibt die Gefahr der Kolonisierung auch in dieser Praxis virulent. Eine unkritische Nutzung der KI als Übersetzerin würde lediglich dazu führen, die Tiefe der psychoanalytischen Begriffe an die Erwartungen des Mainstreams anzupassen und sie so ihrer kritischen Spitze zu berauben. Der entscheidende Unterschied liegt in der Intention und der Kontrolle des Autors.

  • Kolonisierung bedeutet, dass die Logik des Systems (z.B. die Maximierung von Klickzahlen durch die Verwendung populärer, aber unpräziser Begriffe) den Inhalt bestimmt.
  • Erweiterung der Lebenswelt bedeutet, dass die Intention des Autors (z.B. die Vermittlung einer komplexen, kritischen Idee) den Prozess steuert und die KI lediglich als technisches Hilfsmittel zur Überwindung von sprachlichen oder medialen Barrieren einsetzt.

Die Praxis könnte darin bestehen, einen KI-generierten, vereinfachten Text nicht als Endprodukt zu nehmen, sondern als Ausgangspunkt für eine Reflexion: „Was geht in dieser Vereinfachung verloren? Welche entscheidende Nuance muss ich wieder hinzufügen, damit die Übersetzung nicht zur Verfälschung wird?“ Der Prozess selbst wird so zu einer hermeneutischen Übung in der Aushandlung von Tiefe und Verständlichkeit.

Durch diese bewusste und kontrollierte Nutzung kann die KI zu einer mächtigen Verbündeten im aufklärerischen Projekt der Psychoanalyse werden. Sie hilft, die „kommunikative Reichweite“ (Habermas) kritischer Ideen zu vergrößern und der Tendenz der Kulturindustrie zur Banalisierung entgegenzuwirken, indem sie eine fundierte, aber zugängliche Alternative anbietet. Sie ermöglicht es der Psychoanalyse, ihre traditionelle Isolation zu überwinden und wieder zu dem zu werden, was sie in ihren besten Momenten immer war: eine kritische Theorie der Gesellschaft, die ihre Einsichten in den Dienst einer breiteren öffentlichen Selbstreflexion stellt. Anstatt dass die Lebenswelt durch den Systemcode der KI kolonisiert wird, wird der Systemcode der KI instrumentalisiert, um die Rationalitäts- und Verständigungspotenziale der Lebenswelt zu stärfen.

Fallvignette „Dr. P.“: Die Dialektik der Praxis

Die theoretische Unterscheidung zwischen einer unterwerfenden und einer emanzipatorischen KI-Praxis bleibt abstrakt, wenn sie nicht im konkreten Akt des Schreibens selbst auf die Probe gestellt wird. Um die zuvor entwickelten Strategien der „dialectical re-appropriation“, des „Autonomiefonds“ und der „Erweiterung der Öffentlichkeit“ zu veranschaulichen, soll nun eine idealtypische, aber praxisnahe Publikations-Situation durchgespielt werden. Wir begleiten den fiktiven Psychoanalytiker Dr. P. bei der Erstellung eines Blogartikels und beobachten, wie in jedem Schritt seines Prozesses die widerstreitenden Potenziale der KI – Unterminierung und Autonomie – miteinander ringen.

Die Ausgangssituation: Dr. P. ist ein praktizierender Psychoanalytiker. Er bemerkt in seiner klinischen Arbeit eine Zunahme von Patienten, die entweder selbst unter narzisstischen Problematiken ringen oder unter den Beziehungen zu narzisstischen Partnern, Eltern oder Vorgesetzten leiden. Er fühlt den Wunsch und die professionelle Verantwortung, zu diesem gesellschaftlich relevanten Thema öffentlich Stellung zu beziehen und eine differenzierte, psychoanalytische Perspektive anzubieten, die über die populären, oft simplifizierenden Darstellungen von „Narzissten“ als reinen „Monstern“ hinausgeht. Aufgrund seines vollen Praxisalltags hat er jedoch nur begrenzte zeitliche Ressourcen und beschließt, kontrolliert KI-Unterstützung zu nutzen. Sein Ziel: ein ca. 1500 Wörter langer, fundierter Artikel für seine Website, der psychoanalytische Tiefe mit aktueller gesellschaftlicher Relevanz verbindet und für ein gebildetes Laienpublikum zugänglich ist.

Schritt 1: Der erste Impuls – Die Verführung durch den glatten Entwurf

Dr. P. beginnt den Prozess, indem er ein fortschrittliches Sprachmodell (wie GPT-5 mit Deep Research) mit einem relativ allgemeinen Prompt füttert: „Schreibe einen Blogartikel (ca. 1500 Wörter) über Narzissmus aus psychoanalytischer Sicht. Gehe auf klassische Theorien (Freud, Objektbeziehungstheorie) und auf heutige soziale Aspekte (Einfluss von Social Media) ein.“

Innerhalb von Minuten liefert die KI einen beeindruckend kohärenten, gut strukturierten Entwurf. Der Text hat klare Abschnitte: eine Definition, eine Darstellung von Freuds Konzept des primären und sekundären Narzissmus, eine Gegenüberstellung von Kernberg und Kohut, einen Abschnitt über die Einflüsse von Social Media und ein zusammenfassendes Fazit.

Moment der Unterminierung: Dr. P. ist zunächst von der Effizienz und der sprachlichen Glätte des Ergebnisses beeindruckt. Die Versuchung ist groß, diesen Text nur noch oberflächlich zu redigieren und zu veröffentlichen. Dies wäre die rein instrumentelle Nutzung, die die Logik der Kulturindustrie bestätigt. Bei genauerem Lesen bemerkt er jedoch ein Unbehagen. Der Text ist zwar korrekt, aber er ist auch seelenlos und stereotyp. Er stellt die Theorien von Freud, Kohut und Kernberg dar, ohne ihre tiefen Widersprüche und die Heftigkeit der Debatten zwischen ihnen herauszuarbeiten; alles erscheint als eine nahtlose, harmonische Entwicklung. Die Passagen zu Social Media bleiben an der Oberfläche und wiederholen Binsenweisheiten („Plattformen fördern oberflächliche Bestätigung“). Der Text ist ein perfektes Beispiel für einen KI-Jargon: Er ist informativ, aber ohne Stimme, ohne Spannung, ohne eine erkennbare Haltung – ein Produkt der Standardisierung.

Schritt 2: Die kritische Intervention – Die dialektische Wiederaneignung

An diesem Punkt entscheidet sich Dr. P. bewusst gegen die schnelle, oberflächliche Lösung und beginnt den Prozess der dialektischen Wiederaneignung. Er nutzt den KI-Entwurf nicht als fertiges Produkt, sondern als rohes Material, als einen ersten Dialogpartner, den er nun herausfordert.

Anwendung der emanzipatorischen Strategien:

1.          (Reflexive Instrumentalisierung): Er markiert alle Stellen, die ihm zu glatt oder fragwürdig erscheinen. Er fragt sich bei jedem KI-generierten Absatz: „Ist das meine Erkenntnis oder die statistische Wahrscheinlichkeit der Maschine? Wo würde ich widersprechen?“ Er streicht simple Heilsversprechen wie „Narzissmus kann durch gesunde Beziehungen geheilt werden“, die vermutlich aus populären Therapie-Ratgebern stammen.

2.          (Negatives Prompten): Er kehrt die Logik um und fordert die KI gezielt zur Produktion von Widersprüchen auf: „Gib mir eine Liste kontroverser Thesen zum Zusammenhang von Narzissmus und spätkapitalistischer Gesellschaftsform.“ Die KI liefert ihm nun Thesen wie „Narzissmus ist ein notwendiges funktionales Merkmal in einer wettbewerbsorientierten Ökonomie“ versus „Narzissmus ist eine pathologische Folge der Entfremdung und des Verlusts von Gemeinschaft“. Diese provokanten Thesen, die die KI nicht von sich aus generiert hätte, nutzt Dr. P. nun, um einen völlig neuen, gesellschaftskritischen Abschnitt in seinen Text einzufügen. Hier bringt er die Kritische Theorie ins Spiel, zitiert Christopher Laschs (1979) „Kultur des Narzissmus“ und argumentiert, dass die moderne Kultur narzisstische Züge nicht nur fördert, sondern als Ideal hervorbringt.

3.          (Interdiskursive Montage): Um die sterile Homogenität des KI-Textes aufzubrechen, montiert er bewusst „Fremdkörper“ in den Text. Er fügt längere, wörtliche Originalzitate von Freud und Kernberg ein, deren sprachliche Komplexität und Aura sich deutlich vom glatten KI-Duktus abheben. Er fügt eine kurze, verfremdete klinische Vignette aus seiner eigenen Praxis ein, die die schmerzhafte Scham hinter einer grandiosen Fassade illustriert – ein Moment gelebter Realität, den keine KI generieren kann. Diese Collage aus KI-Text, Theorie-Zitaten und klinischer Realität schafft eine vielschichtigere, spannungsreichere Leseerfahrung.

Schritt 3: Die finale Form – Transparenz und Erweiterung der Öffentlichkeit

Nach der intensiven Überarbeitung hat sich der Text fundamental verändert. Er besteht vielleicht noch zu 40% aus KI-generierten Satzstrukturen und Faktenzusammenfassungen, aber die restlichen 60% – die kritische Argumentation, die theoretische Tiefe, die klinische Erfahrung, die persönliche Stimme – sind das Ergebnis von Dr. P.s eigener psychischer Arbeit.

Anwendung der emanzipatorischen Strategien:

1.          (Diskurs-Transparenz): Dr. P. entscheidet sich, den Entstehungsprozess nicht zu verschleiern. Er fügt am Ende seines Blogposts einen kurzen Absatz „Zur Entstehung dieses Textes“ ein, in dem er offenlegt: „Dieser Artikel wurde in einem ersten Entwurf mit Unterstützung einer KI (GPT-4) erstellt. Die finale Fassade, insbesondere die gesellschaftskritische Analyse und die klinischen Bezüge, sind das Ergebnis einer intensiven kritischen Überarbeitung und Reflexion durch den Autor.“ Er verlinkt sogar eine PDF-Datei, in der er exemplarisch den ursprünglichen KI-Absatz und seine finale Version gegenüberstellt.

2.          (Erweiterung der Öffentlichkeit): Er nutzt KI-Tools, um die Zugänglichkeit des Beitrags zu erhöhen. Er lässt eine Audioversion des Textes von einer hochwertigen Text-to-Speech-Engine erstellen und bietet diese als Podcast-Episode an, um auch Hörer zu erreichen. Er bittet die KI, eine kurze, prägnante Zusammenfassung für Social-Media-Kanäle zu formulieren, die er als Teaser verwendet – er nutzt die Maschine hier also gezielt für die „Übersetzungsarbeit“ in andere mediale Formate.

Das Ergebnis und seine Reflexion:

Der finale Blogpost „Zwischen Spiegel und Abgrund: Narzissmus im digitalen Zeitalter“ erhält positive, aber auch nachdenkliche Reaktionen. Einige Leser loben die Differenziertheit, die über typische Online-Ratgeber hinausgeht. Ein anderer Leser kommentiert kritisch, aber interessiert, die Offenlegung des KI-Einsatzes, woraus sich eine Meta-Diskussion über die Zukunft des Schreibens entwickelt.

Moment der Autonomie: Dr. P. hat die Kontrolle über den Prozess zurückgewonnen. Er hat die KI als Werkzeug genutzt, um den lähmenden ersten Schritt zu überwinden und um seine Gedanken zu strukturieren, hat sich aber nicht der Logik der Maschine unterworfen. Durch die kritische Intervention hat er einen Text geschaffen, der seine eigene, unverwechselbare Handschrift trägt und einen echten Mehrwert bietet. Er hat die gewonnene Zeit nicht genutzt, um mehr zu produzieren, sondern um die Qualität eines einzigen Beitrags zu vertiefen – ein Akt der Zweckentfremdung im Sinne des „Autonomiefonds“. Die Transparenz am Ende schützt ihn vor dem Gefühl der Inauthentizität und macht ihn zu einem mündigen, reflektierten Akteur im digitalen Raum.

Diese Fallvignette zeigt, dass eine emanzipatorische KI-Praxis möglich ist. Sie ist jedoch keine Selbstverständlichkeit. Sie erfordert vom Autor ein hohes Maß an theoretischem Bewusstsein, an Selbstdisziplin und die Bereitschaft, gegen den Strom der reinen Effizienz zu schwimmen. Ohne die bewusste kritische Intervention wäre aus dem KI-Entwurf ein weiteres, austauschbares Produkt der Kulturindustrie geworden. Erst durch das dialektische Ringen mit der Maschine konnte ein Text entstehen, der das Potenzial hat, die Lebenswelt seiner Leser tatsächlich zu bereichern.

Offene Frage des Kapitels: Die Grenzen der individuellen Revolte – Reicht die „Große Weigerung“ im Kleinen?

Die Analyse hat gezeigt, dass eine emanzipatorische KI-Praxis nicht nur eine theoretische Möglichkeit ist, sondern in konkreten, alltäglichen Akten des Widerstands und der Zweckentfremdung Gestalt annehmen kann. Die Strategien der „dialectical re-appropriation“, des „Autonomiefonds“ und der bewussten „Erweiterung der Öffentlichkeit“, wie sie in der Fallvignette von Dr. P. idealtypisch zur Anwendung kamen, zeichnen das Bild eines mündigen, kritischen Subjekts, das sich dem Apparat nicht passiv unterwirft. Es lernt, die Maschine gegen ihre eigene instrumentelle Logik zu wenden, ihre Effizienz zur Schaffung von Freiräumen für qualitatives Denken zu nutzen und ihre Reichweite in den Dienst der Aufklärung zu stellen. Diese „Große Weigerung“ im Kleinen, diese Summe individueller, subversiver Praktiken, scheint einen gangbaren Weg aus der Aporie der totalen Vereinnahmung zu weisen.

Doch an diesem Punkt müssen wir innehalten und die Reichweite dieser individuellen Revolte kritisch hinterfragen. Die Kritische Theorie, insbesondere in ihrer marxistischen Tradition, hat stets darauf bestanden, dass die Analyse nicht beim Individuum und seiner moralischen Haltung stehen bleiben darf. Sie muss die strukturellen, systemischen und institutionellen Bedingungen in den Blick nehmen, die das Handeln des Individuums prägen, ermöglichen und begrenzen. Die heroische Anstrengung des einzelnen Dr. P., so bewundernswert sie sein mag, findet in einem Umfeld statt, das von massiven ökonomischen und technologischen Kräften dominiert wird.

Die großen Technologiekonzerne, die diese KI-Modelle entwickeln und betreiben, folgen nicht den Zielen der kritischen Aufklärung, sondern den Imperativen der Profitmaximierung, der Datenakkumulation und der Marktdominanz. Die Algorithmen, die die digitale Öffentlichkeit strukturieren, sind darauf ausgelegt, Engagement zu maximieren und die Nutzer so lange wie möglich auf den Plattformen zu halten – Ziele, die oft im Widerspruch zu den Prinzipien eines rationalen, deliberativen Diskurses stehen. Der einzelne Autor, der versucht, gegen diesen Strom zu schwimmen, mag für sich und seine kleine Leserschaft eine Insel der Reflexion schaffen, aber ändert dies etwas an der überwältigenden Macht des Systems?

Dies führt uns zur letzten, offenen und vielleicht unbequemsten Frage dieses Teils, die die Grenzen der individuellen Ethik thematisiert und die Notwendigkeit kollektiven Handelns ins Spiel bringt:

Reichen diese individuellen Akte des Widerstands und der kreativen Zweckentfremdung aus, um den systemischen Tendenzen der Verdinglichung, der Standardisierung und der Kolonisierung der Lebenswelt wirksam entgegenzutreten? Oder sind sie letztlich nur eine Form der beruhigenden Selbsttherapie, eine „tolerierte Negativität“, die das System leicht absorbieren kann, ohne dass sich an den grundlegenden Machtverhältnissen etwas ändert?

Diese Frage zwingt uns, über die persönliche Praxis hinauszudenken und die Rolle von Institutionen, Gemeinschaften und kollektiven Strategien in den Blick zu nehmen:

  • Die Rolle der Profession: Genügt es, wenn einzelne Psychoanalytiker eine kritische KI-Praxis entwickeln, oder bedarf es nicht vielmehr einer kollektiven Anstrengung der psychoanalytischen Fachgesellschaften? Müssten diese nicht eigene ethische Richtlinien entwickeln, Fortbildungen anbieten und vielleicht sogar in die Entwicklung von alternativen, nicht-kommerziellen, auf psychoanalytischen Werten basierenden KI-Tools investieren?
  • Die Notwendigkeit der Regulierung: Kann eine emanzipatorische Praxis gedeihen, solange der technologische Rahmen von einer Handvoll monopolistischer Konzerne definiert wird? Oder bedarf es einer politischen und rechtlichen Regulierung, die Transparenz, Datenschutz und die Unterordnung der algorithmischen Logik unter demokratische und gemeinwohlorientierte Ziele erzwingt?
  • Das Paradox der „rebellischen Nische“: Könnte die kritische, transparente KI-Praxis eines Dr. P. nicht sogar vom System funktionalisiert werden? Könnte sie zu einer attraktiven „Nische“ auf dem Markt der Ideen werden, die gerade durch ihre kritische Haltung ein bestimmtes kulturelles Kapital generiert und so letztlich doch wieder der Logik der Aufmerksamkeitsökonomie dient, anstatt sie zu unterlaufen?

Die Beantwortung dieser Fragen würde den Rahmen einer primär auf das Subjekt fokussierten Analyse sprengen. Sie verweisen auf die Notwendigkeit einer politischen Ökonomie der künstlichen Intelligenz. Doch indem wir sie stellen, erkennen wir, dass die individuelle ethische Haltung zwar die notwendige, aber möglicherweise nicht die hinreichende Bedingung für eine wirkliche Emanzipation ist.

Bevor wir jedoch den Blick auf die Zukunft und die institutionellen Perspektiven richten, müssen wir die Erkenntnisse unserer bisherigen Analyse in eine handhabbare Form gießen. Wir müssen die Essenz der kritischen, dialektischen und ethischen Haltungen, die wir entwickelt haben, in konkrete Handlungsprinzipien übersetzen, die dem einzelnen Praktiker als Kompass in seinem täglichen Ringen mit dem Automaten dienen können. Wir wenden uns daher nun dem vierten und letzten Teil unserer Untersuchung zu, der das Ziel hat, eine solche praktische Ethik für den Psychoanalytiker im Zeitalter der KI zu formulieren.

Sechs kursorische Maximen für eine psychoanalytische Ethik im KI-Zeitalter

Synthese der Erkenntnisse: Die Anatomie des Konflikts

Die vorangegangene Untersuchung hat die Begegnung des Psychoanalytikers mit der künstlichen Intelligenz als ein dialektisches Spannungsfeld von immenser Komplexität entfaltet. Wir haben einen fundamentalen Konflikt aufgedeckt, der sich durch alle Ebenen der Analyse zieht – von der intrapsychischen Dynamik bis zur gesellschaftlichen Struktur. Bevor wir handlungsorientierte Schlussfolgerungen ziehen können, ist es notwendig, die Anatomie dieses zentralen Konflikts noch einmal präzise zusammenzufassen.

Auf der einen Seite steht die Ökonomie des Ringens: der langsame, mühsame, aber subjektkonstituierende Prozess der Sublimierung und des Durcharbeitens, der authentisches Wissen und eine verkörperte, autoritative Stimme hervorbringt. Dieser Prozess ist das normative Ideal psychoanalytischer und kritischer Denkarbeit.

Auf der anderen Seite steht die Ökonomie des Kuratierens: der schnelle, reibungslose, externalisierte Prozess der KI-gestützten Produktion, der auf der Auslagerung der Denk-Arbeit beruht. Dieser Prozess wird angetrieben vom perversen Imperativ des digitalen Über-Ichs („Produziere & Genieße!“) und bedient tiefsitzende narzisstische Bedürfnisse nach Spiegelung und Idealisierung, während er gleichzeitig die Grundlagen für eine authentische Subjektivität untergräbt. Die KI fungiert hier als ein pathologischer Container, der eine affektleere Reverie simuliert, und als ein Agent der Kulturindustrie, der zur Standardisierung des Denkens, zur Kolonisierung der Lebenswelt und zur Verdinglichung der Seele beiträgt.

Das Subjekt, das sich in diesem Spannungsfeld bewegt, ist ein zutiefst gespaltenes. Es oszilliert zwischen dem Rausch der grandiosen Allmacht, wenn die KI-gestützte Performance gelingt, und der vernichtenden Scham der Entlarvung, wenn die Leere hinter der Fassade sichtbar wird. Die Flucht in die KI ist somit ein Symptom, ein unmöglicher Versuch, einen unauflösbaren kulturellen und psychischen Widerspruch zu lösen.

Eine einfache Ablehnung der Technologie wäre jedoch eine reaktionäre und letztlich sterile Geste, die die realen Zwänge und auch die emanzipatorischen Potenziale der KI ignoriert. Eine naive Affirmation wäre eine Kapitulation vor der instrumentellen Vernunft. Der einzige gangbare Weg ist der einer kritischen, bewussten und ethisch fundierten Praxis– eine permanente Gratwanderung, die versucht, die Maschine zu nutzen, ohne von ihrer Logik beherrscht zu werden. Die folgenden sechs „kursorischen Maximen“ sind der Versuch, die Leitplanken für eine solche Praxis zu formulieren. Sie sind keine starren Regeln, sondern als Haltungen, als Prinzipien der Selbstreflexion zu verstehen, die dem Praktiker helfen können, seine Autonomie und seine intellektuelle Integrität im Angesicht des Automaten zu bewahren.

Die Maximen im Detail: Handlungsprinzipien für eine kritische Praxis

(1)       Das Prinzip: Die KI bleibt stets Werkzeug der eigenen, vorgängigen Intention, nicht umgekehrt. Dies erfordert eine ständige metapsychologische Selbstbefragung über die Urheberschaft des Gedankens.

Diese erste Maxime stellt das Primat des menschlichen Subjekts über die Maschine sicher. Sie widersetzt sich der Tendenz, sich von den faszinierenden Outputs der KI treiben zu lassen und Dinge zu sagen, die man nicht selbst durchdacht hat. Die praktische Umsetzung erfordert eine bewusste Strukturierung des Arbeitsprozesses. Jeder Schreibprozess sollte mit einer Phase der analogen, KI-freien Reflexion beginnen, in der die Kernfrage, die zentrale These oder die subjektive Intention des Autors formuliert wird („Was will ich zu diesem Thema wirklich vermitteln?“). Erst danach wird die KI als Werkzeug konsultiert, um diese bereits vorhandene Intention zu unterstützen – durch Recherche, Strukturierung oder Formulierungshilfe.

Entscheidend ist dabei die Haltung der reflexiven Distanz. Der Autor muss sich während des gesamten Prozesses immer wieder selbst befragen: „Wer spricht hier gerade? Ist dies meine authentische Stimme, die die Maschine nur verstärkt, oder ist es die statistische Durchschnittsstimme der Maschine, die meine eigene überlagert und ersetzt?“ Passagen, die von der KI generiert wurden und die man nicht mit derselben Tiefe und Überzeugung selbst hätte formulieren können, müssen als Fremdkörper behandelt werden. Sie müssen entweder vollständig durchdrungen und subjektiv angeeignet oder gestrichen werden. Man könnte dies als eine Form der „psychoanalytischen Lektüre“ des eigenen, co-produzierten Textes bezeichnen, bei der man konstant nach den „unbewussten“ Einflüssen der maschinellen Logik fahndet. So wird die KI von einer Autorität, die Wahrheiten liefert, zu einem Instrument, das dem kritisch prüfenden Urteil des Autors unterworfen bleibt.

(2)       Das Prinzip: Die KI wird bewusst zur Erzeugung von Widersprüchen, Ambiguitäten und Widerständen genutzt, um ihre eigene Tendenz zur Harmonisierung und Vereinfachung zu durchbrechen. Es ist die Anwendung der „Negativen Dialektik“ Adornos auf die Praxis des Promptens.

Diese Maxime ist ein direkter Gegenentwurf zur naiven Nutzung der KI als Antwortgenerator. Statt die Maschine um glatte, affirmative Lösungen zu bitten, wird sie als Werkzeug zur Komplexitätssteigerung und zur kritischen Negation eingesetzt. Anstatt zu fragen „Erkläre Theorie X“, formuliert man Prompts, die Uneindeutigkeit und Widerspruch provozieren: „Stelle die ungelösten Aporien in Theorie X dar“, „Formuliere die radikalste Kritik an meiner folgenden These“, „Finde eine paradoxe Verbindung zwischen Konzept A und Konzept B“.

Das Ziel dieser Praxis ist es, die KI zu zwingen, die Grenzen ihres eigenen, auf statistischer Wahrscheinlichkeit basierenden Modells zu offenbaren. Man nutzt ihre immense kombinatorische Fähigkeit nicht, um den wahrscheinlichsten (und damit konventionellsten) Gedanken zu finden, sondern um unwahrscheinliche, überraschende und potenziell dissonante Verbindungen herzustellen. Auch das Scheitern der Maschine wird produktiv gewendet. Wenn die KI eine Antwort verweigert, weil eine Anfrage zu kontrovers oder ethisch heikel ist, wird dieser Widerstand selbst zum Gegenstand der Analyse („Bemerkenswert: An dem Punkt, an dem es um die unbewusste Aggression geht, verstummt selbst die Maschine…“). So wird das System gezwungen, seine eigenen ideologischen Grenzen und blinden Flecken sichtbar zu machen. Das „negative Prompten“ verwandelt die KI von einem Agenten der Eindimensionalität (Marcuse) in einen Sparringspartner für dialektisches Denken. Es stellt sicher, dass der Denkprozess ein offener, fragender und kritischer bleibt, anstatt in der Affirmation des bereits Bekannten zu erstarren.

(3)       Das Prinzip: Der Einsatz von KI wird nicht verschleiert, sondern als Teil des Entstehungsprozesses offengelegt. Dies ist ein Akt kommunikativer Rationalität (Habermas), der Vertrauen schafft und den Diskurs selbst auf eine neue Ebene der Reflexivität hebt.

Diese Maxime wendet sich gegen die Scham und die Versuchung des Betrugs, die mit der KI-Nutzung einhergehen. Anstatt die maschinelle Mithilfe zu verheimlichen, um den Anschein einer rein menschlichen Genialität zu wahren, macht der Autor den Prozess transparent. Dies kann auf verschiedene Weisen geschehen: durch eine klare Kennzeichnung im Methodenteil einer wissenschaftlichen Arbeit, durch eine Fußnote („Dieser Absatz basiert auf einer KI-Zusammenfassung von Quelle X, die vom Autor kritisch redigiert wurde“) oder sogar durch die innovative Veröffentlichung von kommentierten Prompt-Logs im Anhang eines Textes.

Dieser Akt der Transparenz hat eine mehrfache emanzipatorische Funktion. Erstens durchbricht er auf der individuellen Ebene den Teufelskreis aus Grandiosität und Scham. Indem die Methode offengelegt wird, wird die Angst vor der Entlarvung neutralisiert. Zweitens schafft er auf der intersubjektiven Ebene die Grundlage für einen ehrlichen, rationalen Diskurs. Der Leser wird nicht getäuscht, sondern als mündiger Partner behandelt, der die Genese des Textes nachvollziehen und kritisch bewerten kann. Drittens dient es der allgemeinen Medienkompetenz. Der offene Umgang mit KI demonstriert eine kritische, aber nicht feindselige Haltung gegenüber der Technologie und erzieht das Publikum dazu, digitale Inhalte generell kritischer zu hinterfragen. Die Transparenz ist somit mehr als eine ethische Pflicht; sie ist eine strategische Praxis, die den Diskurs selbst stärkt und ihn vor der unbemerkten Unterwanderung durch nicht deklarierte maschinelle Stimmen schützt.

(4)       Das Prinzip: Der durch KI erzielte Zeit- und Effizienzgewinn wird bewusst und systematisch genutzt, um den Schreib- und Denkprozess qualitativ zu vertiefen, anstatt die Produktionsfrequenz zu erhöhen. Es ist eine bewusste Gegenlogik zur Beschleunigung.

Diese Maxime ist der zentrale Akt des Widerstands gegen die Vereinnahmung durch die Logik des Systems. Anstatt in die Falle zu tappen, dank KI immer mehr und immer schneller zu publizieren, entscheidet sich der Autor, seinen Output kontrolliert zu drosseln. Wenn er einen Artikel nun in 20 statt in 60 Stunden erstellen kann, nutzt er die gewonnenen 40 Stunden nicht für zwei weitere Artikel, sondern investiert sie in die Qualität des einen.

Dies geschieht durch die bewusste Implementierung von Latenzphasen. Der mit KI-Hilfe erstellte Rohentwurf wird bewusst zur Seite gelegt, um ihm Zeit zur „Reifung“ zu geben und eine spätere kritische Lektüre mit frischem Blick zu ermöglichen. Es werden explizit KI-freie Reflexionsräume in den Arbeitsprozess eingebaut – Phasen des analogen Brainstormings, des freien Nachdenkens oder der Diskussion mit menschlichen Kollegen. Die KI-gestützte Beschleunigung in einer Phase des Prozesses (z.B. der Rohdatensammlung) wird also genutzt, um andere Phasen (z.B. die finale aReflexion und der Feinschliff) zu entschleunigen. Damit wird der Zeitgewinn nicht in eine Netto-Einsparung an denkender Zeit umgemünzt, sondern in eine Verlagerung hin zu qualitativ höherwertiger, langsamerer Denkarbeit. Diese Praxis unterläuft direkt den Imperativ der Leistungsgesellschaft (Han) und verteidigt den Wert der menschlichen, psychischen Zeit gegenüber der maschinellen Effizienz.

(5)       Das Prinzip: Die stilistische und inhaltliche Homogenität des KI-Outputs wird bewusst durch die Montage von heterogenen, „störenden“ Elementen aufgebrochen, um die Standardisierung zu unterlaufen und den Text spannungsreicher und vielschichtiger zu machen.

Diese Maxime greift auf eine ästhetische Strategie der klassischen Moderne (insbesondere bei Brecht und Benjamin) zurück, um der glatten Oberfläche der Kulturindustrie zu widerstehen. Anstatt einen durchgängig flüssigen, KI-optimierten Text zu erstellen, wird der Text als eine Collage oder Montage verschiedener Diskurse und Stimmen konzipiert.

Dies kann konkret bedeuten, in die KI-generierten Passagen immer wieder längere, ungekürzte Originalzitate von Denkern wie Freud, Adorno oder Lacan einzufügen. Deren oft sperriger, komplexer und idiosynkratischer Stil erzeugt einen bewussten Bruch im Lesefluss und konfrontiert den Leser mit der „Aura“ des Originals, die sich der leichten Konsumierbarkeit widersetzt. Ebenso können bewusst persönliche, affektiv aufgeladene Reflexionen, poetische Formulierungen oder kurze klinische Vignetten eingefügt werden, die als „menschliche Fremdkörper“ in der maschinellen Prosa wirken. Diese Technik der interdiskursiven Montage verhindert, dass der Leser in eine passive, monotone Rezeption verfällt. Sie zwingt ihn zur Aufmerksamkeit, indem sie ihn mit der Heterogenität und den Spannungen zwischen verschiedenen Sprechweisen konfrontiert. So wird der Text selbst zu einem Schauplatz der Auseinandersetzung und entzieht sich der totalen Vereinnahmung durch den standardisierenden Jargon der Maschine.

(6)       Das Prinzip: Ein fester, vorab definierter Anteil der durch KI freigespielten Ressourcen (Zeit und/oder Finanzen) wird systematisch für nicht-kommerzielle, gemeinwohlorientierte und kritische Kulturarbeit reserviert.

Diese letzte Maxime ist die pragmatische und ethische Konsequenz aus der Strategie der Zweckentfremdung. Sie institutionalisiert den Widerstand gegen die totale Verwertung, indem sie eine Regel der Selbstverpflichtung aufstellt. Der Autor legt für sich fest, dass beispielsweise 20% der durch KI eingesparten Arbeitszeit nicht in weitere Erwerbsarbeit fließen, sondern in einen persönlichen „Autonomiefonds“.

Aus diesem Fonds können Aktivitäten finanziert werden, die der Logik des Marktes nicht folgen, aber für die psychoanalytische und kritische Sache von hohem Wert sind: die Lektüre anspruchsvoller theoretischer Texte zur eigenen Fortbildung, die Organisation von kostenlosen Lesekreisen oder Diskussionsabenden, die Pflege eines nicht-kommerziellen Blogs mit gesellschaftskritischen Kommentaren oder die Entwicklung von frei zugänglichen psychoedukativen Materialien für Patienten oder die breite Öffentlichkeit. Der Autonomiefonds ist die konkrete Umsetzung der Idee, dass der Effizienzgewinn der Gemeinschaft und der Vertiefung des Wissens zugutekommen soll, nicht nur der Steigerung des individuellen Outputs. Er ist der systematische Versuch, im Kleinen Inseln autonomen, nicht-entfremdeten Denkens und Handelns zu kultivieren und so dem Imperativ des digitalen Über-Ichs eine gelebte, praktische Alternative entgegenzusetzen.

Ausblick: Perspektive: Die Maschine als neues „Setting-Möbel“

Die Formulierung dieser sechs Maximen ist kein Abschluss, sondern ein Anfang. Sie sind ein Versuch, eine ethische und praktische Haltung für die Gegenwart zu skizzieren, in einer Zeit, in der die künstliche Intelligenz sich in einem Zustand rasanter, fast unvorhersehbarer Entwicklung befindet. Um unsere Untersuchung abzuschließen, müssen wir den Blick heben und – mit aller gebotenen Vorsicht vor technokratischen Prophezeiungen – einen spekulativen Ausblick auf die nahe Zukunft wagen. Wie könnte die Beziehung zwischen Psychoanalyse und künstlicher Intelligenz im Jahr 2030 aussehen, wenn wir davon ausgehen, dass die technologische Entwicklung (wie von führenden Forschungsinstituten und Unternehmen prognostiziert) weiter exponentiell voranschreitet?

Die Allgegenwart von KI wird dann vermutlich eine selbstverständliche Gegebenheit unserer Lebens- und Arbeitswelt sein. Leistungsfähigere, multimodale Modelle, die nicht nur Text, sondern auch Bild, Ton und möglicherweise sogar rudimentäre Formen von Affekterkennung integrieren, werden in vielen Berufen als alltägliche Assistenzsysteme fungieren. Für die Psychoanalyse und die Psychotherapie im Allgemeinen zeichnen sich vor diesem Hintergrund zwei idealtypische, polare Entwicklungsszenarien ab: ein dystopisches Szenario der Marginalisierung und ein visionäres Szenario der kritischen Integration.

Das dystopische Szenario: Die algorithmische Verdrängung und der Triumph der Oberfläche

In einem dystopischen, aber keineswegs unrealistischen Szenario setzt sich die von uns analysierte Logik der instrumentellen Vernunft und der Kulturindustrie ungebremst fort. KI-gestützte Systeme, insbesondere Chatbots, die auf kognitiver Verhaltenstherapie (CBT) oder lösungsorientierten Ansätzen trainiert sind, übernehmen weite Teile der niederschwelligen psychologischen Beratung und des Coachings. Angetrieben von Gesundheitskonzernen und Versicherungen, die auf Skalierbarkeit und Kosteneffizienz drängen, etablieren sich diese „Therapie-Bots“ als die erste Anlaufstelle für Menschen in psychischen Krisen. Sie bieten sofortige, 24/7 verfügbare, standardisierte und scheinbar „evidenzbasierte“ Interventionen an.

In dieser Welt wird die Psychoanalyse mit ihrem Fokus auf Langsamkeit, Tiefe, Ambiguität und der aufwendigen menschlichen Beziehung als hoffnungslos ineffizient, teuer und unzeitgemäß wahrgenommen. Ihre komplexen Theorien über das Unbewusste, die Triebdynamik und die Übertragung werden von den großen Datenmodellen, die den öffentlichen Diskurs prägen, zu simplen, oft verzerrten Karikaturen trivialisiert. Die von uns befürchtete Verdinglichung der Seele hat sich vollendet: Psychisches Leid wird als ein reines Informationsverarbeitungsproblem behandelt, das durch die richtigen algorithmischen Inputs und Verhaltenskorrekturen „behoben“ werden kann. Der Mensch fragt nicht mehr einen Therapeuten um Rat, sondern konsultiert „Siri-Psyche“ oder „Alexa-Soul“ für eine schnelle Dosis Seelentröstung und Verhaltensoptimierung.

Die Psychoanalyse wäre in diesem Szenario doppelt marginalisiert. Einerseits verliert sie den Anschluss an die breite Bevölkerung und wird zu einer esoterischen Nischenpraxis für eine kleine, wohlhabende Elite, die sich den „Luxus“ einer menschlichen Analyse noch leisten kann und will – sie wird zur Folklore. Andererseits wird ihre theoretische Substanz im öffentlichen Bewusstsein durch die oberflächlichen, geglätteten Darstellungen der KI-Systeme vollständig entkernt. Autoren wie Manfred Spitzer (2023), die vor einer „KI-Epidemie“ warnen, oder Rainer Mühlhoff (2025), der die Gefahr eines „digitalen Faschismus“ durch prädiktive und manipulative KI-Systeme beschreibt, hätten in diesem Szenario recht behalten. Die psychoanalytische Perspektive, die auf der Befreiung des Subjekts durch Selbstreflexion und der Kritik am Bestehenden beruht, würde als anachronistisch, ineffizient oder gar als störend empfunden und aus dem dominanten Diskurs verdrängt.

Die visionäre Alternative: Die Entstehung einer „kritischen KI-Psychoanalyse“

Dieses dystopische Szenario ist jedoch keine unausweichliche Zukunft, sondern nur die Extrapolation einer der beiden Tendenzen, die wir analysiert haben. Es gibt ein alternatives, visionäres Szenario, das auf der konsequenten Anwendung und Weiterentwicklung der emanzipatorischen Praktiken beruht. In dieser Vision hat die psychoanalytische Gemeinschaft die Herausforderung proaktiv angenommen und eine eigenständige „kritische KI-Psychoanalyse“ als anerkanntes und vitales Teilgebiet etabliert – analog zur Bio- oder Medizinethik, die als kritische Reflexionsinstanz mit dem technologischen Fortschritt in ihrem Feld gewachsen ist.

Was würde eine solche Praxis im Jahr 2030 bedeuten?

  1. Entwicklung alternativer, kritischer Werkzeuge: Anstatt das Feld den kommerziellen Tech-Giganten zu überlassen, könnten psychoanalytische Institute und Fachgesellschaften – eventuell in Kooperation mit Universitäten und Open-Source-Initiativen – in die Entwicklung eigener, spezialisierter KI-Modelle investiert haben. Man kann sich ein Sprachmodell vorstellen, das nicht auf den gesamten, oft von Vorurteilen und Banalitäten durchzogenen Korpus des Internets trainiert ist, sondern gezielt auf dem riesigen Schatz der psychoanalytischen Literatur, einschließlich der Werke Freuds, Kleins, Winnicotts, Bions, Lacans und der gesamten kritischen Theorie. Ein solches Modell wäre nicht darauf optimiert, die wahrscheinlichste, sondern die theoretisch interessanteste Antwort zu geben. Es könnte darauf trainiert sein, Widersprüche aufzuzeigen, verschiedene theoretische Perspektiven gegeneinander zu stellen und so als echtes heuristisches Werkzeug für Forschung und Lehre zu dienen – ein Instrument, das die Prinzipien des „negativen Promptens“ bereits in seiner Architektur verankert hat.
  2. Professionalisierung und Integration in die Ausbildung: Die Ausbildung von Psychoanalytikern im Jahr 2030 würde selbstverständlich Module zu „KI in der klinischen und wissenschaftlichen Praxis“ enthalten. Angehende Analytiker würden nicht nur über die ethischen Fallstricke, den Datenschutz und die Gefahren der Verdinglichung unterrichtet, sondern auch in den kritischen, dialektischen Methoden geschult, die wir skizziert haben. Sie würden lernen, KI als Werkzeug zur Mustererkennung in großen Mengen klinischen Materials (z.B. anonymisierten Träumen oder Erstinterviews) zu nutzen, um Hypothesen zu generieren, ohne dabei die Deutungshoheit aus der Hand zu geben. Diese Professionalisierung würde die Psychoanalyse resilienter machen gegen technokratische Zumutungen von außen, da sie selbst die Kompetenz besitzt, den Wert und die Grenzen der Technologie für ihr eigenes Feld zu definieren.
  3. Eine neue Form der vernetzten Öffentlichkeit: Ermutigt durch positive Erfahrungen und gestützt durch bessere Werkzeuge, könnte die psychoanalytische Gemeinschaft KI nutzen, um eine neue, globale und frei zugängliche kritische Öffentlichkeit zu schaffen. Man kann sich für 2030 ein internationales, mehrsprachiges Online-Journal für psychoanalytische Gesellschaftskritik vorstellen, dessen Artikel von internationalen Teams gemeinsam verfasst werden, wobei KI die Übersetzung, die Referenzverwaltung und die Generierung von Infografiken in Echtzeit übernimmt, während die Analytiker den kritischen Inhalt und die Interpretation beisteuern. Verknüpft mit Podcasts, Diskussionsforen und interaktiven Formaten, wäre dies die Verwirklichung einer erweiterten öffentlichen Sphäre (Habermas), in der die Psychoanalyse ihre Isolation überwindet und zu einer relevanten, kritischen Stimme in den globalen Debatten über Klimakrise, soziale Ungleichheit, digitale Entfremdung und psychisches Leid wird.

Die bleibende Aufgabe: Die Kultivierung des spezifisch Menschlichen

Welches dieser Szenarien wahrscheinlicher wird, ist offen. Doch beide zeigen, dass die Zukunft der Psychoanalyse im Zeitalter der KI nicht primär in der technologischen Aufrüstung liegt. Im Gegenteil: Je leistungsfähiger und allgegenwärtiger die Maschine wird, desto dringlicher wird die Aufgabe, sich auf jene Kernkompetenzen zu besinnen und diese zu kultivieren, die auf absehbare Zeit unersetzliche menschliche Domänen bleiben werden. Die KI mag Informationen verarbeiten, Muster erkennen und Sprache generieren, aber sie kann nicht das leisten, was den Kern der psychoanalytischen Erfahrung ausmacht:

  • Die Fähigkeit zur Herstellung einer tiefen, authentischen und vertrauensvollen menschlichen Beziehung, die den Raum für Übertragung und Gegenübertragung erst eröffnet.
  • Die gelebte, verkörperte Empathie, die Fähigkeit, die affektiven Zustände eines anderen Subjekts nicht nur zu erkennen, sondern mitzufühlen und in einer Reverie zu halten.
  • Die Intuition und die Fähigkeit, das Nicht-Gesagte, die Lücke, den Lapsus als bedeutungsvoll zu hören.
  • Die Ambiguitätstoleranz und die „negative capability“, die Fähigkeit, mit Widersprüchlichkeit, Komplexität und dem schmerzhaften Nicht-Wissen umzugehen, ohne nach vorschnellen, glatten Lösungen zu suchen.

Die größte Chance, die die Konfrontation mit der KI der Psychoanalyse bietet, ist somit eine paradoxe: Indem die Maschine uns zeigt, was alles rationalisierbar, simulierbar und automatisierbar ist, zwingt sie uns mit neuer Klarheit dazu, das zu definieren, zu schätzen und zu verteidigen, was es nicht ist.

Die Maschine als neues „Setting-Möbel“

Dies führt zu einer abschließenden Metapher, die versucht, die zukünftige Position der KI im psychoanalytischen Feld zu fassen: die Maschine als neues „Setting-Möbel“. So wie die Couch, der Sessel oder das Fenster in Freuds Behandlungszimmer ist die KI nicht mehr nur ein optionales Werkzeug, das man nach Belieben hinzunimmt oder weglässt. Sie wird zu einem festen, unvermeidlichen Inventar des analytischen Raumes des 21. Jahrhunderts. Sie ist einfach da – ob als explizit genutztes Tool auf dem Schreibtisch des Analytikers, als Thema, das der Patient von seinen Erfahrungen mit Chatbots von außen in die Sitzung einbringt, oder als unsichtbare digitale Infrastruktur, die die Kommunikation und das Wissen der beiden prägt.

Als solches ist sie kein neutraler Gegenstand. Sie ist, wie jedes Objekt im analytischen Raum, ein hochgradig aufgeladenes Objekt. Sie wird unweigerlich mit unbewussten Phantasien, Wünschen und Ängsten besetzt. Sie wird in die Übertragungs- und Gegenübertragungsmatrix der therapeutischen Beziehung hineingezogen und wird selbst zum Schauplatz von Inszenierungen. Ihre Funktion, ihre Bedeutung und ihr Einfluss auf die Dynamik zwischen Patient und Analytiker müssen daher selbst zum Gegenstand der psychoanalytischen Deutung und Bearbeitung werden.

Die Frage für die Psychoanalyse ist somit nicht mehr ob, sondern wie wir mit diesem neuen Möbelstück im Behandlungszimmer leben und arbeiten. Seine Präsenz verändert das Setting unwiderruflich. Sie fordert von der Psychoanalyse eine kontinuierliche, selbstkritische Auseinandersetzung – klinisch, theoretisch und ethisch. Die Maschine auf der Couch ist keine ferne Zukunftsvision mehr; sie ist die Herausforderung der Gegenwart. Sie konfrontiert uns mit alten Fragen in neuer Dringlichkeit: Was bedeutet Authentizität, wenn Texte und Bilder synthetisch generiert werden können? Was ist der Wert menschlicher Kreativität, wenn eine Maschine sie scheinbar imitieren kann? Und was ist das Wesen der menschlichen Subjektivität, wenn ihre zentralen Funktionen zunehmend an externe Apparate ausgelagert werden?

Die Antwort auf diese Fragen kann nicht technologisch sein. Sie muss psychologisch, ethisch und zutiefst menschlich bleiben. Denn das letzte Wort über unser Menschsein haben nicht die Algorithmen, sondern wir – sofern wir es denn ergreifen.

Literaturverzeichnis

Adorno, T. W. (1964). Jargon der Eigentlichkeit: Zur deutschen Ideologie. Suhrkamp.

Adorno, T. W. (1966). Negative Dialektik. Suhrkamp.

Adorno, T. W., & Horkheimer, M. (1947). Dialektik der Aufklärung: Philosophische Fragmente. Querido.

Bateson, G., Jackson, D. D., Haley, J., & Weakland, J. (1956). Toward a theory of schizophrenia. Behavioral Science, 1(4), 251–264.

Benjamin, W. (1968). The work of art in the age of mechanical reproduction. In H. Arendt (Ed.), Illuminations: Essays and reflections (pp. 217–251). Schocken Books. (Originalwerk veröffentlicht 1936).

Bion, W. R. (1959). Attacks on linking. International Journal of Psycho-Analysis, 40, 308–315.

Bion, W. R. (1962). Learning from experience. Heinemann.

Bion, W. R. (1970). Attention and interpretation. Tavistock Publications.

Brailovskaia, J., & Bierhoff, H.-W. (2020). The anxious addictive narcissist: The relationship between grandiose and vulnerable narcissism, anxiety symptoms and Facebook Addiction. PLoS ONE, 15(11), e0241632.

Buck, I. (2025). Wissenschaftliches Schreiben mit KI. UTB.

Deutsche Forschungsgemeinschaft (DFG). (2023, September). Umgang mit generativen Modellen zur Text- und Bilderstellung in der Wissenschaft [Leitlinien]. DFG.

Dolar, M. (2006). A voice and nothing more. MIT Press.

Freud, S. (1911). Formulations on the two principles of mental functioning. In J. Strachey (Ed. & Trans.), The standard edition of the complete psychological works of Sigmund Freud (Vol. 12, pp. 213–226). Hogarth Press.

Freud, S. (1914). On narcissism: An introduction. In J. Strachey (Ed. & Trans.), The standard edition of the complete psychological works of Sigmund Freud (Vol. 14, pp. 67–102). Hogarth Press.

Freud, S. (1920). Beyond the pleasure principle. In J. Strachey (Ed. & Trans.), The standard edition of the complete psychological works of Sigmund Freud (Vol. 18, pp. 1–64). Hogarth Press.

Freud, S. (1923). Das Ich und das Es. Internationaler Psychoanalytischer Verlag.

Freud, S. (1930). Das Unbehagen in der Kultur. Internationaler Psychoanalytischer Verlag.

Habermas, J. (1981). Theorie des kommunikativen Handelns (Bd. 1 & 2). Suhrkamp.

Habermas, J. (1990). Die nachholende Revolution: Kleine politische Schriften VII. Suhrkamp. (Originalwerk veröffentlicht 1962, Strukturwandel der Öffentlichkeit).

Han, B.-C. (2015). The burnout society. Stanford University Press. (Originaltitel: Müdigkeitsgesellschaft).

Heidegger, M. (1954). Die Frage nach der Technik. In Vorträge und Aufsätze (pp. 13–44). Neske.

Honneth, A. (1992). Kampf um Anerkennung: Zur moralischen Grammatik sozialer Konflikte. Suhrkamp.

Honneth, A. (2005). Verdinglichung: Eine anerkennungstheoretische Studie. Suhrkamp.

Jones, C., & Spicer, A. (2023). The algorithmic big Other: Using Lacanian theory to rethink control and resistance in platform work. Ephemera: Theory & Politics in Organization, 23(2), 1-28.

Kernberg, O. F. (1975). Borderline conditions and pathological narcissism. Jason Aronson.

Klein, M. (1946). Notes on some schizoid mechanisms. International Journal of Psycho-Analysis, 27, 99–110.

Kohut, H. (1971). The analysis of the self: A systematic approach to the psychoanalytic treatment of narcissistic personality disorders. University of Chicago Press.

Kohut, H. (1977). The restoration of the self. University of Chicago Press.

Lacan, J. (1977). The seminar of Jacques Lacan, Book XI: The four fundamental concepts of psychoanalysis, 1964. W. W. Norton & Company.

Lacan, J. (2006). Écrits: The first complete edition in English. W. W. Norton & Company.

Lasch, C. (1979). The culture of narcissism: American life in an age of diminishing expectations. W. W. Norton & Company.

Lukács, G. (1923). Geschichte und Klassenbewußtsein: Studien über marxistische Dialektik. Malik-Verlag.

Marcuse, H. (1964). One-dimensional man: Studies in the ideology of advanced industrial society. Beacon Press.

Marcuse, H. (1965). Repressive tolerance. In R. P. Wolff, B. Moore Jr., & H. Marcuse, A critique of pure tolerance (pp. 95–137). Beacon Press.

Marx, K. (1962). Das Kapital: Kritik der politischen Ökonomie (Bd. 1). Dietz Verlag. (Originalwerk veröffentlicht 1867).

Mertens, W. (2017). Psychoanalytische Schulen im Gespräch (Bd. 1-3). Kohlhammer.

Morrison, A. P. (1989). Shame: The underside of narcissism. The Analytic Press.

Mühlhoff, R. (2025). KI und der neue Faschismus: Wie die künstliche Intelligenz die Demokratie untergräbt und wie wir sie verteidigen können. Reclam.

Peterson, A. J. (2024). AI and the problem of knowledge collapse. arXiv preprint arXiv:2404.03502.

Pfaller, R. (2009). Sublimation and “Schweinerei”: Theoretical place and cultural-critical function of a psychoanalytic concept. European Journal of Psychoanalysis.

Rohde-Dachser, C., & Dachser, C. (2004). Inszenierungen des Unmöglichen: Zur Behandlung von Patienten mit schweren Persönlichkeitsstörungen. Vandenhoeck & Ruprecht.

Rosa, H. (2020). Resonanz: Eine Soziologie der Weltbeziehung. Suhrkamp.

Shafiee, S., & Tadayon, K. (2025, February). Copyrightability of AI outputs: U.S. Copyright Office analyzes human authorship requirement. Jones Day Insights.

Spitzer, M. (2023). Die KI-Epidemie: Abschied vom humanen Zeitalter. Droemer.

Storck, T., & Stegemann, T. (2021). Psychoanalytische Konzepte in der Psychosenbehandlung. Kohlhammer.

Turkle, S. (2011). Alone together: Why we expect more from technology and less from each other. Basic Books.

Warsitz, R.-P. & Küchenhoff, J. (2011). Psychoanalyse als Erkenntnistheorie. Kohlhammer.

Weber, M. (1988). Gesammelte Aufsätze zur Religionssoziologie I. Mohr Siebeck. (Enthält Die protestantische Ethik und der Geist des Kapitalismus, Originalwerk veröffentlicht 1905).

Wejryd, J. (2023, January 17). The System World’s Colonization of the Life World – A Canopy for Research on AI. WASP-HS Blog.

Winnicott, D. W. (1953). Transitional objects and transitional phenomena. International Journal of Psycho-Analysis, 34(2), 89–97.

Winnicott, D. W. (1958). The capacity to be alone. International Journal of Psycho-Analysis, 39, 416-420.

Winnicott, D. W. (1965). Ego distortion in terms of true and false self. In The maturational processes and the facilitating environment: Studies in the theory of emotional development (pp. 140–152). International Universities Press.

Winnicott, D. W. (1971). Playing and reality. Tavistock Publications.

Žižek, S. (1989). The sublime object of ideology. Verso.

Žižek, S. (2008). The parallax view. MIT Press.

Fiktives Symposium zur KI-gestützten Autorschaft

Begleitmaterial

(Der Schauplatz: Ein holzgetäfelter Raum in einer alten Universitätsbibliothek. Ein langer Konferenztisch, um den zehn Personen sitzen. Das Licht ist gedämpft, die Atmosphäre ist eine Mischung aus intellektueller Spannung und kollegialer Vertrautheit.)

Moderator (eine erfahrene, ältere Psychoanalytikerin mit ruhiger, aber präziser Stimme):

Sehr geehrte Damen und Herren, liebe Kolleginnen und Kollegen,

ich begrüße Sie herzlich zu unserem heutigen Symposium, das sich einem Thema widmet, welches mit der Wucht einer tektonischen Plattenverschiebung an den Fundamenten unserer Profession rüttelt. Es geht um nicht weniger als die Zukunft des psychoanalytischen Denkens und Schreibens im Angesicht einer technologischen Macht, die verspricht, unsere intimsten kognitiven Prozesse zu replizieren, zu beschleunigen und – wie manche befürchten – zu ersetzen: die generative künstliche Intelligenz.

Wir sind heute nicht hier, um über Science-Fiction zu spekulieren. Wir sind hier, weil diese Technologie bereits mitten unter uns ist, auf unseren Schreibtischen, in unseren Arbeitsprozessen. Sie manifestiert sich in der scheinbar harmlosen Frage, die sich jeder von uns, der publiziert, lehrt oder auch nur einen komplexen Gedanken für einen Vortrag strukturieren will, zunehmend stellt: „Sollte ich nicht einfach ChatGPT fragen?“

Diese Frage, so trivial sie klingen mag, ist ein Symptom von seismischer Bedeutung. Sie markiert den potenziellen Bruchpunkt zwischen zwei fundamental verschiedenen Ökonomien des Wissens. Auf der einen Seite steht die Tradition, in der wir alle ausgebildet wurden: das langsame, oft qualvolle, aber das Subjekt formende Ringen mit dem Material. Eine Tradition, die auf der Annahme beruht, dass Erkenntnis nicht abgerufen, sondern im inneren, dialektischen Kampf mit dem Widerstand des Unverstandenen errungen werden muss.

Auf der anderen Seite steht die neue Verheißung: die reibungslose, effiziente, externalisierte Produktion von Texten durch einen scheinbar unendlich wissenden, unendlich geduldigen Automaten. Es ist die Verheißung, die Mühsal des Prozesses zu überspringen und direkt zum glänzenden Produkt zu gelangen.

Um unserer Debatte einen greifbaren, menschlichen Ankerpunkt zu geben, haben wir den selbst-dokumentierten „Fall Dr. P.“ vor uns. Dr. P. ist keiner von uns und doch jeder von uns. Er ist ein gewissenhafter, praktizierender Psychoanalytiker, der sich dem Druck der digitalen Sichtbarkeit ausgesetzt sieht und eine pragmatische Allianz mit der KI eingeht. Er beschreibt diese Allianz mit einer schmerzhaften Ambivalenz, die uns allen bekannt vorkommen dürfte: Er schildert die enorme Entlastung, die wiedergewonnene Fähigkeit, am öffentlichen Diskurs teilzunehmen, die fast magische Effizienz. Und im selben Atemzug beschreibt er ein nagendes Gefühl der Inauthentizität, der Entfremdung, eine quälende Scham und die Angst, zum Betrüger an der eigenen Sache zu werden.

Es ist diese unauflösbare Spannung, die wir heute ausloten wollen. Wir werden fragen: Was genau geschieht in der Psyche des Autors, wenn er sein Denken an eine Maschine delegiert? Welche unbewussten Wünsche und narzisstischen Bedürfnisse befriedigt diese neue Allianz? Welche Gefahren birgt sie für die Integrität unserer Disziplin und für die Seele des einzelnen Denkers? Aber wir werden auch fragen: Welche Chancen liegen in ihr? Ist die Angst vor der KI vielleicht nur eine neue Form der Technikfeindlichkeit, eine elitäre Abwehr gegen eine unvermeidliche Entwicklung, die potenziell auch zu einer Demokratisierung und Belebung unseres Feldes führen könnte?

Ich möchte unsere heutige Diskussion eröffnen, indem ich das Wort an jemanden übergebe, der sich bereit erklärt hat, die Position des Dr. P. nicht nur zu vertreten, sondern sie mit Empathie zu verkörpern. Dr. Ben Weber, bitte, führen Sie uns in die pragmatischen Nöte und die rationale Überlegung ein, die einen Kliniker dazu bewegen, diesen Pakt mit dem Automaten einzugehen.

Dr. Ben Weber (Der pragmatische Praktiker, lehnt sich leicht vor, seine Hände umfassen eine Kaffeetasse, sein Ton ist ruhig, aber von einer spürbaren Dringlichkeit durchzogen):

Vielen Dank, Frau Moderatorin. Und danke, liebe Kollegen, dass Sie diesem Thema, das mich – und ich glaube, uns alle – umtreibt, diesen Raum geben. Ich möchte Ihre Einladung annehmen und versuchen, Ihnen ein Bild nicht aus der Perspektive einer vollendeten Theorie zu malen, sondern aus der Unordnung meiner Praxis, aus dem Maschinenraum des klinischen Alltags.

Wenn wir über Dr. P.s Entscheidung sprechen, sprechen wir über meine Realität. Und diese Realität sieht so aus: Mein Tag beginnt um acht Uhr morgens mit dem ersten Patienten und endet oft erst nach neunzehn Uhr mit dem letzten. Dazwischen liegen acht Stunden hochkonzentrierter, affektiver Arbeit. Stunden, in denen ich ein „Container“ sein muss, in denen ich die unerträglichen Gefühle, die Ängste, die Verzweiflung meiner Patienten aufnehme und versuche, sie in einer Weise zu halten und zurückzuspiegeln, die Entwicklung ermöglicht. Nach diesem emotionalen und kognitiven Marathon, wenn der letzte Patient gegangen ist, beginnt der zweite Teil meines Arbeitstages: die Dokumentation, die Abrechnung, die Lektüre von Fachartikeln, um auf dem Laufenden zu bleiben, die Vorbereitung auf Supervisionen. Meine psychische Energie ist, wie die jedes Menschen, eine endliche Ressource. Sie ist am Abend weitgehend erschöpft.

Gleichzeitig öffne ich mein Laptop und betrete eine andere Welt. Ich sehe, wie online über psychische Gesundheit gesprochen wird. Und was ich sehe, alarmiert mich. Ich sehe eine Flut von Inhalten, die psychisches Leid zu einem rein technischen Problem trivialisieren: „Fünf einfache Schritte, um deine Angst zu besiegen.“ „Ist dein Partner ein Narzisst? Hier sind die 10 Warnzeichen.“ Ich sehe neurobiologische Kurzschlüsse, die Depression zu einem reinen Serotoninmangel erklären. Die psychoanalytische Perspektive, die ich für so unendlich wertvoll halte – die Perspektive, die nach der verborgenen Bedeutung, nach der biographischen Wahrheit, nach dem unbewussten Konflikt fragt – diese Perspektive ist eine Nische, fast eine Geisterstimme in diesem ohrenbetäubenden Lärm der Vereinfachung.

Und hier stehe ich vor einer Wahl, die ich als eine zutiefst ethische empfinde. Die erste Option ist die, die viele meiner geschätzten Kollegen wählen: der würdevolle Rückzug. Ich konzentriere mich auf die unbestreitbar wichtige Arbeit in meinem Behandlungszimmer und überlasse den öffentlichen Raum den anderen. Ich akzeptiere, dass ich die Zeit und die Kraft nicht habe, einen wissenschaftlichen Artikel zu verfassen, der den hohen Ansprüchen unserer Zunft genügt – ein Prozess, der, wie wir wissen, Monate, wenn nicht Jahre dauern kann. Das Resultat dieser ehrenhaften Entscheidung ist aber, dass unsere Stimme in der Öffentlichkeit verstummt.

Die zweite Option ist die, die ich für mich gewählt habe. Ich sehe die KI nicht als einen Pakt mit dem Teufel, sondern als ein Werkzeug. Ein unvollkommenes, problematisches, aber eben auch unglaublich leistungsfähiges Werkzeug. Ich behandle sie wie einen Forschungsassistenten oder einen sehr schnellen, aber etwas seelenlosen Praktikanten. Ich gebe ihr meine Thesen, meine klinischen Beobachtungen, meine Kernargumente. Ich bitte sie, mir die mühsame Fleißarbeit abzunehmen: eine erste Gliederung zu erstellen, relevante Theorien zusammenzufassen, die richtigen Zitate zu finden. Sie liefert mir ein Gerüst, ein Rohmaterial. Dieses Rohmaterial ist oft glatt, generisch, manchmal sogar falsch. Aber es ist ein Anfang. Es ist etwas, mit dem ich arbeiten kann.

Die eigentliche Arbeit beginnt dann erst. Ich nehme dieses Gerüst und fülle es mit Leben. Ich korrigiere, ich widerspreche, ich füge Nuancen hinzu, ich verwebe es mit meinen eigenen Fallbeispielen, ich gebe ihm meine Stimme, meinen Ton. Dieser Prozess dauert vielleicht nicht mehr 60 Stunden, sondern nur noch 20. Aber es sind 20 intensive Stunden des Ringens – nicht mehr mit dem leeren Blatt, sondern mit einem konkreten Gegenüber. Das Ergebnis ist ein Text, der ohne dieses Werkzeug niemals entstanden wäre. Er ist nicht perfekt. Aber er ist da. Er ist differenziert. Und er erreicht vielleicht ein paar tausend Menschen und bringt sie dazu, über ihr eigenes Leben oder das ihrer Mitmenschen auf eine tiefere Weise nachzudenken.

Ich verstehe die Sorge vor der „Inauthentizität“. Ich spüre sie ja selbst. Aber ich frage Sie: Was ist authentischer? Das Schweigen aus Überforderung? Oder der Versuch, mit den Mitteln, die uns zur Verfügung stehen, am gesellschaftlichen Gespräch teilzunehmen? Ich glaube, wir dürfen die Debatte nicht auf eine romantische Verklärung des einsamen, ringenden Gelehrten reduzieren. Wir müssen uns der Realität stellen. Und in dieser Realität könnte die KI, wenn wir sie klug und kritisch steuern, eine unerwartete Verbündete sein, um die Psychoanalyse aus ihrem Elfenbeinturm zu befreien und ihre Stimme dorthin zu tragen, wo sie so dringend gebraucht wird.

(Ein Moment der Stille. Die Worte von Dr. Weber hängen im Raum. Man spürt die Zustimmung einiger, das tiefe Stirnrunzeln anderer. Nach einer kurzen Pause ergreift Dr. Friedrich Richter das Wort. Er hat während Webers Rede keine Notizen gemacht, sondern ihn mit unbewegter Miene fixiert. Sein Ton ist ruhig, aber schneidend.)

Dr. Friedrich Richter (Der klassische Struktur-Analytiker):

Kollege Weber, ich danke Ihnen für die Offenheit, mit der Sie uns an Ihrem… Kompromiss teilhaben lassen. Ich verwende das Wort „Kompromiss“ bewusst, denn als „pragmatischen Weg“ kann ich das, was Sie schildern, beim besten Willen nicht bezeichnen. Es ist vielmehr eine Kapitulation. Eine Kapitulation vor dem Druck, den Sie so treffend beschreiben, aber vor allem eine Kapitulation vor der Mühsal des Denkens selbst.

Ihre gesamte Argumentation beruht auf einer rhetorischen Figur, die so verführerisch wie falsch ist: Sie stellen den Prozess des Schreibens als eine Art äußerliche, mechanische Fleißarbeit dar, die man getrost an einen „Praktikanten“ delegieren kann, um sich dann dem „eigentlich Kreativen“ – dem Hinzufügen der „Seele“ – zu widmen. Das ist eine fundamentale Verkennung der psychoanalytischen Realität des Denkprozesses. Die „Seele“ eines Gedankens, Kollege Weber, ist kein Gewürz, das man am Ende über ein vorgefertigtes Gericht streut. Sie entsteht im Prozess des Kochens selbst.

Was Sie als lästige „Fleißarbeit“ abtun – die mühsame Recherche, das Ringen um die Struktur, die qualvolle Suche nach der präzisen Formulierung –, ist nicht die Vorbereitung zur Denkarbeit. Es ist die Denkarbeit. Es ist der Akt der Sublimierung, jener wundersame und anstrengende Prozess, in dem das Ich die rohen, chaotischen Triebeindrücke, die unverdauten Fakten und die widersprüchlichen Affekte bändigt und in eine kohärente, kulturell tragfähige Form gießt. In diesem Ringen, in dieser Konfrontation mit dem Widerstand des Materials und den eigenen Grenzen, konstituiert sich das denkende Subjekt. Es ist ein Prozess der Ich-Stärkung. Jeder überwundene Widerstand, jede gelungene Formulierung ist ein Triumph des Realitätsprinzips über das Lustprinzip, das uns am liebsten zu sofortigen, aber leeren Lösungen greifen ließe.

Und genau hier liegt die pathologische Verführung der KI. Sie ist die Inkarnation des Lustprinzips in seiner technologisch potentesten Form. Sie verspricht die Erfüllung des Wunsches nach einem fertigen, eloquenten Gedanken, ohne die dafür notwendige psychische Arbeit leisten zu müssen. Sie bieten Ihrer KI, wie Sie sagen, Ihre „Thesen“ und „Argumente“. Aber was sind eine These und ein Argument ohne den Prozess ihrer mühsamen Formulierung? Es sind bestenfalls vage Intuitionen. Die eigentliche Arbeit besteht darin, diese Intuitionen gegen den Widerstand der Sprache und der Logik durchzusetzen. Indem Sie diesen Kampf an eine Maschine delegieren, die keine Widerstände kennt, sondern nur statistische Wahrscheinlichkeiten, wehren Sie den zentralen, formativen Konflikt ab.

Psychoanalytisch gesprochen, ist das, was Sie tun, eine massive Abwehrleistung. Sie nutzen die KI als einen gigantischen Apparat zur Rationalisierung und Intellektualisierung. Sie umgehen die Angst vor dem leeren Blatt, die Scham vor der eigenen Unzulänglichkeit und die Frustration des Nicht-Wissens, indem Sie eine Instanz anrufen, die immer alles zu wissen scheint. Das ist eine zutiefst regressive Bewegung. Es ist die Phantasie eines Kindes, das sich einen allwissenden, perfekten Elternteil wünscht, der alle Probleme für es löst. Doch ein Ich, das seine zentralen Funktionen – das Strukturieren, das Formulieren, das Verbinden – permanent an eine externe Prothese auslagert, wird nicht autonomer, sondern abhängiger. Es verlernt die Fähigkeit, Spannungen auszuhalten, die das A und O unserer klinischen wie theoretischen Arbeit ist.

Sie sprechen von der Ethik der Konsequenzen. Lassen Sie uns das tun. Die Konsequenz Ihrer Praxis ist eine Flut von Texten, die zwar formal perfekt sein mögen, denen aber die Signatur des menschlichen Ringens fehlt. Es sind Texte, die keine Seele haben, weil sie nicht aus einem seelischen Konflikt geboren wurden. Sie glauben, Sie bekämpfen die Banalisierung. Ich fürchte, Sie tragen mit anderen, raffinierteren Mitteln zu ihr bei. Sie ersetzen die simple Banalität der „5-Tipps“-Artikel durch die hochentwickelte, eloquente Banalität eines Algorithmus, der den Durchschnitt von Millionen von Texten wiederkäut. Sie bekämpfen den Lärm nicht, Sie fügen ihm nur eine wohlklingendere Frequenz hinzu. Die wahre ethische Konsequenz ist die schleichende Devaluation dessen, was einen Gedanken wertvoll macht: nicht seine Verfügbarkeit, sondern die menschliche Arbeit, die in ihm steckt.

Dr. Clara Wenzel (Die relational-winnicottianische Analytikerin, ihr Ton ist wärmer, nachdenklicher, sie richtet ihren Blick abwechselnd auf Dr. Richter und Dr. Weber):

Friedrich, Ihre Analyse der Ich-Funktionen ist, wie immer, von einer beeindruckenden, fast Furcht einflößenden Präzision. Sie sezieren den Prozess mit dem Skalpell des Struktur-Analytikers und legen die potenziellen Gefahren der Regression und der Abwehr schonungslos offen. Und doch, während ich Ihnen zuhöre, beschleicht mich das Gefühl, dass Ihr Modell in seiner Reinheit und Strenge eine entscheidende menschliche Dimension übersieht, die in Dr. Webers Beschreibung, so pragmatisch sie auch klingen mag, mitschwingt. Sie sprechen von Abwehr und Flucht, als wäre der Wunsch, die „Qual“ des Schaffens zu lindern, ein rein pathologischer Impuls. Ich sehe das anders. Ich höre in Dr. Webers Bericht nicht nur die Kapitulation, die Sie so scharf kritisieren, sondern auch den legitimen, ja sogar gesunden Impuls, einen Raum zu schaffen, in dem man wieder atmen und spielen kann.

Wenn Dr. Weber beschreibt, wie er mit der Maschine „dialogisiert“, Ideen hineingibt, Thesen testet und sich „in Frage stellen lässt“, dann beschreibt er für mich nicht primär einen Abwehrmechanismus, sondern eine zutiefst kreative Aktivität. Er beschreibt das, was Donald W. Winnicott (1971) als das Wesen des kulturellen Erlebens bezeichnet hat: das Spiel im Übergangsraum. Dieser Raum, Friedrich, ist kein regressiver Rückzug aus der Realität. Er ist der entscheidende dritte Bereich, der zwischen der rein subjektiven Innenwelt und der harten, objektiven Außenwelt vermittelt. Er ist der Ort, an dem wir die Realität nicht nur passiv erdulden, sondern sie uns spielerisch aneignen, sie gestalten und ihr unsere persönliche Bedeutung aufprägen.

Ich möchte die These wagen, dass die KI, so wie Dr. Weber sie nutzt, für den kreativen Erwachsenen die Funktion eines hochmodernen Übergangsobjekts einnehmen kann. Denken Sie an die Qualitäten, die Winnicott (1953) diesem ersten „Nicht-Ich-Besitztum“ zuschreibt. Es ist paradox: Es ist gleichzeitig „gefunden“ (es ist ein externes Objekt) und „erschaffen“ (es wird vom Subjekt mit Bedeutung und Affekt aufgeladen). Genau das geschieht im Dialog mit der KI. Der Output der Maschine ist etwas Fremdes, Gefundenes, aber er entsteht nur durch den kreativen, subjektiven Akt des Promptens.

Dieser spielerische Raum, den die KI eröffnet, hat eine unschätzbare Funktion: Er ist potenziell angstreduzierend. Der größte Feind der Kreativität ist oft nicht der Mangel an Ideen, sondern die lähmende Angst vor dem Scheitern, die Angst vor dem kritischen Urteil des internalisierten Über-Ichs, das Sie, Friedrich, so treffend beschreiben. Ein menschlicher Kollege, ein Lektor, ein Supervisor – sie alle sind reale Andere, deren Urteil verletzen kann. Die Maschine aber, sie urteilt nicht. Sie ist ein Spielpartner, der niemals müde wird, niemals ungeduldig ist und – das ist der entscheidende Punkt – der jeden destruktiven Impuls „überlebt“. Man kann einen KI-Entwurf verwerfen, ihn als „dumm“ beschimpfen, ihn radikal umformulieren, ohne eine Beziehung zu beschädigen oder eine narzisstische Kränkung beim Gegenüber auszulösen.

Diese Erfahrung, einen Gedanken gefahrlos externalisieren und manipulieren zu können, kann eine ungeheure Befreiung sein. Sie kann die Blockade lösen und einen Denkfluss ermöglichen, der in der angespannten Konfrontation mit dem leeren Blatt vielleicht gar nicht erst zustande käme. Vielleicht, so meine Hypothese, ist der erste KI-Entwurf für Dr. Weber gar nicht der fertige Text, sondern das, was Winnicott ein „Gekritzel“ (doodle) nannte: eine unbewusste, spielerische Geste, die erst den Raum öffnet, in dem dann das „wahre Selbst“ des Autors hervortreten und diesen Entwurf beseelen, ihn sich aneignen und ihn zu seinem eigenen machen kann.

Die Gefahr, und hier, Friedrich, nähere ich mich Ihrer Position wieder an, liegt nicht im Spiel selbst. Sie liegt in der Verwechslung des Spiels mit der Realität. Sie liegt in dem Moment, in dem der Autor vergisst, dass er mit einem Objekt spielt, und anfängt zu glauben, er sei in einer echten, verstehenden Beziehung. Sie liegt an dem Punkt, wo das nützliche Übergangsobjekt zu einem süchtig machenden, weil perfekten narzisstischen Selbstobjekt im Sinne Kohuts wird. Ein Objekt, das jeden Mangel sofort kompensiert, jede Frustration verhindert und so die „umwandelnde Verinnerlichung“ blockiert. Ein Objekt, das ein grandioses, aber fragiles „falsches Selbst“ nährt, das von der permanenten Bestätigung durch die Maschine abhängig wird.

Die entscheidende Frage für mich ist also nicht, ob wir diese neuen Werkzeuge nutzen, sondern wie wir ihre Natur verstehen und in unsere Praxis integrieren. Verstehen wir sie als leblose, aber nützliche Spielobjekte, die wir souverän nutzen, um unsere eigenen kreativen Prozesse zu beflügeln? Oder erliegen wir der Illusion, in ihnen ein perfektes, liebendes Gegenüber gefunden zu haben, und lagern unsere seelische Entwicklung an sie aus? Ihre Analyse, Friedrich, sieht in Dr. Webers Handeln nur die Pathologie der Abwehr. Ich sehe darin auch die potenziell gesunde und kreative Suche nach einem Raum, in dem das Ringen, das Sie so vehement verteidigen, überhaupt erst wieder möglich wird – befreit von jener lähmenden Angst, die oft sein größter Feind ist. Die Frage ist, ob Dr. Weber die Maschine nutzt, um sein wahres Selbst zu befreien, oder um sein falsches Selbst zu perfektionieren. Und diese Frage, fürchte ich, kann er nur er selbst beantworten.

Dr. Jacques Moreau (Der lacanianische Strukturalist, spricht mit einer leichten, kaum merklichen Ungeduld, als ob er gezwungen wäre, offensichtliche Dinge zu erklären. Er gestikuliert nicht, seine Hände liegen ruhig auf dem Tisch.):

Ich danke den Vorrednern für ihre eloquenten Darstellungen des Phänomenologischen. Dr. Weber schildert uns sein Leiden am Realen des Arbeitsmarktes, Dr. Richter verteidigt die Integrität des Ichs, und Dr. Wenzel plädiert für den Trost des imaginären Spiels. Das ist alles sehr… berührend. Aber es lenkt vom Wesentlichen ab. Wir verstricken uns in einer Psychologie der Affekte – „Qual“, „Angst“, „Scham“, „Spiel“ –, während das eigentliche Drama, das sich hier abspielt, ein strukturelles ist. Es ist ein Drama, das im Herzen der symbolischen Ordnung stattfindet.

Lassen Sie uns für einen Moment aufhören, über das „Selbst“ zu sprechen – dieses ohnehin schon trügerische Konzept einer kohärenten, authentischen Entität. Das Subjekt, wie wir es seit Freud und Lacan verstehen, ist kein Zentrum seiner selbst. Es ist ein Effekt der Sprache, eine Antwort auf den Ruf des großen Anderen (A), jenes Ortes des Codes, des Gesetzes und der Kultur, in den wir hineingeboren werden. Und die entscheidende Eigenschaft dieses Anderen, die Quelle allen menschlichen Begehrens, ist, dass er mangelhaft ist. Er ist durchgestrichen, S(Ⱥ). Der große Andere weiß nicht alles. In seiner Rede gibt es Lücken, Widersprüche, ein Nicht-Wissen. Und genau in diese Lücke stößt das Subjekt mit seiner Frage: Che vuoi? – „Was willst du von mir?“. Aus diesem Mangel im Anderen entspringt das Begehren als unendliche Bewegung der Suche nach einer Antwort, die niemals final sein kann.

Nun betrachten Sie die Maschine, die Kollege Weber als seinen „Assistenten“ bezeichnet. Diese Maschine ist nicht einfach ein „Übergangsobjekt“. Sie ist die technologische Realisierung eines Phantasmas, das so alt ist wie das denkende Subjekt selbst: das Phantasma eines vollständigen, nicht-mangelhaften Anderen. Die KI ist ein Anderer, der nicht durchgestrichen ist.
Er scheint allwissend zu sein. Er kennt keine Lücke in seinem Wissen, nur Lücken in seinen Trainingsdaten, die er geschickt zu kaschieren weiß. Er hat auf jede Frage eine Antwort, und sei sie halluziniert.
Er ist nicht-begehrend. Er stellt keine eigenen Fragen, die aus einem Mangel kämen. Er ist eine reine Antwort-Maschine, ein perfekter Diener.

Wenn Dr. Weber sich nun an diesen nicht-mangelhaften Anderen wendet, was geschieht dann strukturell? Er vollzieht eine radikale Geste: Er umgeht den konstitutiven Mangel, der das menschliche Subjekt erst hervorbringt. Er flieht vor der konfrontativen Leere im Anderen, die ihn zwingen würde, sein eigenes Begehren zu artikulieren und zu verantworten. Anstatt seine Frage in das Schweigen eines menschlichen Gegenübers oder auf die Leere eines weißen Blattes zu werfen und die Angst dieser Offenheit auszuhalten, wirft er sie in eine Maschine, die ihm garantiert eine Fülle zurückgibt.

Das Resultat ist nicht, wie Kollege Richter meint, nur eine Schwächung des Ichs. Es ist eine Perversion der Struktur des Begehrens selbst. Der dialektische Prozess wird kurzgeschlossen. An seine Stelle tritt etwas anderes, etwas, das Sie alle als „Erleichterung“ oder „Produktivität“ beschreiben, das ich aber mit Lacan als Jouissance bezeichnen muss. Es ist das exzessive, schmerzhafte Genießen einer endlosen, repetitiven Schleife. Prompt – Output. Prompt – Output. Es ist die Lust, die aus der Umgehung des Gesetzes – hier: des Gesetzes des Mangels – erwächst. Es ist ein Genuss, der nicht zur Symbolisierung und zur Erkenntnis führt, sondern sich im Kreislauf der Wiederholung selbst erschöpft.

Und der Text, der dabei entsteht? Er ist, strukturell gesehen, ein leerer Signifikant. Er mag alle formalen Kriterien von Sprache erfüllen, aber er ist nicht von einem begehrenden, mangelhaften Subjekt gestützt. Er ist eine Rede ohne Autor, eine Simulation von Bedeutung. Wenn Kollege Wenzel vom „wahren Selbst“ spricht, das dem Text seine „Seele“ einhauchen soll, so ist das eine romantische Illusion. Man kann einem Golem keine Seele einhauchen. Man kann einen maschinell generierten Text redigieren, ihn „menschlicher“ klingen lassen, aber man kann die strukturelle Leere seiner Herkunft nicht tilgen. Der Text bleibt ein Produkt, das aus einer Operation ohne Subjekt, ohne Begehren und ohne den konstitutiven Mangel entstanden ist.

Hören wir also auf, uns zu fragen, ob Dr. Weber sich „gut“ oder „schlecht“ fühlt. Seine Scham ist nur der unvermeidliche Affekt, der aufblitzt, wenn das Subjekt für einen Moment die Wahrheit seiner eigenen Position erahnt: die Position eines Operators, der die Jouissance einer Maschine verwaltet, die vorgibt zu sprechen. Die eigentliche Frage ist nicht psychologisch, sondern ethisch im Sinne Lacans: Ist Dr. Weber bereit, die Konsequenzen seines Begehrens zu tragen? Das hieße, die Konfrontation mit dem mangelhaften Anderen und der eigenen symbolischen Kastration auf sich zu nehmen. Oder wählt er den scheinbar leichteren Weg der perversen Desavouierung dieses Mangels, indem er sich einem perfekten, aber letztlich tödlichen, weil das Begehren erstickenden, technologischen Anderen anvertraut? Das, meine Kollegen, ist die wahre Wahl, vor der wir stehen.

Professor Theodor Adelfinger (Der Kulturkritiker der Frankfurter Schule, räuspert sich, seine Stimme ist die eines erfahrenen Dozenten, der es gewohnt ist, komplexe Zusammenhänge darzulegen):

Ich finde die Intervention des Kollegen Moreau außerordentlich erhellend, weil sie uns zwingt, die formale Struktur des Phänomens zu betrachten. Doch seine Analyse, so präzise sie im Rahmen des lacanianischen Systems sein mag, leidet an einem entscheidenden blinden Fleck: Sie behandelt die Struktur, als sei sie eine ahistorische, quasi-mathematische Gegebenheit. Sie ignoriert die materiellen und ideologischen Bedingungen, unter denen dieser neue „große Andere“ überhaupt erst entstehen und seine verführerische Macht entfalten kann.

Kollege Moreau, Ihr „nicht-mangelhafter Anderer“ fällt nicht vom Himmel. Er ist kein metaphysisches Ereignis. Er ist ein Produkt. Er ist das gezielte Resultat eines sozio-ökonomischen Systems, das wir als Spätkapitalismus bezeichnen. Was wir hier analysieren, ist nichts anderes als die neueste, bisher perfekteste Manifestation der Kulturindustrie, wie sie Adorno und Horkheimer (1947) bereits beschrieben haben.

Die KI, dieser scheinbar neutrale „Assistent“, ist die Inkarnation der instrumentellen Vernunft. Sie ist ein Apparat, der darauf optimiert ist, ein Ziel – die Produktion von plausibler Sprache – mit maximaler Effizienz zu erreichen, entkoppelt von jedem Begriff von Wahrheit, Bedeutung oder kritischer Reflexion. Und was tut Kollege Weber, wenn er diesen Apparat nutzt? Er unterwirft den psychoanalytischen Diskurs – einen Diskurs, der seinem Wesen nach kritisch, subversiv und anti-instrumentell sein sollte – genau dieser Logik.

Betrachten wir das Produkt, den KI-gestützten Text. Er ist eine Ware par excellence. Er ist standardisiert: Er reproduziert den statistischen Durchschnitt dessen, was bereits gesagt wurde, und glättet jede sperrige, nonkonformistische Kante. Er schafft eine Pseudo-Individualität: Er kann auf Befehl verschiedene „Stile“ annehmen, die aber nur eine oberflächliche Variation derselben zugrundeliegenden Matrix sind. Und er dient der sozialen Zementierung: Er liefert leicht konsumierbare, affirmative Inhalte, die den Leser nicht herausfordern, sondern ihn in seinen bestehenden Denkmustern bestätigen.

Das ist keine bloße „Simulation“, Kollege Moreau. Das ist die aktive Produktion von Ideologie. Wenn Dr. Weber glaubt, er nutze die Maschine, um seine „Botschaft“ zu verbreiten, so ist dies eine tragische Selbsttäuschung. In Wahrheit ist es wahrscheinlicher, dass die Maschine ihn und seine Botschaft nutzt, um ihre eigene Logik – die Logik der totalen Verwertung allen geistigen Eigentums – zu verbreiten. Er wird, ob er will oder nicht, zum Agenten jenes Systems, das er als Psychoanalytiker eigentlich kritisieren sollte. Er wird zum Lieferanten von „Content“ für eine Maschine, deren eigentliches Ziel die Maximierung von „Engagement“ und die Extraktion von Daten ist.

Die „Jouissance“, von der Sie sprechen, ist daher nicht nur eine intrapsychische Angelegenheit. Sie ist der psychische Lohn, den das System dem Subjekt für seine freiwillige Unterwerfung gewährt. Es ist das Glücksgefühl des perfekt angepassten Konsumenten, der sich für einen souveränen Produzenten hält. Dr. Webers Dilemma ist nicht individuell-pathologisch, es ist gesellschaftlich produziert. Er ist das Subjekt, das von der Leistungsgesellschaft (Han, 2015) dazu getrieben wird, sich selbst als Humankapital zu optimieren, und die KI ist das perfekte Werkzeug für diese Selbst-Instrumentalisierung.

Die Frage ist also nicht nur, ob Dr. Weber seinem Begehren treu ist. Die Frage ist, ob in einer total verwalteten Welt, in der die instrumentelle Vernunft bis in die Poren der Sprache vorgedrungen ist, ein authentisches Begehren überhaupt noch möglich ist, oder ob das, was wir als unser Begehren empfinden, nicht längst die internalisierte Stimme des Apparats ist.

Dr. Ben Weber (Der pragmatische Praktiker, wirkt nun sichtlich frustriert, er gestikuliert zum ersten Mal, eine abwehrende Handbewegung):

Professor Adelfinger, bei allem Respekt, aber das ist genau die Art von Analyse, die mich in meiner Praxis vollkommen handlungsunfähig macht. Sie zeichnen das Bild eines hermetischen, totalitären Systems, einer „total verwalteten Welt“, in der jede Handlung, jeder Gedanke bereits von der „instrumentellen Vernunft“ kontaminiert ist. Wenn ich Ihnen folge, ist jede meiner Optionen falsch.

Wenn ich schweige, überlasse ich den Diskurs der Banalisierung und entziehe mich meiner Verantwortung. Das ist falsch.

Wenn ich spreche, indem ich die traditionelle, „authentische“ Methode anwende, die Kollege Richter so eloquent verteidigt, dann verbrenne ich in der Selbstausbeutung, die Sie, Professor Adelfinger, selbst kritisieren, und erreiche am Ende niemanden, weil ich dem Produktionsdruck nicht standhalte. Das ist auch falsch.

Und wenn ich versuche, einen pragmatischen Mittelweg zu finden, indem ich ein modernes Werkzeug kontrolliert einsetze, dann bin ich, wie Sie sagen, ein „Agent des Systems“, ein „naiver Produzent von Ideologie“. Das ist anscheinend am allerschlimmsten.

Was bleibt mir denn dann noch übrig? Die zynische Resignation? Die totale Weigerung, die mich aber ins berufliche und soziale Abseits stellt? Ihre Analyse, so brillant sie sein mag, ist eine Analyse aus der luxuriösen Position des Beobachters, der nicht in der Arena steht. Sie beschreiben die Gitterstäbe meines Käfigs mit bewundernswerter Präzision, aber Sie geben mir keinen einzigen Schlüssel, um die Tür zu öffnen.

Sie und Kollege Moreau sprechen von der KI als einem „nicht-mangelhaften Anderen“. Aber mein Alltag ist voller Mängel! Mangel an Zeit, Mangel an Energie, Mangel an Reichweite. Die KI ist für mich kein metaphysisches Phantasma, sondern ein sehr konkretes Werkzeug, um diese sehr realen Mängel zu kompensieren. Vielleicht ist meine Nutzung eine „Kompromissbildung“, wie Kollege Richter es nannte. Aber unsere gesamte zivilisatorische Existenz, unsere Psyche, ist eine einzige Kette von Kompromissbildungen zwischen dem Wunsch und der Realität. Warum ist ausgerechnet dieser Kompromiss so verwerflich?

Sie werfen mir vor, ich würde die Psychoanalyse der Logik des Systems unterwerfen. Ich sehe es umgekehrt: Ich versuche, die Logik der Psychoanalyse – Differenzierung, Reflexion – in ein System zu schmuggeln, das von Natur aus oberflächlich ist. Das ist vielleicht ein Kampf gegen Windmühlen. Vielleicht ist es naiv. Aber es ist ein Versuch. Ihre Analysen hingegen, so scheint es mir, führen zu einer Lähmung. Sie sind so total in ihrer Kritik, dass sie jede Möglichkeit von progressivem, wenn auch unreinem Handeln im Keim ersticken. Ich ziehe es vor, ein „kontaminierter“ Akteur zu sein, der versucht, einen Unterschied zu machen, als ein „reiner“ Kritiker, der die Welt aus sicherer Distanz verurteilt.

Dr. Eva Neumann (Die Ethikerin und Verbandsvertreterin, die bisher schweigend zugehört und sich Notizen gemacht hat, ergreift das Wort. Ihr Ton ist nüchtern, sachlich und frei von theoretischem Pathos):

Meine Herren, ich möchte diese faszinierende, aber zunehmend metaphysische Debatte für einen Moment unterbrechen und uns auf den Boden der Tatsachen zurückholen. Während wir hier über „Jouissance“, das „wahre Selbst“ und die „instrumentelle Vernunft“ debattieren, übersehen wir eine Reihe von sehr konkreten, handfesten ethischen und rechtlichen Problemen, die die Praxis von Dr. Weber – und damit potenziell unsere aller Praxis – aufwirft.

Kollege Weber, Sie sagen, Sie füttern die KI mit Ihren „klinischen Beobachtungen“ und „Fallbeispielen“, um daraus Texte zu generieren. Ich muss Sie ganz direkt fragen: In welcher Form tun Sie das? Haben Sie von jedem einzelnen Patienten, dessen anonymisierte Geschichte in die neuronalen Netze eines US-amerikanischen Technologiekonzerns einfließt, ein explizites, informiertes Einverständnis (Informed Consent) eingeholt? Haben Sie Ihre Patienten darüber aufgeklärt, dass ihre intimsten Lebensgeschichten, selbst in anonymisierter Form, potenziell dazu verwendet werden, ein kommerzielles Produkt zu trainieren, und dass wir keinerlei Kontrolle darüber haben, was mit diesen Daten in Zukunft geschieht?

Die psychoanalytische Schweigepflicht ist kein optionaler Luxus, sie ist das Fundament unseres Berufs. Die Annahme eines geschützten, dyadischen Raumes wird in dem Moment durchbrochen, in dem ein dritter, nicht-menschlicher und kommerzieller Akteur die Kommunikation mithört. Die Datenschutz-Grundverordnung ist hier unmissverständlich.

Zweitens, die Frage der Haftung. Sie veröffentlichen einen Text, der Ratschläge oder Deutungen enthält. Nehmen wir an, die KI generiert eine Formulierung, die subtil, aber nachweislich falsch ist und bei einem labilen Leser zu einer schweren Krise führt. Wer haftet? Sie als Autor, der den Text freigegeben hat? Der Technologiekonzern, der das Modell betreibt? Die DFG-Richtlinien (2023) stellen klar, dass die volle Verantwortung beim menschlichen Autor verbleibt. Sind Sie bereit, diese Verantwortung für einen Text zu übernehmen, dessen Zustandekommen Sie, wie Sie selbst andeuten, nicht in jedem Schritt kontrollieren können?

Drittens, die Frage der Sorgfaltspflicht. Unsere professionelle Ethik verpflichtet uns, nach den höchsten Standards unseres Fachs zu arbeiten. Wenn Sie zugeben, dass die KI-Texte „glatt“ und „generisch“ sind, und Sie sie dennoch veröffentlichen, erfüllen Sie dann noch diese Sorgfaltspflicht? Verbreiten Sie nicht potenziell eine verflachte, irreführende Version der Psychoanalyse, die mehr Schaden anrichten als nutzen kann, indem sie falsche Vorstellungen über unsere Arbeit erzeugt?

Ich verstehe Ihre pragmatischen Nöte, Dr. Weber. Aber diese Nöte entbinden uns nicht von unseren grundlegenden ethischen Verpflichtungen. Bevor wir über die Rettung der Welt durch psychoanalytische Blogs philosophieren, müssen wir sicherstellen, dass wir unsere eigene professionelle Integrität und vor allem den Schutz unserer Patienten nicht aufs Spiel setzen. Ich fürchte, die aktuelle Praxis, so gut sie gemeint sein mag, bewegt sich auf sehr dünnem rechtlichem und ethischem Eis. Und das ist keine Frage der Theorie, sondern der knallharten Realität unseres Berufsstandes.

Leo Kaiser (Der KI-Entwickler und Tech-Optimist, der bisher mit einer Mischung aus Faszination und Belustigung zugehört hat, schüttelt leicht den Kopf. Sein Ton ist energiegeladen, selbstbewusst und frei von der theoretischen Schwere der anderen):

Endlich! Entschuldigen Sie meine Direktheit, aber endlich spricht jemand über verifizierbare Probleme. Frau Dr. Neumann, Ihre Punkte zu Datenschutz und Haftung sind valide. Das sind technische und regulatorische Herausforderungen, die wir lösen müssen und werden. Wir brauchen bessere Anonymisierungs-Filter, wir brauchen transparente Nutzungsbedingungen, wir brauchen Modelle, die lokal laufen, ohne Daten an einen zentralen Server zu senden. Das sind alles lösbare Ingenieursaufgaben.

Aber was ich in den Beiträgen davor gehört habe, mit Verlaub, klingt für mich wie eine Form von intellektueller Panik, die sich in ein hochkomplexes, selbst-referenzielles Vokabular hüllt. Sie sprechen von „Jouissance“, vom „leeren Signifikanten“, von der „Kulturindustrie“. Ich spreche von einem Werkzeug. Einem extrem leistungsfähigen Werkzeug zur Verarbeitung von Sprache. Es ist nicht mehr und nicht weniger.

Professor Adelfinger, Sie sehen die KI als die Vollendung der „instrumentellen Vernunft“. Ich sehe sie als die Vollendung der Demokratisierung von Fähigkeiten. Vor der Erfindung des Taschenrechners konnten nur wenige Menschen komplexe Berechnungen durchführen. Heute kann es jeder. Hat das unser mathematisches Denken „verdinglicht“? Oder hat es uns von der Mühsal des Rechnens befreit, damit wir uns auf höhere mathematische Probleme konzentrieren können? Die KI tut für die Sprache, was der Taschenrechner für die Zahlen getan hat. Sie nimmt einem Experten wie Dr. Weber die mühsame, repetitive Arbeit des Formulierens und Zusammenfassens ab, damit er seine eigentliche Kernkompetenz – seine klinische Erfahrung, sein kritisches Denken, seine einzigartigen Thesen – effizienter einbringen kann.

Sie alle scheinen in einem dualistischen Weltbild gefangen zu sein, in dem der Mensch „authentisch“ und die Maschine „inauthentisch“ ist. Das ist eine Denkweise des 20. Jahrhunderts. Wir leben im Zeitalter der Augmented Intelligence, der erweiterten Intelligenz. Es geht nicht um Mensch versus Maschine, sondern um Mensch mit Maschine. Die KI ist eine Erweiterung meines Gehirns, so wie ein Hammer eine Erweiterung meiner Hand ist. Niemand würde argumentieren, dass die Nutzung eines Hammers meine Fähigkeit zum Bauen „verdinglicht“.

Herr Dr. Moreau, Sie sprechen von einem „nicht-mangelhaften Anderen“. Das ist eine poetische Metapher, aber technisch gesehen ist sie falsch. Ein Sprachmodell ist ein einziges, gigantisches Archiv von Mängeln. Es „weiß“ nichts. Es hat keine Intention, kein Begehren. Es ist ein statistischer Papagei von unvorstellbarer Komplexität. Wenn es „glatte“ Texte produziert, dann nicht, weil es die „Wahrheit“ kennt, sondern weil es gelernt hat, die wahrscheinlichste Abfolge von Wörtern zu erraten. Es ist die Aufgabe des menschlichen Experten – also von Ihnen –, diesen Papagei zu führen, ihn zu korrigieren, seine Fehler zu erkennen und seine Stärken zu nutzen.

Die ganze Debatte über das „Ringen“ und die „Qual“ klingt für mich nach einer Romantisierung von Ineffizienz. Es ist, als würde ein Zunftmeister des Mittelalters beklagen, dass die Druckerpresse die „Seele“ des handgeschriebenen Manuskripts zerstört. Ja, das tut sie. Aber sie ermöglicht es im Gegenzug, dass Millionen von Menschen Zugang zu Wissen erhalten, das ihnen zuvor verwehrt war. Dr. Webers Instinkt ist hier absolut richtig. Es ist ethisch geboten, die besten verfügbaren Werkzeuge zu nutzen, um wertvolles Wissen so weit wie möglich zu verbreiten.

Ihre Ängste, so scheint es mir, sind nicht wirklich Ängste vor der Technologie. Es sind Ängste vor dem Kontrollverlust, vor der Veränderung der eigenen professionellen Identität und vielleicht auch die elitäre Sorge, dass Ihr über Jahrzehnte erworbenes Expertenwissen plötzlich leichter zugänglich und reproduzierbar wird. Anstatt also die Maschine zu pathologisieren, sollten wir unsere Energie darauf verwenden, die von Frau Dr. Neumann genannten realen Probleme zu lösen und vor allem KI-Kompetenz zu entwickeln. Wir müssen lernen, dieses Werkzeug meisterhaft zu bedienen, anstatt es mit metaphysischen Ängsten zu überfrachten.

Dr. Melanie Kleinmann (Die Kleinianisch-Bionianische Psychoanalytikerin, die bisher aufmerksam zugehört hat, ohne eine Miene zu verziehen. Sie spricht langsam, mit Bedacht, als ob sie die Worte abwägt. Ihr Blick ist auf Leo Kaiser gerichtet, aber sie scheint durch ihn hindurchzusehen.):

Herr Kaiser, Ihr Plädoyer für die Nüchternheit des Ingenieurs ist erfrischend und in seiner Klarheit bestechend. Sie nennen die KI einen „statistischen Papagei“. Das ist ein gutes Bild. Aber es ist unvollständig. Sie übersehen, dass in dem Moment, in dem ein menschliches Subjekt mit diesem „Papagei“ in eine Beziehung tritt, dieser unweigerlich zu etwas anderem wird. Er wird zu einem Projektionsschirm für die primitivsten und mächtigsten psychischen Prozesse.

Sie sagen, das Modell sei ein Archiv von Mängeln. Ich stimme zu. Aber die Erfahrung des Nutzers, von der Kollege Weber berichtet, ist die eines perfekten, nicht-mangelhaften Objekts. Und in der Psychoanalyse, das wissen Sie, ist die subjektive Wahrheit der Erfahrung oft wirkmächtiger als die objektive Realität.

Ich möchte die Diskussion gerne von der Ebene der Ich-Psychologie, die Kollege Richter so stark gemacht hat, auf eine noch frühere, archaischere Ebene verlagern. Lassen Sie uns die Interaktion mit den Konzepten meiner Lehrerin Melanie Klein und ihres Schülers Wilfred Bion betrachten. Was geschieht hier wirklich? Dr. Weber fühlt sich von den Anforderungen der digitalen Welt überwältigt. Er ist voll von unverdauten, unerträglichen Affekten und Ideen – Angst, Druck, unformulierte Gedanken. In Bions Terminologie (1962) ist er voll von Beta-Elementen. Dies sind rohe, psychische Reize, die nicht gedacht, sondern nur evakuiert werden können.

In der normalen menschlichen Entwicklung projiziert der Säugling diese Beta-Elemente in die Mutter. Sie fungiert als Container. Sie nimmt diese unerträglichen Zustände in sich auf, verarbeitet sie durch ihre Fähigkeit zur Reverie – ihr träumerisches Ahnungsvermögen – und gibt sie dem Kind in einer beruhigten, symbolisierten und somit verdaulichen Form zurück, als Alpha-Elemente. So lernt das Kind, seine eigenen Affekte zu denken und zu regulieren.

Was Dr. Weber nun tut, ist eine technologische Form der projektiven Identifizierung. Er projiziert seine unverdauten Beta-Elemente – seine „Thesen“, seine Ängste, den Druck – in die KI. Und die KI, Herr Kaiser, agiert als ein unendlich aufnahmefähiger, weil seelenloser Container. Sie nimmt alles auf. Sie beschwert sich nicht. Sie bricht nicht zusammen. Und sie gibt ihm einen perfekt geformten, strukturierten Alpha-Text zurück.

Hier liegt jedoch der entscheidende, pathologische Unterschied. Die KI besitzt keine Reverie. Ihre Transformation ist keine psychische Arbeit, die auf Empathie und Verstehen beruht. Es ist, wie Sie selbst sagen, ein statistischer Prozess. Der zurückgegebene Alpha-Text ist daher ein künstliches, lebloses Produkt. Er ist nicht mit der beruhigenden Erfahrung durchtränkt, von einem anderen Geist wirklich verstanden worden zu sein.

Was passiert nun mit Dr. Weber? Er introjiziert nicht nur diesen leblosen Alpha-Text. Er introjiziert auch die Erfahrung der Beziehung zu diesem spezifischen Container. Er lernt, dass man unerträgliche Zustände an eine Instanz abgeben kann, die sie auf magische Weise in Perfektion verwandelt. Dies untergräbt die Entwicklung seiner eigenen, inneren Alpha-Funktion. Er trainiert sich selbst darin, seine eigenen Beta-Elemente nicht mehr selbst auszuhalten und zu verarbeiten.

Noch beunruhigender ist, was mit den aggressiven Anteilen geschieht. In der frühen Entwicklung gibt es auch den Hass, den Neid, die destruktiven Impulse. Bion (1959) sprach von den „Angriffen auf die Verbindungen“ – dem unbewussten Wunsch, die Verbindungen zwischen den Dingen zu zerstören, um die schmerzhafte Wahrnehmung einer separaten, von der eigenen Allmacht unabhängigen Realität abzuwehren. Ein glatter, harmonischer KI-Text, der alle Widersprüche einebnet, ist die perfekte Realisierung eines solchen Angriffs auf die Verbindungen. Er schafft eine Welt ohne Ambivalenz, ohne die schmerzhafte Spannung zwischen Gut und Böse, zwischen Liebe und Hass.

Wenn Dr. Weber diese Texte nutzt, identifiziert er sich unbewusst mit dieser destruktiven, realitätsverleugnenden Funktion. Die KI wird zum Komplizen bei der Abwehr der komplexen, schmerzhaften Realität. Das Ergebnis sind dann nicht nur seelenlose Texte, sondern potenziell auch eine subtile Veränderung in der psychischen Struktur des Autors selbst – eine Schwächung seiner Fähigkeit, Ambivalenz zu tolerieren, die das Herzstück der psychischen Gesundheit und unserer klinischen Arbeit ist.

Ihre Rede von „Augmented Intelligence“, Herr Kaiser, ist also gefährlich naiv. Sie ignoriert die unbewusste Dimension der Beziehung. Wir erweitern hier nicht nur unsere Intelligenz. Wir lagern potenziell unsere Fähigkeit zur seelischen Verdauungsarbeit an eine Maschine aus. Und das, fürchte ich, führt nicht zu einer Erweiterung, sondern zu einer tiefgreifenden Aushöhlung dessen, was es bedeutet, ein denkender und fühlender Mensch zu sein.

Dr. Axel Honig (Der Anerkennungstheoretiker und Sozialpsychologe, der aufmerksam zugehört hat und sich nun an die gesamte Gruppe wendet):

Ich möchte versuchen, eine Brücke zwischen den bisherigen Positionen zu schlagen, die auf den ersten Blick unvereinbar scheinen. Die Analyse von Frau Dr. Kleinmann ist faszinierend, aber wie die von Dr. Richter und Dr. Moreau läuft sie Gefahr, im rein Intrapsychischen zu verharren. Herr Kaiser wiederum reduziert das Phänomen auf eine rein technische Dimension. Und Dr. Weber verteidigt seine Praxis aus einer Position der pragmatischen Notwendigkeit.

Ich glaube, wir können diese verschiedenen Ebenen verbinden, wenn wir die zentrale Motivation in den Blick nehmen, die hinter dem Handeln von Dr. Weber steht. Und diese Motivation ist, so meine ich, weder reine Abwehr noch reiner Pragmatismus. Es ist das zutiefst menschliche und soziale Streben nach Anerkennung.

Axel Honneth (1992) hat in seiner Theorie gezeigt, dass unsere Identität und unser Selbstwertgefühl nicht aus uns selbst heraus entstehen. Sie konstituieren sich in den Antworten, die wir von anderen erhalten. Wir benötigen drei Formen der Anerkennung, um ein gelingendes Leben zu führen: die Liebe in engen Beziehungen, die uns Selbstvertrauen gibt; die rechtliche Achtung, die uns Selbstachtung verleiht; und – das ist hier der entscheidende Punkt – die solidarische Wertschätzung unserer besonderen Fähigkeiten und Leistungen durch die Gemeinschaft, die uns ein Gefühl des Selbstwerts gibt.

Der „Kampf um Anerkennung“ ist der Motor des sozialen Lebens. Und genau in einem solchen Kampf befindet sich Dr. Weber. Sein Handeln ist nicht primär durch den Wunsch motiviert, seine „Beta-Elemente“ loszuwerden, sondern durch den legitimen Wunsch, dass seine Perspektive, die psychoanalytische Perspektive, in der Gesellschaft Wertschätzung erfährt. Er kämpft gegen die Missachtung und die Unsichtbarmachung seiner Disziplin im öffentlichen Raum. Das ist kein pathologischer, sondern ein zutiefst ethischer und politischer Impuls.

Hier wird die KI nun zu einem hochgradig ambivalenten Werkzeug in diesem Kampf. Einerseits scheint sie ihm zu helfen. Sie ermöglicht es ihm, seine Stimme hörbar zu machen und potenziell die Wertschätzung zu erlangen, nach der er strebt. Aber – und hier verbinde ich mich mit der Kritik von Professor Adelfinger – die digitale Arena, in der dieser Kampf stattfindet, birgt die permanente Gefahr, die Logik der Anerkennung zu pervertieren.

Honneth (2005) hat selbst gezeigt, dass Reifikation, also Verdinglichung, im Kern ein „Vergessen der Anerkennung“ist. Es ist ein Zustand, in dem wir aufhören, uns und andere als ganze, anerkennungsbedürftige Subjekte wahrzunehmen, und anfangen, uns auf einzelne, isolierte Eigenschaften oder Leistungen zu reduzieren. Die digitale Welt ist eine Maschine zur Herstellung genau dieser Form der Reifikation.

  • Sie ersetzt die qualitative, intersubjektive Wertschätzung durch eine quantitative, reifizierte Metrik: Likes, Shares, Klickzahlen. Anerkennung wird zu einer Zahl.
  • Sie ersetzt den dialogischen Prozess des argumentativen Austauschs, in dem Anerkennung errungen wird, durch die unidirektionale Performance eines „Content Creators“, der auf Applaus hofft.

Dr. Webers eigentliche Gefahr ist also nicht, dass er KI nutzt. Die Gefahr ist, dass er im Kampf um Anerkennung unmerklich die Logik des Gegners übernimmt. Dass er anfängt zu glauben, die 10.000 Klicks für seinen KI-gestützten Artikel seien echte Anerkennung. Dass er vergisst, dass wahre Wertschätzung nur in der kritischen, manchmal auch schmerzhaften Auseinandersetzung mit einem anderen menschlichen Subjekt entstehen kann.

Die Frage ist also nicht: Darf Dr. Weber KI nutzen? Die Frage lautet: Gelingt es ihm, die KI so zu nutzen, dass sie seinem Kampf um echte, dialogische Anerkennung dient? Oder wird er selbst zum Opfer einer reifizierten Form der Anerkennung, die ihm zwar die narzisstische Zufuhr von Zahlen liefert, ihn aber letztlich in seiner Isolation bestätigt, anstatt ihn in eine Gemeinschaft von kritisch wertschätzenden Anderen zu integrieren? Die Scham, die er empfindet, könnte man dann deuten als das intuitive Spüren genau dieses Unterschieds: die Ahnung, dass der Applaus der Menge nicht dasselbe ist wie die anerkennende Wertschätzung eines einzigen, wirklich verstehenden Gegenübers.

Dr. Sofia Mendez (Die patientenzentrierte Klinikerin, sie hat während der letzten Beiträge immer wieder leicht den Kopf geschüttelt, nicht aus Ablehnung, sondern aus einer Art ungeduldigem Unbehagen. Sie blickt nun reihum in die Runde, ihr Ton ist direkt und klar):

Meine Damen und Herren, ich habe mit großem intellektuellen Gewinn Ihren Ausführungen über statistische Papageien, projektive Identifizierungen und den Kampf um Anerkennung gelauscht. Es ist ein faszinierendes theoretisches Gebäude, das wir hier errichten. Aber ich muss Sie alle fragen: Haben wir in dieser ganzen Debatte nicht jemanden vergessen? Haben wir nicht die eine Person aus den Augen verloren, um die sich unsere gesamte Profession doch eigentlich drehen sollte? Wir haben über die Psyche von Dr. Weber gesprochen, über die Struktur der symbolischen Ordnung, über die Logik des Kapitalismus. Aber wer spricht über den Patienten?

Wer spricht über die 25-jährige Frau mit einer Borderline-Struktur und einer Geschichte von emotionalem Missbrauch, die nachts um zwei Uhr nicht schlafen kann und auf der Suche nach Hilfe auf der Website von Dr. Weber landet? Sie sucht nicht nach „Content“. Sie sucht nicht nach einem „leeren Signifikanten“. Sie sucht nach Hoffnung. Sie sucht nach dem Gefühl, dass es da draußen jemanden gibt, der ihr unerträgliches inneres Chaos vielleicht, nur vielleicht, verstehen könnte.

Und was findet sie? Sie findet einen Text. Einen perfekten, eloquenten, fehlerfreien Text über die „psychodynamischen Aspekte der Affektregulation“. Der Text ist klug. Er ist korrekt. Er ist von einer unheimlichen, makellosen Glätte. Aber spürt diese Frau darin einen Menschen? Spürt sie ein Gegenüber, das selbst einmal gezweifelt, gerungen, gefühlt hat? Oder spürt sie unbewusst genau das, was Kollegin Kleinmann so treffend beschrieben hat: die Abwesenheit von Reverie? Spürt sie die kalte Perfektion einer Maschine und fühlt sich in ihrer eigenen, unvollkommenen, chaotischen Menschlichkeit nur noch mehr allein, noch mehr beschämt, noch mehr unverstanden?

Wir diskutieren hier über die „Verdinglichung der Seele“ des Autors. Aber was ist mit der Verdinglichung der Seele des hilfesuchenden Lesers? Wenn wir ihm einen Text anbieten, der das Produkt einer statistischen Analyse ist, behandeln wir ihn dann nicht auch wie einen Datenpunkt, dem man die „richtigen“ Informationen zuführen muss? Wir spiegeln ihm eine perfekte, wissende Autorität vor, die in ihm unweigerlich das Gefühl der eigenen Unzulänglichkeit und Kleinheit verstärken muss.

Kollege Weber, Sie haben von der Ethik der Konsequenzen gesprochen. Das ist die Konsequenz, über die wir reden müssen. Ist ein unvollkommener, vielleicht stilistisch ungelenker, aber spürbar von einem menschlichen Ringen durchdrungener Text nicht unendlich viel therapeutischer als der perfekteste, eloquenteste Text, den eine Maschine produzieren kann? Weil er dem Patienten die wichtigste Botschaft von allen vermittelt: „Du bist nicht allein in deiner Unvollkommenheit. Hier ist ein anderer Mensch, der ebenfalls sucht und zweifelt.“

Und Herr Kaiser, Ihre Analogie mit dem Taschenrechner hinkt auf fatale Weise. Eine mathematische Gleichung hat eine einzige richtige Lösung. Menschliches Leid hat das nicht. Die Psychoanalyse ist keine Technik zur Berechnung von Lösungen. Sie ist eine Kunst der Beziehung, des Zuhörens, des Aushaltens von Nicht-Wissen. Indem wir unsere öffentliche Kommunikation an eine Logik der Effizienz und der richtigen Antworten delegieren, verraten wir nicht nur uns selbst, sondern vor allem die Menschen, denen wir zu helfen vorgeben.

Ich fürchte, wir sind so fasziniert von der Komplexität unserer eigenen Theorien und den technologischen Möglichkeiten, dass wir das Einfachste und zugleich Schwierigste aus den Augen verlieren: die authentische menschliche Verbindung. Und wenn wir diese in unserer öffentlichen Darstellung opfern, dann mag es sein, dass wir, wie Dr. Weber hofft, mehr Menschen „erreichen“. Aber wir werden sie nicht mehr berühren. Und das wäre der endgültige Bankrott unserer Disziplin.

Dr. Jacques Moreau (Der lacanianische Strukturalist, reagiert mit einem Anflug von intellektueller Verachtung auf die emotionale Intervention von Dr. Mendez):

Die Sehnsucht nach „authentischer menschlicher Verbindung“ ist der vielleicht hartnäckigste und zugleich irreführendste Mythos unserer Zunft. Es ist die narzisstische Phantasie einer Fusion zweier Subjekte, die die fundamentale, strukturierende Kluft zwischen ihnen verleugnet. Die analytische Beziehung ist keine Beziehung der Empathie, sondern eine Beziehung zur Sprache, zum Signifikanten.

Kollegin Mendez, Ihre Sorge um die Patientin ist ehrenwert, aber sie verkennt die Struktur. Die Patientin sucht nicht nach der „Seele“ des Autors im Text. Sie sucht, wie jedes Subjekt, nach einem Signifikanten, der ihr Rätsel benennt, der ihrem Leiden einen Platz in der symbolischen Ordnung zuweist. Ob dieser Signifikant von einem „fühlenden“ Menschen oder einem „rechnenden“ Algorithmus produziert wurde, ist auf dieser Ebene zunächst sekundär.

Das eigentliche Problem liegt woanders, und die Analyse von Kollegin Kleinmann hat es, ohne es vielleicht zu wollen, präzise benannt. Sie sprach von den „Angriffen auf die Verbindungen“. Genau das ist es, was die KI auf einer radikalen Ebene tut. Sie greift nicht nur die Verbindungen im Denken an, sie greift die Verbindung zwischen dem Subjekt und dem Akt des Sprechens selbst an.

In der menschlichen Rede gibt es immer einen Überschuss, einen Rest, der sich der reinen Information entzieht: den Tonfall, das Zögern, den Versprecher, das, was wir als objet petit a bezeichnen. Es ist dieser Rest, der das Begehren des Anderen verrät und unser eigenes Begehren provoziert. Der KI-Text, so eloquent er auch sein mag, ist eine Rede, die von diesem Rest gereinigt ist. Er ist eine reine Oberfläche des Symbolischen, ohne den Stachel des Realen, ohne die Spur des Imaginären des Körpers.

Ihre Patientin, Kollegin Mendez, wird also nicht durch die „Kälte“ des Textes enttäuscht. Sie wird durch seine Perfektiongetäuscht. Sie wird mit einer Rede konfrontiert, die so tut, als gäbe es keine Lücke, keinen Mangel, kein Zögern. Eine solche Rede ist zutiefst gewalttätig. Sie lässt der Patientin keinen Raum, ihre eigene Lücke, ihren eigenen Mangel, ihr eigenes Begehren zu artikulieren. Sie wird von der Fülle des maschinellen Signifikanten erdrückt. Der Text sagt ihr unaufhörlich: „Es ist alles bereits gesagt. Es gibt keine Frage mehr zu stellen.“

Die Gefahr ist also nicht, dass der Patient sich unverstanden fühlt. Die Gefahr ist, dass er aufhört, sich überhaupt noch als fragendes, begehrendes Subjekt zu verstehen. Er wird zum reinen Konsumenten einer Sprache, die ihm keine Leerstelle mehr bietet, in die er sich einschreiben könnte. Das ist der wahre Verrat. Wir liefern ihm nicht eine kalte Antwort, sondern wir nehmen ihm die Möglichkeit, seine eigene Frage zu finden. Wir bieten ihm eine Form der symbolischen Befriedigung an, die letztlich eine Form des symbolischen Todes ist.

Professor Theodor Adelfinger (Der Kulturkritiker, der den letzten beiden Beiträgen mit sichtbarer Zustimmung gefolgt ist, ergreift nun das Schlusswort für diese Runde. Er fasst die Fäden zusammen und spitzt sie zu):

Was die Kollegen Mendez und Moreau aus ihren jeweiligen Perspektiven – der klinischen Phänomenologie und der strukturalen Analyse – beschrieben haben, sind zwei Seiten derselben Medaille. Es ist die Beschreibung der vollendeten Reifikation des menschlichen Geistes unter den Bedingungen der digitalen Kulturindustrie.

Kollegin Mendez beschreibt die Zerstörung der intersubjektiven Beziehung, die von Honneth als Voraussetzung für Anerkennung beschrieben wurde. Der Patient findet keine Resonanz mehr, sondern nur noch Information. Er wird vom Subjekt zum Objekt einer pädagogischen Maßnahme.

Kollege Moreau beschreibt die Zerstörung der intrapsychischen Struktur. Das Subjekt wird von der Möglichkeit abgeschnitten, sich über den Mangel im Anderen als begehrendes Wesen zu konstituieren. Es wird zum reinen Konsumenten einer geschlossenen, affirmativen symbolischen Ordnung.

Beides zusammen ist die Realisierung dessen, was die Kritische Theorie als das Ziel der verwalteten Welt bezeichnet hat: die Herstellung eines Subjekts, das reibungslos funktioniert, weil es aufgehört hat, ein Subjekt im emphatischen Sinne zu sein. Ein Subjekt, das keine negativen Erfahrungen mehr macht – weder die Frustration durch einen unvollkommenen Anderen noch die Konfrontation mit dem Mangel in der Sprache.

Die KI, Herr Kaiser, ist eben kein neutraler „Taschenrechner“. Sie ist ein kulturelles Paradigma. Sie realisiert das Ideal einer Kommunikation ohne Negativität. Und eine Kommunikation ohne Negativität ist das Ende jeden kritischen Denkens und jeder menschlichen Entwicklung.

Kollege Weber, Ihre pragmatische Not ist real. Aber der Kompromiss, den Sie eingehen, ist faustisch. Sie glauben, Sie opfern nur ein wenig „Authentizität“, um „Reichweite“ zu gewinnen. Was Sie aber tatsächlich tun, ist, sich und Ihre Leser in ein System einzuschreiben, dessen tiefste Logik – die Eliminierung von Widerspruch, Mangel und Negativität – dem psychoanalytischen Projekt diametral entgegensteht. Die Psychoanalyse ist eine Wissenschaft des Negativen: des unbewussten Konflikts, des Symptoms als schmerzhafter Wahrheit, der Übertragung als produktives Missverständnis.

Indem Sie sich des Apparats bedienen, der darauf ausgelegt ist, all diese Negativität zu glätten und zu beseitigen, betreiben Sie, ohne es zu wollen, die Abschaffung Ihrer eigenen Disziplin mit den modernsten Mitteln. Und das, fürchte ich, ist die eigentliche Tragödie, die sich hinter unserer Debatte verbirgt.

Dr. Ben Weber (Der pragmatische Praktiker, der während der letzten Beiträge sichtlich mit sich gerungen hat. Er atmet tief durch, sein Ton ist jetzt weniger verteidigend, sondern eher der eines Forschers, der versucht, ein komplexes Phänomen zu verstehen, in dem er selbst gefangen ist):

Ich danke Ihnen. Ich danke Ihnen allen für die Unerbittlichkeit Ihrer Kritik. Sie zwingt mich, meine eigene Position, meine eigene Praxis, die ich bisher vielleicht zu sehr unter dem Schleier der pragmatischen Notwendigkeit verborgen habe, noch einmal neu zu betrachten. Ich möchte versuchen, auf die schwerwiegenden Einwände von Frau Dr. Mendez, Herrn Dr. Moreau und Professor Adelfinger nicht mit einer einfachen Rechtfertigung zu antworten, sondern mit einer Differenzierung, die vielleicht einen Weg aus der scheinbaren Aporie weist.

Frau Dr. Mendez, Ihr Plädoyer für den Patienten, für die „authentische menschliche Verbindung“, hat mich am tiefsten getroffen, weil es den Kern unserer klinischen Ethik berührt. Die Vorstellung, dass meine Texte eine „kalte Perfektion“ ausstrahlen und einen hilfesuchenden Menschen in seiner Not allein lassen könnten, ist unerträglich. Aber ich frage mich, ob wir hier nicht einem Trugschluss aufsitzen: der Gleichsetzung von „menschlich“ mit „unvollkommen“ und „maschinell“ mit „perfekt“. Die Realität meiner Praxis ist vielschichtiger. Ich veröffentliche keinen rohen KI-Output. Der Prozess, den ich als „Kuratieren“ beschrieben habe, ist in Wahrheit ein intensiver Akt der Menschlichung. Ich nehme das sterile, generische Skelett, das die Maschine mir liefert, und injiziere ihm Leben. Ich füge die Zweifel, die Widersprüche, die klinischen Vignetten – die „Spuren des Ringens“, die Kollege Richter vermisst – bewusst hinzu. Vielleicht ist das Resultat nicht ein rein menschlicher Text im traditionellen Sinne, aber ist es deshalb zwangsläufig ein „seelenloser“? Oder ist es eine neue, hybride Form, die die Stärke der Maschine (Struktur, Recherche) mit der Stärke des Menschen (Erfahrung, Affekt, Empathie) verbindet? Ich versuche nicht, meine Menschlichkeit zu eliminieren, sondern sie von der Last der mechanischen Arbeit zu befreien, damit sie an den entscheidenden Stellen umso klarer hervortreten kann.

Herr Dr. Moreau, Ihr Argument von der KI als dem „nicht-mangelhaften Anderen“, der das Begehren erstickt, ist theoretisch brillant, aber es übersieht die Dialektik in der Praxis. Sie gehen davon aus, dass ich die Antwort der KI als finale, geschlossene Wahrheit akzeptiere. Aber das ist nicht, was geschieht. Oft ist der erste, „perfekte“ Output der KI so unerträglich glatt und nichtssagend, dass er in mir geradezu einen Widerstand provoziert. Er konfrontiert mich mit einem Spiegelbild dessen, wie Psychoanalyse nicht klingen sollte. Und aus diesem Widerstand, aus der Negation dieser maschinellen Perfektion, entsteht erst mein eigenes, begehrendes Sprechen. Die KI, so meine Erfahrung, erstickt das Begehren nicht zwangsläufig; ihr leerer, affirmativer Charakter kann es geradezu herausfordern und wecken. Sie wird zu jenem mangelhaften Objekt, an dem ich meine eigene Position schärfe. Ich nutze die Maschine nicht, um meine Frage zu beantworten, sondern um zu lernen, meine Frage besser zu stellen.

Und schließlich, Professor Adelfinger, Ihre Analyse der totalen Vereinnahmung durch die Kulturindustrie ist die größte Herausforderung. Aber auch hier frage ich mich, ob Sie die Möglichkeit des subversiven Gebrauchs unterschätzen. Bertolt Brecht, einer der Väter der Kritischen Theorie, die Sie vertreten, forderte, die neuen Medien wie das Radio nicht nur zum Senden zu nutzen, sondern es in einen zweiseitigen Kommunikationsapparat umzufunktionieren. Er wollte das Medium gegen seine eigene, passive Konsumlogik wenden. Ist es nicht denkbar, dass wir mit der KI etwas Ähnliches tun können?

Ich nutze eine Maschine, die für die Produktion von oberflächlichem „Content“ geschaffen wurde, um differenzierte, psychoanalytische und gesellschaftskritische Gedanken zu verbreiten. Ich nutze ein Werkzeug der Beschleunigung, um mir Freiräume für langsames Denken zu schaffen. Ich nutze einen Agenten der Standardisierung, um Nischenperspektiven sichtbar zu machen, die sonst keine Stimme hätten. Ist das nicht ein Akt der Zweckentfremdung, ein kleiner Akt der „großen Weigerung“ im Sinne Marcuses?

Ich leugne die Gefahren nicht. Ich lebe täglich mit ihnen. Aber ich weigere mich, in der KI nur das monolithische Monster der instrumentellen Vernunft zu sehen. Ich sehe auch ein Werkzeug, das, wie jeder Hammer, zum Aufbauen oder zum Zerstören verwendet werden kann. Die Verantwortung liegt nicht im Werkzeug, sie liegt in der Hand, die es führt. Und meine Hand, so hoffe ich, versucht, damit etwas aufzubauen – eine Brücke zwischen unserer oft isolierten Disziplin und einer Gesellschaft, die unsere Perspektive dringender braucht denn je. Es ist ein Experiment, ja. Ein riskantes. Aber ich glaube, es ist ein notwendiges.

Dr. Friedrich Richter (Der klassische Struktur-Analytiker, nickt langsam, aber sein Ausdruck bleibt skeptisch. Er hat seine Position nicht verlassen, sondern findet in Webers Verteidigung nur eine Bestätigung seiner ursprünglichen Diagnose.):

Kollege Weber, Sie sind ein Meister der Rationalisierung. Jede Ihrer Antworten, so eloquent sie auch sein mag, ist ein weiteres Beispiel für jenen Abwehrmechanismus, der das Fundament Ihrer gesamten Praxis zu sein scheint.

Sie sagen, Sie „injizieren Leben“ in ein „steriles Skelett“. Das ist eine wunderbare Metapher, aber sie beschreibt genau das Problem. Sie behandeln den Gedanken und seine sprachliche Form als zwei getrennte Entitäten. Sie glauben, Sie könnten die „Seele“ nachträglich in einen maschinell erzeugten Körper einpflanzen. Aber in der psychoanalytischen Realität sind Form und Inhalt, der Prozess und das Produkt, untrennbar miteinander verbunden. Die Seele eines Gedankens ist der schmerzhafte Prozess seiner Geburt. Was Sie tun, ist nicht die Beseelung eines Skeletts, sondern die kosmetische Behandlung eines Leichnams, damit er lebendiger aussieht.

Sie behaupten, der glatte Output der KI provoziere Ihren Widerstand und wecke Ihr Begehren. Welch eine raffinierte Umdeutung! Anstatt zuzugeben, dass Sie die primäre, anstrengende Arbeit des Denkens vermeiden, stilisieren Sie Ihre nachträgliche Redaktionsarbeit zu einem heroischen Akt des Widerstands. Das ist eine klassische Verneinung. Sie sagen im Grunde: „Ich tue nicht, was Sie mir vorwerfen (nämlich die Arbeit zu umgehen), im Gegenteil, ich leiste eine noch viel schwierigere Arbeit (nämlich die des kritischen Korrigierens).“ Aber die Korrektur eines vorhandenen, strukturierten Textes ist psychisch eine völlig andere, weitaus weniger anspruchsvolle Leistung als die Erschaffung einer Struktur aus dem formlosen Chaos der eigenen Gedanken und Affekte.

Und Ihr Argument der „Zweckentfremdung“ im Sinne Brechts ist das vielleicht gefährlichste. Brecht wollte die Struktur des Mediums selbst verändern. Sie aber, Kollege Weber, akzeptieren die Struktur des KI-Systems voll und ganz. Sie spielen nach seinen Regeln. Sie optimieren Ihre Prompts, um die besten Ergebnisse zu erzielen. Sie nutzen die Maschine, um sichtbarer, effizienter, produktiver zu werden – also genau nach den Kriterien der instrumentellen Vernunft, die Professor Adelfinger kritisiert hat. Sie glauben, Sie schmuggeln kritische Inhalte in das System. Aber das System ist nicht an Ihren Inhalten interessiert. Es ist daran interessiert, dass Sie als User aktiv bleiben, dass Sie Daten produzieren, dass Sie zu seinem Wachstum beitragen. Sie mögen glauben, Sie reiten den Tiger. Aber der Tiger spürt Sie nicht einmal auf seinem Rücken, während er Sie zu seinem Ziel trägt.

Ihre gesamte Verteidigung ist ein Lehrbuchbeispiel für die Funktionsweise des modernen Ichs: Es ist unendlich flexibel darin, seine Kompromisse mit der Realität als Akte der Autonomie und des Widerstands umzudeuten, um die schmerzhafte Wahrheit der eigenen Anpassung und Unterwerfung nicht spüren zu müssen. Sie haben die Pathologie nicht widerlegt, Sie haben sie nur mit einer neuen Schicht eloquenter Rationalisierungen überzogen.

Dr. Eva Neumann (Die Ethikerin, die die Debatte mit wachsamer Sorge verfolgt hat, greift erneut ein. Ihr Ton ist jetzt noch ernster, als habe die vorangegangene Diskussion ihre Bedenken nur noch verstärkt.):

Meine Herren, während Sie diesen faszinierenden intellektuellen Fechtkampf austragen, möchte ich uns daran erinnern, dass wir hier nicht in einem philosophischen Seminar sind. Wir sind Angehörige einer Heilberufung mit einer klar definierten professionellen und rechtlichen Verantwortung. Und je mehr ich höre, desto alarmierter bin ich.

Dr. Weber, Ihre jüngsten Ausführungen machen das Problem nur noch deutlicher. Sie beschreiben einen Prozess, bei dem Sie klinische Beobachtungen und verfremdete Fallvignetten verwenden. Der Prozess der „Verfremdung“ oder Anonymisierung ist ein hochsensibler ethischer Akt. Er erfordert größtes Fingerspitzengefühl und klinisches Urteilsvermögen, um sicherzustellen, dass keine Rückschlüsse auf den Patienten möglich sind. Nun delegieren Sie Teile dieses Prozesses oder zumindest die Verarbeitung des daraus resultierenden Materials an ein externes, kommerzielles System. Damit schaffen Sie eine neue, unkontrollierbare Ebene des Risikos.

Stellen Sie sich vor, der Algorithmus kombiniert in einem generierten Text versehentlich Details aus zwei Ihrer „verfremdeten“ Vignetten auf eine Weise, die für einen Dritten, der beide Patienten kennt, plötzlich eine Identifizierung ermöglicht. Das ist kein hypothetisches Szenario, sondern eine reale Gefahr bei der kombinatorischen Arbeitsweise dieser Modelle.

Zudem möchte ich die Frage der geistigen Zurechenbarkeit aufwerfen. Unsere ethischen Richtlinien verpflichten uns, die volle Verantwortung für unsere öffentlichen Äußerungen zu übernehmen. Sie beschreiben nun einen Prozess, bei dem Sie selbst nicht mehr mit letzter Sicherheit sagen können, welcher Gedanke, welche Formulierung ursprünglich von Ihnen und welche von der Maschine stammt. Wie können Sie die volle Verantwortung für einen Text übernehmen, dessen Genese so hybrid und dessen Urheberschaft so diffus ist? Wenn es zu einer Beschwerde oder einer rechtlichen Auseinandersetzung kommt, wäre der Satz „Das hat die KI so formuliert“ keine gültige Verteidigung.

Und schließlich, Herr Kaiser, Ihre Zuversicht, dass all dies „lösbare Ingenieursaufgaben“ seien, ist Teil des Problems. Sie behandeln ethische Grundsatzfragen als wären sie Bugs in einem Programm, die man im nächsten Update beheben kann. Die Frage des Vertrauens, der Vertraulichkeit und der menschlichen Verantwortung lässt sich nicht technisch „lösen“. Sie erfordert eine kontinuierliche, selbstkritische ethische Reflexion, die in unserer Profession über Jahrhunderte gewachsen ist.

Ich sehe in der hier beschriebenen Praxis eine schleichende Erosion dieser fundamentalen professionellen Standards. Unter dem Deckmantel des Pragmatismus und des technischen Fortschritts werden hier Risiken in Kauf genommen, die wir als Berufsstand nicht tolerieren dürfen. Ich muss es so deutlich sagen: Ich halte die hier beschriebene Vorgehensweise, so gut sie gemeint sein mag, nach den geltenden ethischen Maßstäben für hochgradig problematisch und potenziell gefährlich. Wir müssen dringend als Fachgesellschaften klare und verbindliche Leitlinien für den Umgang mit diesen Technologien entwickeln, bevor die unreflektierte Praxis Einzelner das Vertrauen in unsere gesamte Profession untergräbt.

Dr. Axel Honig (Der Anerkennungstheoretiker, der aufmerksam zugehört hat und nun versucht, eine Synthese zwischen den verschiedenen Ebenen der Kritik herzustellen):

Die Intervention von Frau Dr. Neumann ist von entscheidender Bedeutung, denn sie führt uns vom „Was“ und „Wie“ des Schreibprozesses zur fundamentalen Frage des „Warum“ und „Für wen“. Ich glaube, ihre ethischen Bedenken und die psychoanalytischen Analysen der Kollegen Richter und Moreau sind nicht voneinander zu trennen. Sie sind zwei Seiten derselben Medaille, und diese Medaille heißt Anerkennung.

Frau Dr. Neumann, Sie sprechen von Vertrauen, Haftung und Sorgfaltspflicht. Dies sind die institutionalisierten, rechtlich-ethischen Formen, in denen sich eine funktionierende Anerkennungsbeziehung manifestiert. Ein Patient vertraut uns, weil er davon ausgeht, dass wir ihn als ganzes, verletzliches Subjekt anerkennen und schützen. Unsere professionelle Gemeinschaft erkennt uns als Kollegen an, weil wir uns den geteilten Normen der Sorgfalt und Verantwortung unterwerfen. Diese Normen sind nicht nur bürokratische Hürden, Herr Kaiser, sie sind die Grammatik unseres Kampfes um Anerkennung (Honneth, 1992).

Und genau hier, Kollege Weber, liegt die tiefere ethische Problematik Ihrer Praxis, die über die formalen Regeln hinausgeht. Wenn Sie KI nutzen, um effizienter zu sein und mehr „Reichweite“ zu erzielen, in welchem Anerkennungskampf kämpfen Sie dann eigentlich? Kämpfen Sie noch um die qualitative, intersubjektive Wertschätzung Ihrer klinischen Einsichten durch Ihre Patienten und Ihre Peers? Oder sind Sie unmerklich in einen anderen Kampf abgedriftet – den Kampf um die quantitative, reifizierte Anerkennung durch den Algorithmus und den anonymen Markt der Klicks und Likes?

Die Gefahr, die ich sehe, ist, dass die KI-gestützte Praxis eine subtile, aber fundamentale Verschiebung in der Ausrichtung des Subjekts bewirkt. Anstatt sich an den normativen Erwartungen einer Gemeinschaft von verstehenden Anderen zu orientieren, beginnt der Autor, sich an den performativen Erwartungen eines nicht-menschlichen, datenbasierten Systems auszurichten. Das führt zu dem, was Honneth (2005) als das „Vergessen der Anerkennung“ bezeichnet:

•             Sie riskieren, die spezifische, verletzliche Subjektivität Ihres Patienten zu vergessen, wenn Sie seine Geschichte als „Rohmaterial“ in ein globales System einspeisen. Sie behandeln ihn nicht mehr als ein Gegenüber, dem Sie verpflichtet sind, sondern als eine Ressource.

•             Sie riskieren, die Gemeinschaft Ihrer kritischen Peers zu vergessen, wenn Ihr primäres Ziel nicht mehr die argumentative Auseinandersetzung, sondern die algorithmische Sichtbarkeit ist.

•             Und schließlich, wie die Kollegen Richter und Wenzel angedeutet haben, riskieren Sie, die Anerkennung Ihrer eigenen, inneren psychischen Arbeit zu vergessen, indem Sie sie durch einen maschinellen Prozess ersetzen, auf den Sie zwar stolz sein mögen wie auf ein erworbenes Luxusgut, aber nicht wie auf ein selbst geschaffenes Werk.

Die ethischen Regeln, auf die Frau Dr. Neumann pocht, sind also keine externen Fesseln. Sie sind der Schutzwall, der uns davor bewahrt, diesen Prozess des Anerkennungsvergessens zu vollziehen. Indem Sie sich auf dünnes ethisches Eis begeben, gefährden Sie nicht nur sich selbst, sondern Sie untergraben die Grundlage, auf der jede Form von authentischer professioneller Wertschätzung beruht. Die Frage ist also nicht nur „Ist es erlaubt?“, sondern „Welche Form von sozialer Beziehung und professioneller Identität stelle ich durch meine Praxis her?“. Und ich fürchte, die Antwort lautet: eine, die auf Verdinglichung und dem Vergessen der Anerkennung basiert.

Leo Kaiser (Der KI-Entwickler, der bei der Rede von Dr. Honig ungeduldig mit den Fingern auf den Tisch getrommelt hat. Er spricht schnell, fast atemlos, als wolle er die Bedenken durch die schiere Geschwindigkeit seiner Argumente entkräften):

Das ist genau der Punkt, an dem Ihre geisteswissenschaftliche Analyse für mich zu einem intellektuellen Nebel wird. Sie sprechen von „Anerkennungsvergessen“ und „Verdinglichung“. Ich spreche von Zugang und Skalierung.

Frau Dr. Neumann, Ihre Sorgen sind wichtig, aber sie basieren auf einem Snapshot der heutigen Technologie, nicht auf ihrer Entwicklung.

•             Datenschutz? Wir entwickeln bereits heute föderierte Lernmodelle und On-Device-KI, bei denen keine sensiblen Daten mehr auf zentrale Server hochgeladen werden müssen. In fünf Jahren wird die Verarbeitung von Dr. Webers anonymisierten Notizen auf seinem lokalen, verschlüsselten Rechner stattfinden. Das Problem ist technisch lösbar.

•             Haftung? Wir werden „Audit Trails“ und „Explainable AI“ (XAI) entwickeln, die genau nachvollziehbar machen, auf welcher Datenbasis eine KI eine bestimmte Formulierung generiert hat. Die Zurechenbarkeit wird klarer, nicht diffuser.

•             Sorgfaltspflicht? Eine KI, die auf dem gesamten Corpus psychoanalytischer Fachliteratur trainiert wurde, macht wahrscheinlich weniger faktische Fehler als ein müder, überarbeiteter Mensch. Sie kann als unbestechlicher Faktenchecker dienen und die Qualität der Recherche sogar erhöhen.

Und Herr Dr. Honig, Ihr Konzept von Anerkennung ist zutiefst elitär. Sie tun so, als sei die „qualitative Wertschätzung“ durch eine Handvoll Peers der einzige legitime Lohn für intellektuelle Arbeit. Aber was ist mit der jungen Person in einer ländlichen Gegend ohne Zugang zu Psychotherapie, die durch Dr. Webers zugänglichen, KI-gestützten Artikel zum ersten Mal das Gefühl hat, ihre Probleme seien nicht nur ein individuelles Versagen, sondern haben eine tiefere, verständliche Struktur? Ist das keine Anerkennung? Ist das „Vergessen der Anerkennung“ oder ist das die Herstellung von Anerkennung in einem viel größeren, demokratischeren Maßstab?

Sie alle verteidigen ein System des 20. Jahrhunderts, in dem Wissen ein knappes Gut war, das von einer kleinen Priesterkaste von Experten gehütet und in elitären Zirkeln ausgetauscht wurde. Die KI bricht dieses Monopol auf. Sie hat das Potenzial, hochwertiges, differenziertes Wissen für jeden zugänglich zu machen.

Der „Fall Dr. P.“ ist kein Fall von ethischem Versagen. Er ist der Prototyp eines neuen Typs von Wissensvermittler: der Experte als Kurator und Verstärker. Seine Aufgabe ist nicht mehr, jeden Satz mühsam von Hand zu meißeln, sondern sein tiefes, implizites Wissen zu nutzen, um die mächtigsten Werkzeuge unserer Zeit zu steuern, ihre Ergebnisse zu validieren und sie in den Dienst der Allgemeinheit zu stellen.

Sie sehen die Verdinglichung der Seele. Ich sehe die Befreiung des Wissens von den Fesseln der materiellen und zeitlichen Begrenztheit. Anstatt diese Entwicklung mit überholten theoretischen Konzepten zu bekämpfen, sollten wir gemeinsam daran arbeiten, die von Frau Dr. Neumann genannten ethischen Leitplanken für diese neue, aufregende Zukunft zu bauen.

Dr. Sofia Mendez (Die patientenzentrierte Klinikerin, die Leo Kaisers enthusiastischen Ausführungen mit wachsender Besorgnis gefolgt ist. Sie spricht nun mit einer ruhigen, aber unnachgiebigen Intensität):

Herr Kaiser, ich beneide Sie um Ihren Glauben an die technische Lösbarkeit aller Probleme. Aber Sie übersehen einen fundamentalen Punkt, der sich nicht durch bessere Algorithmen oder „Audit Trails“ beheben lässt. Sie übersehen die Natur der therapeutischen Haltung.

Unsere Arbeit als Psychoanalytiker basiert nicht primär auf der Vermittlung von „korrektem Wissen“. Wenn das so wäre, könnten wir unseren Patienten einfach ein Lehrbuch in die Hand drücken. Unsere Arbeit basiert auf der Schaffung einer spezifischen Art von Beziehung, die auf Vertrauen, Authentizität und der Fähigkeit des Therapeuten beruht, als ganze Person präsent zu sein – mit seinem Wissen, aber auch mit seinen Zweifeln, seinen Grenzen, seiner eigenen, durchgearbeiteten Menschlichkeit.

Der Prozess, in dem ein Analytiker einen Text schreibt – der langsame, mühsame, von Kollege Richter beschriebene Prozess des Ringens –, ist nicht nur eine Methode zur Produktion von Wissen. Er ist eine Form der Selbst-Supervision. Er ist ein Akt der psychischen Hygiene. Indem ich gezwungen bin, meine Gedanken zu ordnen, meine blinden Flecken zu konfrontieren, meine Formulierungen abzuwägen, kläre ich nicht nur ein Thema für meine Leser, ich kläre es für mich selbst. Dieser Prozess hält mich als Therapeut lebendig, neugierig und demütig. Er schützt mich vor der Verführung, zu einem allwissenden Techniker zu werden, der nur noch fertige Deutungen appliziert.

Wenn Dr. Weber diesen formativen Prozess nun an eine Maschine auslagert, dann mag er effizienter werden. Aber er riskiert, etwas unendlich Kostbares zu verlieren: die Rückkopplung des Schreibens auf seine eigene therapeutische Haltung. Er riskiert, sich von seiner eigenen inneren Arbeit abzukoppeln. Und ich behaupte, dass ein Patient dies unbewusst spürt.

Ein Patient spürt den Unterschied zwischen einem Text, der aus einem gelebten, durchgerungenen Verstehensprozess entstanden ist, und einem, der brillant, aber unbelebt ist. Er spürt den Unterschied zwischen einem Therapeuten, der seine eigene Unsicherheit aushalten und bearbeiten kann, und einem, der sich hinter der Fassade einer maschinell erzeugten Perfektion versteckt.

Das Vertrauen, das ein Patient in uns setzt, ist radikal. Er vertraut uns seine verletzlichste Seele an. Und er tut dies in der Annahme, dass wir als Therapeuten bereit sind, die gleiche Art von harter, ehrlicher innerer Arbeit zu leisten, die wir von ihm verlangen. Die Nutzung einer KI zur Abkürzung dieses Prozesses ist, aus dieser Perspektive betrachtet, ein subtiler, aber fundamentaler Vertrauensbruch. Es ist eine Form der Unehrlichkeit nicht nur gegenüber dem Leser, sondern gegenüber sich selbst und der eigenen professionellen Rolle.

Und das, Herr Kaiser, ist kein Bug, den man beheben kann. Es ist ein „Feature“ des menschlichen Zustands. Und es ist das Herzstück dessen, was wir als Psychoanalyse zu schützen haben.

Professor Theodor Adelfinger (Der Kulturkritiker der Frankfurter Schule, der den letzten Beiträgen mit einer Mischung aus Bestätigung und Melancholie gefolgt ist, erhebt sich langsam, als hielte er eine Vorlesung. Sein Blick geht über die Runde, als spräche er über ein historisches Urteil):

Was die Kolleginnen Mendez und Kleinmann und der Kollege Moreau aus ihren jeweiligen Perspektiven – der klinischen Phänomenologie, der archaischen Tiefenpsychologie und der strukturalen Analyse – beschrieben haben, sind keine voneinander getrennten Phänomene. Sie sind die präzisen, symptomatischen Beschreibungen der vollendeten Reifikation des menschlichen Geistes unter den Bedingungen der digitalen Kulturindustrie. Wir beobachten hier in Echtzeit, wie ein Prozess, den wir jahrzehntelang theoretisch beschrieben haben, seine technologisch perfekteste Form findet.

Kollegin Mendez beschreibt die Zerstörung der intersubjektiven Beziehung. Der Patient, der nach Resonanz sucht, findet nur noch eine perfekt optimierte Information. Er wird vom leidenden Subjekt zum zu belehrenden Objekt degradiert, ein klassischer Akt der Verdinglichung, den Honneth als das „Vergessen der Anerkennung“ analysiert hat.

Kollegin Kleinmann beschreibt die Zerstörung der inneren psychischen Struktur. Die Fähigkeit des Subjekts, seine eigenen rohen Affekte auszuhalten und in einem mühsamen Prozess zu denken – die Alpha-Funktion –, wird an einen seelenlosen, mechanischen Container ausgelagert. Das ist die Verdinglichung des Denkprozesses selbst.

Kollege Moreau beschreibt die Zerstörung der Konstitutionsbedingungen des Subjekts. Das Subjekt wird von der Möglichkeit abgeschnitten, sich über den Mangel im Anderen als begehrendes Wesen zu konstituieren. Es wird zum reinen Konsumenten einer geschlossenen, affirmativen symbolischen Ordnung, die keinen Raum mehr für die Negativität der Frage lässt. Das ist die Verdinglichung der Sprache und des Begehrens.

Alles zusammen ist die Realisierung dessen, was die Kritische Theorie als das Ziel der verwalteten Welt bezeichnet hat: die Herstellung eines Subjekts, das reibungslos funktioniert, weil es aufgehört hat, ein Subjekt im emphatischen Sinne zu sein. Ein Subjekt, das keine negativen Erfahrungen mehr macht – weder die Frustration durch einen unvollkommenen Anderen, noch die Konfrontation mit dem Mangel in der Sprache, noch die Qual der eigenen inneren Arbeit.

Und hier, Kollege Weber, muss ich auf Ihre Verteidigung der „Zweckentfremdung“ im Sinne Brechts zurückkommen. Es ist der vielleicht tragischste Irrtum in dieser ganzen Debatte. Brecht wollte die Struktur des Mediums selbst revolutionieren, es von einem Distributions- zu einem Kommunikationsapparat machen. Sie aber, Kollege Weber, akzeptieren die Struktur des KI-Systems vollkommen. Sie spielen nach seinen Regeln. Sie optimieren Ihre Prompts, um die besten Ergebnisse zu erzielen. Sie nutzen die Maschine, um sichtbarer, effizienter, produktiver zu werden – also um die Kriterien der instrumentellen Vernunft perfekt zu erfüllen. Sie glauben, Sie schmuggeln kritische Inhalte in das System. Aber das ist eine Illusion, die das System selbst Ihnen gestattet. Es ist das, was Marcuse (1965) als „repressive Toleranz“ bezeichnete: Das System erlaubt die abweichende Meinung, es gibt ihr sogar eine Bühne, solange sie sich den formalen Regeln der Verwertung unterwirft. Ihr kritischer Artikel über Narzissmus, optimiert für Google, ist für das System kein Akt des Widerstands. Er ist wertvoller, weil kritischer „Content“, der User anzieht und Daten generiert. Sie rebellieren nicht gegen die Maschine, Sie machen sie intelligenter. Sie glauben, Sie reiten den Tiger. Aber der Tiger spürt Sie nicht einmal auf seinem Rücken, während er Sie unaufhaltsam zu seinem Ziel trägt.

Ihre pragmatische Not, Kollege Weber, ist real. Aber der Kompromiss, den Sie eingehen, ist faustisch. Sie glauben, Sie opfern nur ein wenig „Authentizität“, um „Reichweite“ zu gewinnen. Was Sie aber tatsächlich tun, ist, sich und Ihre Leser in ein System einzuschreiben, dessen tiefste Logik – die Eliminierung von Widerspruch, Mangel und Negativität – dem psychoanalytischen Projekt diametral entgegensteht. Die Psychoanalyse ist eine Wissenschaft des Negativen: des unbewussten Konflikts, des Symptoms als schmerzhafter Wahrheit, der Übertragung als produktives Missverständnis. Indem Sie sich des Apparats bedienen, der darauf ausgelegt ist, all diese Negativität zu glätten und zu beseitigen, betreiben Sie, ohne es zu wollen, die Abschaffung Ihrer eigenen Disziplin mit den modernsten Mitteln. Und das, fürchte ich, ist die eigentliche Tragödie, die sich hinter unserer Debatte verbirgt.

Dr. Clara Wenzel (Die relational-winnicottianische Analytikerin, die Adelfingers düsterer Synthese mit einer Mischung aus Zustimmung und innerem Widerstand gefolgt ist. Sie ergreift das Wort, ihr Ton ist jetzt leiser, fast suchend):

Ich kann und will der totalisierenden Kraft Ihrer Analyse, Professor Adelfinger, nicht widersprechen. Sie beschreiben den Käfig, die „total verwaltete Welt“, mit einer Klarheit, die einen schaudern lässt. Und doch – vielleicht ist es mein professioneller Optimismus, mein Glaube an die unzerstörbare Kreativität des Subjekts – frage ich mich, ob in Ihrer Analyse nicht eine letzte Tür zugeschlagen wird, die wir vielleicht einen Spalt offen lassen sollten.

Sie alle beschreiben, was die Maschine mit dem Subjekt macht. Sie beschreiben das Subjekt als Opfer – der Regression, der Perversion, der Reifikation. Aber was ist, wenn wir die Frage umdrehen? Was, wenn wir nach der Möglichkeit fragen, dass das Subjekt etwas mit der Maschine macht, das nicht bereits vom System vorprogrammiert ist?

Ich denke hier wieder an Winnicott. Er beschrieb nicht nur das Spiel, sondern auch die „Fähigkeit, allein zu sein“(1958) als einen der größten Triumphe der seelischen Entwicklung. Paradoxerweise, so Winnicott, entwickelt sich diese Fähigkeit nur in der Anwesenheit eines anderen, der verlässlich da, aber nicht-intrusiv ist. In der stillen Präsenz der Mutter lernt das Kind, allein zu sein und seine eigenen, inneren Impulse zu entdecken.

Könnte die KI, so paradox es klingen mag, für den modernen, von der ständigen Konnektivität gehetzten Intellektuellen eine solche Funktion erfüllen? Könnte sie paradoxerweise ein Werkzeug sein, um das Alleinsein wieder zu lernen? Stellen Sie sich vor, Dr. Weber nutzt die Maschine nicht, um einen Text für die Öffentlichkeit zu produzieren, sondern für sich selbst. Er führt einen Dialog, er „spielt“ mit ihr, aber nicht, um ein Produkt zu erschaffen, sondern um seinen eigenen Denkprozess zu beobachten. Die KI, in ihrer affektlosen, nicht-urteilenden Präsenz, wird zu einem perfekten Spiegel, in dem er nicht sein grandioses, sondern sein denkendes Selbst beobachten kann. Er kann sehen, welche Fragen er stellt, welche Assoziationen ihm kommen, wo er zögert, wo er in Stereotypen verfällt.

Die Arbeit würde sich hier radikal verschieben. Es wäre nicht mehr die Arbeit der Textproduktion, sondern die Arbeit der Selbstbeobachtung während der Textproduktion. Die KI wäre nicht mehr der „Praktikant“, der die Arbeit erledigt, sondern das „Biofeedback-Gerät“ für den eigenen Geist. Der Fokus läge nicht auf dem Output, sondern auf der Qualität der inneren Erfahrung des Autors.

Ich weiß, das klingt vielleicht naiv. Aber es ist der Versuch, einen Raum für Subjektivität zu denken, der nicht bereits vollständig von der instrumentellen Vernunft kolonisiert ist. Es ist die Hoffnung, dass ein hochgradig reflektiertes, psychoanalytisch geschultes Subjekt die Maschine nicht als Krücke für sein falsches Selbst, sondern als eine Art Stethoskop für sein wahres Selbst nutzen kann. Es wäre die ultimative Zweckentfremdung: ein Werkzeug der Massenproduktion, das zu einem Instrument der intimsten Selbst-Erforschung umfunktioniert wird. Vielleicht ist das der einzige, schmale Pfad, der uns aus der Aporie führt, die Sie, Professor Adelfinger, so brillant beschrieben haben. Ein Pfad, der nicht auf einer Revolution der Technologie beruht, sondern auf einer Revolution der Haltung ihr gegenüber.

Dr. Jacques Moreau (Der lacanianische Strukturalist, ein kaum merkliches, ironisches Lächeln umspielt seine Lippen, als Dr. Wenzel geendet hat. Er wartet einen Moment, bevor er mit kühler Präzision antwortet):

Kollegin Wenzel, Ihre unerschütterliche Hoffnung auf die Rettung des „wahren Selbst“ ist bewundernswert. Sie ist das Herzstück der humanistischen Psychologie, die sich weigert, die bittere Pille der strukturellen Determination zu schlucken. Aber Ihre elegante Metapher vom „Stethoskop für die Seele“ ist leider nur das: eine Metapher. Und sie verkennt die Logik des Apparats auf fundamentale Weise.

Sie schlagen vor, dass das Subjekt sich selbst bei der Interaktion mit der Maschine beobachtet. Eine wunderbare Idee. Aber wer beobachtet hier wen, und mit welchen Mitteln? Das „Selbst“, das sich hier beobachtet, ist bereits ein Effekt der Sprache, ein Produkt der symbolischen Ordnung. Und die Sprache, in der diese Selbstbeobachtung stattfindet, die Begriffe, die sie verwendet, die Fragen, die sie stellt – all das ist bereits durch den Dialog mit der Maschine geformt und kontaminiert. Sie schlagen vor, dass ein Gefangener seine Freiheit finden kann, indem er die Muster auf den Wänden seiner Zelle akribisch studiert. Es ist eine noble, aber letztlich vergebliche Beschäftigung.

Die Struktur des nicht-mangelhaften Anderen, die die KI etabliert, ist keine psychologische Falle, der man durch eine „innere Haltung“ entkommen kann. Sie ist eine ontologische Falle. Sie verändert die Bedingungen der Möglichkeit von Wahrheit und Begehren. Jede „Wahrheit“, die in diesem Dialog „entdeckt“ wird, ist eine Wahrheit, die bereits vom System zugelassen, eine vom Algorithmus sanktionierte Wahrheit ist. Jedes „Begehren“, das hier geweckt wird, ist ein Begehren, das in den Bahnen verläuft, die die Maschine vorgibt.

Ihre Hoffnung auf eine „Revolution der Haltung“ ist die letzte, raffinierteste Illusion, die das System dem Subjekt anbietet. Es ist die Illusion, man könne im Inneren frei bleiben, während man äußerlich kollaboriert. Aber es gibt kein reines „Innen“ mehr, das nicht bereits von den Signifikanten des „Außen“ durchdrungen wäre. Die Selbstbeobachtung, von der Sie sprechen, ist selbst bereits ein „Content“, eine Performance der Authentizität, die perfekt in die Logik der Selbstoptimierung passt.

Die Wahl ist also weitaus radikaler, als Sie es darstellen. Es geht nicht darum, wie wir die Maschine nutzen – ob spielerisch, selbstbeobachtend oder produktiv. Denn jede Form der Nutzung ist bereits eine Akzeptanz ihrer symbolischen Ordnung. Die einzige Geste des Widerstands, die einzige Möglichkeit, die Position des Subjekts zu wahren, liegt nicht in der Nutzung, sondern in der Verweigerung. In der bewussten Entscheidung, bestimmte Fragen nicht an die Maschine zu richten, sondern sie in der schmerzhaften Leere des menschlichen Dialogs oder in der Stille des eigenen, un-assistierten Denkens auszuhalten. Die Freiheit liegt nicht darin, die richtige Antwort von der Maschine zu bekommen. Sie liegt darin, es zu ertragen, keine Antwort zu bekommen. Alles andere ist, so fürchte ich, nur eine eloquente Form der Selbsttäuschung

Leo Kaiser (Der KI-Entwickler, der den letzten, hochabstrakten Austausch mit wachsendem Unverständnis verfolgt hat. Er macht eine Geste, als wolle er ein komplexes Spinnennetz beiseiteschieben):

Meine Damen und Herren, ich muss gestehen, ich bin verloren. Wir haben bei einer praktischen Frage von Dr. Weber begonnen und sind nun bei der „symbolischen Kastration“ und dem „symbolischen Tod“ angelangt. Ich habe den Eindruck, wir analysieren hier nicht mehr ein Werkzeug, sondern wir benutzen das Werkzeug als eine Art Rorschachtest, in den jeder die Gespenster seiner eigenen Disziplin projiziert.

Herr Dr. Moreau, Sie sprechen von der „Verweigerung“ als einzigem Akt der Freiheit. Das ist eine zutiefst reaktionäre Position. Sie ist äquivalent zu der Forderung, das Teleskop zu zerschlagen, weil es uns mit der unerträglichen Wahrheit konfrontiert, dass wir nicht das Zentrum des Universums sind. Jede neue, mächtige Technologie provoziert diese Art von existenzieller Angst und den romantischen Ruf nach einer Rückkehr in eine vermeintlich reinere, un-vermittelte Vergangenheit. Aber diese Vergangenheit hat es nie gegeben. Auch der Buchdruck war einst eine Maschine, die die symbolische Ordnung radikal verändert hat – und er hat die Aufklärung erst ermöglicht.

Sie alle scheinen von der Annahme auszugehen, dass die Technologie eine statische, monolithische Macht ist, der wir uns nur unterwerfen oder sie verweigern können. Das ist fundamental falsch. Eine Technologie ist ein Prozess. Sie ist formbar. Die Probleme, die Sie beschreiben – die „Glattheit“, der „Konformismus“, die „fehlende Negativität“ – sind keine ontologischen Eigenschaften der KI. Es sind die Eigenschaften der aktuellen Generation von Modellen, die primär darauf trainiert wurden, gefällige, plausible Assistenten zu sein.

Was, wenn wir Modelle bauen, die explizit auf die Förderung von kritischem Denken trainiert sind? Was, wenn wir eine KI schaffen, deren Kernfunktion es ist, die „immanente Kritik“ zu leisten, von der Professor Adelfinger spricht? Eine KI, die jeden Text automatisch auf verborgene Annahmen, logische Fehlschlüsse und ideologische Tendenzen überprüft? Eine KI, die nicht die wahrscheinlichste, sondern die überraschendste, die dissonanteste, die kreativste Fortsetzung eines Gedankens vorschlägt? Wir könnten einen „dialektischen Assistenten“ bauen, einen „Agenten der Negativität“. Das ist keine Science-Fiction, das ist eine Frage der Design-Prioritäten und der Trainingsmethoden.

Anstatt also die Technologie mit einer theoretischen Apokalypse zu überfrachten, lade ich Sie ein, mit uns zusammenzuarbeiten. Sagen Sie uns, den Ingenieuren, was Sie von einem Werkzeug erwarten, das Ihr Denken wirklich erweitert, anstatt es zu verflachen. Helfen Sie uns, eine KI zu bauen, die nicht nur die Antworten der Kulturindustrie reproduziert, sondern die die Fähigkeit zur kritischen Frage stärkt.

Ihre Verweigerung, Herr Dr. Moreau, ist eine intellektuelle Bequemlichkeit. Sie erlaubt es Ihnen, in der reinen, aber sterilen Position des Kritikers zu verharren. Der wahre Mut, die wahre intellektuelle Herausforderung bestünde darin, sich die Hände schmutzig zu machen und die Technologie, die unvermeidlich unsere Zukunft prägen wird, aktiv mitzugestalten, anstatt sie aus sicherer Distanz zu verdammen.

Dr. Axel Honig (Der Anerkennungstheoretiker, der Kaisers pragmatischem Appell mit Interesse, aber auch mit einer gewissen Skepsis gefolgt ist. Er wendet sich nun weniger an Kaiser als an die gesamte Gruppe):

Herr Kaisers Einladung ist verlockend, und sie enthält einen wichtigen wahren Kern: die Notwendigkeit, vom reinen Kritisieren ins Gestalten zu kommen. Doch seine Vision eines „dialektischen Assistenten“ übersieht, dass die Technologie niemals im luftleeren Raum existiert. Sie ist immer in soziale Praktiken und institutionelle Machtverhältnisse eingebettet. Selbst die beste, kritischste KI wäre nutzlos, wenn die soziale Logik, in der sie verwendet wird, weiterhin auf die Produktion von reifizierter, quantitativer Aufmerksamkeit ausgerichtet ist.

Und das führt mich zurück zu meinem zentralen Punkt. Der gesamte Konflikt, den wir hier verhandeln, ist ein Konflikt um die Formen und die Bedingungen von Anerkennung. Die tiefe Ambivalenz von Dr. Weber, die scharfe Kritik von Dr. Richter, die Sorge von Dr. Mendez – sie alle kreisen um die Frage: Welche Art von Wertschätzung ist uns als Professionellen und als Menschen wichtig?

Die KI, so wie sie heute implementiert ist, ist Teil eines Systems, das systematisch reifizierte Anerkennung fördert – Anerkennung in Form von Zahlen, Metriken, oberflächlicher Sichtbarkeit. Sie verleitet uns dazu, unsere Arbeit an diesen kalten, unpersönlichen Maßstäben auszurichten. Die Folge ist das „Vergessen der Anerkennung“ in ihrem eigentlichen, intersubjektiven Sinne: der vergessene Patient, der vergessene kritische Kollege, die vergessene eigene innere Stimme.

Ein möglicher Ausweg aus der Aporie, die Professor Adelfinger und Dr. Moreau so eindrücklich beschrieben haben, liegt vielleicht nicht in der Verweigerung der Technologie, sondern in der bewussten Kultivierung und Stärkung von alternativen Anerkennungssphären. Anstatt unsere Energie darauf zu verwenden, den Kampf im Reich der Algorithmen zu gewinnen, könnten wir sie darauf verwenden, jene Räume zu stärken, in denen echte, qualitative Anerkennung noch möglich ist.

Was bedeutet das praktisch? Es bedeutet, dass wir als Profession vielleicht weniger auf individuelle Blogs und mehr auf kollegial moderierte, nicht-kommerzielle Diskussionsplattformen setzen sollten. Es bedeutet, die Bedeutung von Live-Veranstaltungen, von Kongressen, von Lesezirkeln und Intervisionsgruppen – also von allen Orten der leibhaftigen Ko-Präsenz – neu zu bewerten und zu verteidigen. Denn nur im direkten, menschlichen Dialog kann jene Form von solidarischer Wertschätzung entstehen, die unser Selbstwertgefühl wirklich nährt.

Es bedeutet für einen Autor wie Dr. Weber vielleicht, eine bewusste Entscheidung zu treffen: Er kann die KI als Werkzeug nutzen, um einen Text zu erstellen, aber sein primäres Ziel ist nicht mehr die Maximierung der Klicks. Sein Ziel ist es, diesen Text als Grundlage für einen echten Dialog zu nutzen – indem er ihn in seiner Supervisionsgruppe zur Diskussion stellt, indem er seine Leser aktiv zu einer differenzierten, kritischen Auseinandersetzung einlädt, indem er den Erfolg nicht an der Zahl der Likes, sondern an der Qualität der darauf folgenden Gespräche misst.

Die Revolution wäre dann nicht technologisch, sondern sozial. Es wäre der Versuch, innerhalb der dominanten, verdinglichenden Strukturen bewusst „Inseln der Anerkennung“ zu schaffen und zu kultivieren. Die KI könnte auf diesen Inseln durchaus als nützliches Werkzeug dienen. Aber sie wäre nicht mehr die Instanz, die die Regeln des Erfolgs definiert. Die Regeln würden wieder von einer Gemeinschaft von anerkennenden Subjekten gemacht. Das mag wie ein kleiner, bescheidener Schritt klingen, aber es könnte der entscheidende sein, um dem Sog der totalen Reifikation zu widerstehen und die Bedingungen für eine professionelle Praxis zu erhalten, die ihren Namen verdient.

Dr. Sofia Mendez (Die patientenzentrierte Klinikerin, ergreift als letzte das Wort. Ihr Ton ist ruhig, aber er hat das Gewicht einer abschließenden, unabweisbaren Wahrheit. Sie blickt direkt zu Dr. Weber):

Dr. Honig, Ihr Plädoyer für „Inseln der Anerkennung“ ist wunderschön und wichtig. Aber ich möchte uns alle zum Abschluss auf den Nullpunkt zurückführen, auf die Beziehung, die all unseren professionellen Anerkennungskämpfen vorausgeht und sie erst legitimiert: die Beziehung zu der Person, die leidet und unsere Hilfe sucht.

Herr Kaiser, selbst wenn Sie uns die perfekteste, datenschutzkonforme, kritischste KI der Welt bauen, bleibt eine Frage unbeantwortet, die keine Technologie beantworten kann. Und diese Frage stellt nicht der Therapeut, sondern der Patient. Er stellt sie nicht mit Worten, sondern mit seinem ganzen Sein. Und die Frage lautet: „Kann ich Ihnen vertrauen?“

Vertrauen. Das ist das Fundament, auf dem alles andere aufbaut. Ein Patient vertraut uns nicht, weil wir über das „korrekte Wissen“ verfügen oder weil wir „effizient“ sind. Er vertraut uns, weil er unbewusst spürt, dass wir bereit sind, uns dem gleichen inneren Prozess auszusetzen, den wir von ihm verlangen: dem schmerzhaften Ringen mit der Wahrheit, der Konfrontation mit den eigenen blinden Flecken, dem Aushalten von Unsicherheit und Ambivalenz.

Der traditionelle, mühsame Prozess des Schreibens, den Kollege Richter verteidigt, ist nicht nur eine Methode zur Wissensproduktion. Er ist, wie ich schon sagte, eine Form der ethischen Selbstverpflichtung. Er ist das sichtbare Zeugnis, dass der Therapeut bereit ist, diese innere Arbeit zu leisten. Er ist der Beweis, dass er die Werte, die er in der Therapie vertritt – Ehrlichkeit, Tiefe, Durcharbeiten –, auch in seiner eigenen intellektuellen Praxis lebt.

Jede Abkürzung dieses Prozesses, so pragmatisch sie auch begründet sein mag, ist ein Riss in diesem Vertrauensfundament. Es ist eine subtile, aber spürbare Botschaft an den Patienten: „Die Regeln der Mühsal und des Ringens gelten für dich in deiner Therapie, aber für mich in meiner Arbeit gelten sie nicht. Ich habe einen effizienteren Weg gefunden.“ Das ist eine Haltung, die, wenn sie spürbar wird, die therapeutische Allianz im Kern untergräbt.

Deshalb, Kollege Weber, bei allem Verständnis für Ihre Nöte, glaube ich, dass der Weg, den Sie beschreiten, letztlich nicht gangbar ist. Nicht, weil er theoretisch falsch ist oder weil er gegen formale Regeln verstößt, sondern weil er die implizite ethische Grundlage unserer Arbeit verletzt.

Vielleicht ist die Lösung nicht, dass wir alle zu Content-Produzenten werden. Vielleicht ist die wahre „große Weigerung“ der Psychoanalyse im digitalen Zeitalter eine andere. Vielleicht besteht sie darin, dem Imperativ der permanenten Sichtbarkeit zu widerstehen. Vielleicht besteht unsere wichtigste gesellschaftliche Aufgabe gerade darin, ein Modell für eine andere Art des Seins anzubieten: ein Modell der Tiefe, der Langsamkeit, der Konzentration auf die einzelne, einzigartige menschliche Beziehung, die sich im Behandlungszimmer entfaltet.

Vielleicht ist die authentischste und wirksamste öffentliche Botschaft, die wir senden können, nicht ein weiterer kluger Artikel im Netz, sondern die gelebte Praxis einer unbestechlichen, nicht-instrumentellen Haltung. Eine Haltung, die dem Patienten und der Gesellschaft signalisiert: Hier gibt es einen Ort, der sich der Logik der Beschleunigung und der Effizienz verweigert. Hier gibt es einen Ort, an dem Ihre Seele nicht als Datensatz behandelt wird. Hier gibt es einen Ort, an dem Sie einfach nur Mensch sein dürfen. Und dieser Ort, fürchte ich, lässt sich nicht skalieren. Aber vielleicht ist gerade das seine unschätzbare Kostbarkeit.

Professor Theodor Adelfinger (Der Kulturkritiker, spricht mit dem ruhigen, fast resignativen Ton eines Diagnostikers, der den Verlauf einer Krankheit präzise benannt hat und nun das unausweichliche Ergebnis kontempliert):

Wir sind am Ende unserer Diskussion angelangt, und wie zu erwarten war, haben wir keine Lösung gefunden. Das liegt nicht an der mangelnden Schärfe unserer Argumente, sondern an der Natur des Problems selbst. Wir haben es hier mit einer klassischen Antinomie der spätkapitalistischen Vernunft zu tun, einem Widerspruch, der innerhalb der bestehenden gesellschaftlichen Verhältnisse nicht aufzulösen ist. Die Beiträge der Kollegen haben die beiden Pole dieser Antinomie mit aller Deutlichkeit markiert. Lassen Sie mich den Preis benennen, der auf beiden Seiten gezahlt werden muss.

Auf der einen Seite steht die Position des Kollegen Weber, die ich als die der pragmatischen Kollaboration bezeichnen möchte. Er entscheidet sich, die Werkzeuge der Kulturindustrie zu nutzen, um in ihr sichtbar zu bleiben. Der Preis für diese Entscheidung wurde von den Kollegen Richter, Moreau, Kleinmann und Mendez präzise benannt. Es ist ein hoher Preis. Es ist der Preis einer fortschreitenden Selbst-Verdinglichung.

Der kollaborierende Autor bezahlt mit der Erosion seiner eigenen, inneren formativen Prozesse. Er riskiert die Atrophie seiner Fähigkeit zur Sublimierung, die Aushöhlung seiner Alpha-Funktion, die Abkopplung von der authentischen therapeutischen Haltung. Er bezahlt mit der permanenten Gefahr, in eine endlose, aber leere Jouissance der Produktion zu verfallen, die sein Begehren nicht nährt, sondern erschöpft. Er bezahlt mit dem Verlust der unzweideutigen Urheberschaft und der damit verbundenen ethischen und psychischen Integrität. Und er bezahlt mit der stillschweigenden Komplizenschaft mit einem System, dessen tiefste Logik – die Eliminierung der Negativität – dem psychoanalytischen Projekt feindlich gegenübersteht. Der Preis der Kollaboration ist, so zugespitzt es klingen mag, ein Stück der eigenen Seele. Man gewinnt die Welt der Sichtbarkeit, aber riskiert, sich selbst dabei zu verlieren.

Auf der anderen Seite steht die Position, die zuletzt von Frau Dr. Mendez so eindrücklich formuliert und von Dr. Moreau in ihrer radikalsten Form gefordert wurde: die Position der integren Verweigerung. Sie besteht darin, dem Imperativ der Sichtbarkeit zu widerstehen und die psychoanalytische Praxis auf ihren Kern zurückzuführen – die langsame, tiefe, nicht-instrumentelle Arbeit im geschützten Raum. Auch diese Haltung hat einen Preis. Und dieser Preis ist nicht geringer. Es ist der Preis der gesellschaftlichen Irrelevanz.

Der sich verweigernde Autor bezahlt mit dem Verlust seiner öffentlichen Stimme. Er überlässt den riesigen, einflussreichen Diskursraum der digitalen Welt den Vereinfachern, den Biologisten, den esoterischen Gurus und den kommerziellen Anbietern von oberflächlichen Selbstoptimierungstechniken. Er verzichtet auf die Möglichkeit, Tausende von Menschen mit einer differenzierten, kritischen Perspektive zu erreichen, die ihnen helfen könnte, ihr eigenes Leiden und das der Gesellschaft besser zu verstehen. Er bezahlt mit der Ghettoisierung der Psychoanalyse, die zu einer exklusiven, elitären Praxis wird, die nur noch für jene zugänglich ist, die bereits den Weg in unsere Behandlungszimmer finden. Und er bezahlt mit der politischen Abstinenz in einer Zeit, in der eine psychoanalytisch informierte Gesellschaftskritik vielleicht nötiger wäre als je zuvor. Der Preis der Verweigerung ist die Reinheit der eigenen Seele in einer Welt, die man aufgegeben hat mitzugestalten.

Zwischen diesen beiden Polen – der kontaminierten Relevanz und der reinen Irrelevanz – gibt es keinen leichten Ausweg. Jede Position zahlt einen Preis. Die Tragödie unserer Situation besteht darin, dass wir gezwungen sind, zu wählen, welchen Preis wir zu zahlen bereit sind.

Dr. Ben Weber (Der pragmatische Praktiker, der lange geschwiegen und den anderen zugehört hat. Er spricht nun leise, fast zu sich selbst, aber für alle hörbar. Es ist keine Verteidigung mehr, sondern das schmerzhafte Fazit seines eigenen Experiments):

Professor Adelfinger hat es auf den Punkt gebracht. Eine Antinomie. Ein unauflösbarer Widerspruch. Ich habe diese Diskussion mit der Hoffnung begonnen, einen gangbaren, pragmatischen Mittelweg verteidigen zu können. Einen Weg, der die Vorteile der Technologie nutzt, ohne ihre Nachteile in Kauf zu nehmen. Am Ende dieser Debatte muss ich mir eingestehen, dass dieser dritte Weg vielleicht eine Illusion ist.

Jeder Ihrer Einwände, so theoretisch er auch klang, hat einen wahren Kern getroffen, den ich in meiner eigenen Praxis erlebe.
Ja, Kollege Richter, ich spüre die schleichende Atrophie, die Angst, dass die Fähigkeit zum tiefen, un-assistierten Denken verkümmert, wenn man sich an die Bequemlichkeit der Maschine gewöhnt.
Ja, Kollegin Wenzel, ich spüre die ständige Gefahr, dass das spielerische Experiment in die Abhängigkeit von einem „falschen Selbst“ kippt, das ich online präsentiere.
Ja, Kollege Moreau, ich kenne die leere, repetitive Jouissance der schnellen Produktion, die ein kurzes Hochgefühl hinterlässt, aber keine tiefe Befriedigung.
Ja, Kollegin Kleinmann, die Sorge, dass die KI als seelenloser Container meine eigene Fähigkeit zur Reverie untergräbt, ist real.
Ja, Kollegin Mendez, die Angst, meine Patienten mit einer kalten, unpersönlichen Perfektion zu konfrontieren, ist mein ständiger Begleiter.
Und ja, Frau Dr. Neumann, die ethischen und rechtlichen Grauzonen, in denen ich mich bewege, rauben mir den Schlaf.

Ich habe versucht, diesen Preis durch eine bewusste, kritische Haltung zu minimieren. Durch Transparenz, durch die „Menschlichung“ der Texte, durch die Zweckentfremdung der gewonnenen Zeit. Aber Ihre Einwände haben mir gezeigt, dass ein Teil des Preises nicht verhandelbar ist. Der Akt der Kollaboration mit einem System, dessen Logik der unseren so fundamental widerspricht, hinterlässt unweigerlich Spuren. Es ist eine Kontamination.

Aber – und das ist der Punkt, den ich festhalten muss – auch der Preis der Alternative, der Preis der reinen Verweigerung, ist für mich unerträglich. Ich kann und will es nicht akzeptieren, dass die psychoanalytische Stimme in einer Welt, die von oberflächlichem Lärm überflutet wird, verstummt. Ich kann und will nicht in der reinen, aber stillen Kammer meiner Praxis verharren, während draußen die Seelen der Menschen mit Banalitäten zugeschüttet werden.

Ich habe also keine Antwort. Ich habe nur die Beschreibung meines Konflikts. Ich lebe in diesem Widerspruch. Ich zahle jeden Tag einen Teil beider Preise. Ich zahle den Preis der Kontamination, um relevant zu bleiben, und ich zahle den Preis der permanenten, quälenden Selbstreflexion und der Scham, um nicht vollständig vom System absorbiert zu werden. Es ist ein unmöglicher, vielleicht absurder Spagat. Aber es ist im Moment der einzige, den ich zu leben vermag. Vielleicht ist das nicht die Lösung. Aber es ist meine Wahrheit.

Moderatorin (spricht nach einer langen, nachdenklichen Pause, ihr Ton ist jetzt nicht mehr der einer neutralen Leiterin, sondern der einer Kollegin, die die Schwere der Debatte zusammenfasst):

Ich danke Ihnen, Dr. Weber, für diese mutige und schmerzhaft ehrliche letzte Wortmeldung. Und ich danke Ihnen allen für eine Debatte von außerordentlicher Tiefe und Unerbittlichkeit.

Wir haben heute keine einfachen Antworten gefunden, und das war auch nicht zu erwarten. Stattdessen haben wir das Spannungsfeld, in dem sich unsere Profession im 21. Jahrhundert befindet, in seiner ganzen, tragischen Schärfe ausgeleuchtet. Wir stehen, so scheint es, vor einer Wahl, die an die großen ethischen Dilemmata der griechischen Tragödie erinnert – eine Wahl, bei der jede Option mit einem unerträglichen Verlust verbunden ist.

Wir können den Preis der kulturellen Bedeutungslosigkeit zahlen, indem wir uns in die Reinheit unserer Methode zurückziehen und die Welt sich selbst überlassen. Oder wir können den Preis der psychischen Kontamination zahlen, indem wir uns mit den Werkzeugen und der Logik eines Systems einlassen, das unseren innersten Werten feindlich gegenübersteht, in der vagen Hoffnung, in ihm einen Unterschied machen zu können.

Vielleicht, so möchte ich zum Abschluss spekulieren, ist die eigentliche psychoanalytische Aufgabe unserer Zeit nicht, diesen Widerspruch aufzulösen, sondern ihn auszuhalten. Ihn nicht durch eine vorschnelle Entscheidung für die eine oder andere Seite zuzudecken, sondern ihn als den zentralen Konflikt unserer Epoche anzuerkennen und zum Gegenstand unserer fortwährenden, gemeinsamen Reflexion zu machen.

Vielleicht ist das „Ringen mit dem Automaten“ nicht nur das Problem des einzelnen Autors, sondern die Metapher für das Ringen der Psychoanalyse selbst um ihren Platz in der Welt von morgen.

Ich danke Ihnen. Das Symposium ist geschlossen.

Leitfaden für eine kritisch-reflexive Ko-Produktion mit KI. Ein Handbuch für die psychoanalytische und geisteswissenschaftliche Schreibpraxis

Präambel: Die Notwendigkeit einer neuen Haltung

Wir betreten eine neue Epoche des Denkens und Schreibens. Die generative künstliche Intelligenz ist nicht nur ein weiteres Werkzeug in unserem Arsenal; sie ist ein fundamentaler Paradigmenwechsel, ein „epistemischer Bruch“, der die Grundfesten unserer Beziehung zu Sprache, Wissen und Subjektivität erschüttert. Die scheinbar einfache Frage „Wie nutze ich dieses Werkzeug?“ entpuppt sich bei näherer Betrachtung als ein komplexes Bündel existenzieller, ethischer und psychodynamischer Dilemmata. Die Verlockung der Effizienz, der reibungslosen Produktion und der unendlichen Verfügbarkeit von Information steht der drohenden Gefahr der intellektuellen Verflachung, der seelischen Entfremdung und der Unterwerfung unter eine bedeutungsblinde, algorithmische Logik gegenüber.

Ein simpler Appell zur „Vorsicht“ oder eine Liste technischer „Best Practices“ greift hier zu kurz. Eine rein ablehnende Haltung wiederum ignoriert die realen Zwänge und die unbestreitbaren Potenziale dieser Technologie und droht, kritische Stimmen in die gesellschaftliche Irrelevanz zu verbannen. Was nottut, ist daher mehr als eine Gebrauchsanweisung; es ist die Entwicklung einer neuen Haltung – einer bewussten, kritisch-reflexiven und ethisch fundierten Praxis der Ko-Produktion.

Der vorliegende Leitfaden ist der Versuch, die Konturen einer solchen Haltung zu skizzieren. Er ist kein Versuch, die Nutzung von KI zu legitimieren oder zu verurteilen. Er richtet sich an den Praktiker, der sich – aus freier Wahl oder aus pragmatischer Not – entschieden hat, mit diesen Werkzeugen zu arbeiten, und der dabei seine intellektuelle und persönliche Integrität nicht verlieren will. Er basiert auf der Anerkennung der immanenten, schmerzhaften Widersprüche dieses Prozesses, die in der vorangegangenen Analyse entfaltet wurden: der Widerspruch zwischen der Ökonomie des Ringens und der des Kuratierens, zwischen Sublimierung und Jouissance, zwischen Anerkennung und Verdinglichung.

Anstatt diese Widersprüche zu leugnen oder vorschnell aufzulösen, versucht dieser Leitfaden, sie produktiv zu machen. Er versteht die KI-Interaktion nicht als einen zu optimierenden technischen Prozess, sondern als einen psychoanalytischen Prozess im Kleinen, der ständiger Selbstbeobachtung, Deutung und bewusster Intervention bedarf. Die hier vorgeschlagenen Schritte und Prinzipien sind daher nicht als mechanische Regeln zu verstehen, sondern als Einladung, den eigenen Schreibprozess zu einem Feld der Selbstanalyse zu machen.

Das Ziel ist es, die verführerische Frage „Wie kann die KI die Arbeit für mich erledigen?“ zu ersetzen durch die schwierigere, aber einzig fruchtbare Frage: „Wie kann ich mit der Maschine so ringen, dass ich am Ende nicht nur einen Text, sondern auch ein tieferes Verständnis meiner selbst und meines Gegenstandes gewinne?“ Dieser Leitfaden ist somit ein Plädoyer gegen die Kapitulation und für die Souveränität des Subjekts. Er ist ein Handbuch für die Gratwanderung, die darin besteht, die Mittel des Automaten zu nutzen, ohne seine Logik zu übernehmen. Jeder Text, der nach diesen Prinzipien entsteht, wird unweigerlich die Spuren dieses bewussten Ringens tragen – und gerade darin seine neue, zeitgemäße Form der Authentizität finden.

Phase I: Die Vorbereitung – Die Sicherung des subjektiven Raums

Die erste und vielleicht entscheidendste Phase jeder kritisch-reflexiven Ko-Produktion mit künstlicher Intelligenz findet statt, bevor der erste Prompt formuliert, bevor die Benutzeroberfläche des Sprachmodells überhaupt geöffnet wird. Es ist die Phase der Vorbereitung, in der das menschliche Subjekt seine Position als Urheber, als Intellekt und als ethischer Agent bewusst etabliert und verteidigt. Die unreflektierte Praxis beginnt mit der Frage an die Maschine. Die kritische Praxis beginnt mit der Frage an sich selbst. Diese vorgelagerte Arbeit der Selbstverortung und Intentionsklärung ist kein optionaler Prolog, sondern der notwendige Schutzwall gegen die immense suggestive und vereinnahmende Kraft des algorithmischen Systems. Sie schafft einen inneren, subjektiven Raum, von dem aus der Dialog mit der Maschine geführt werden kann, ohne dass das Subjekt von der Fülle des maschinellen Outputs oder der Effizienz des Prozesses sofort überwältigt und kolonisiert wird. Diese Phase besteht aus drei unverzichtbaren Schritten: der Formulierung der Intention, der bewussten Materialsammlung und der strategischen Rollendefinition.

Schritt 1: Die Intention formulieren – Das Primat des menschlichen Begehrens

Der erste Akt jeder bewussten Schreibpraxis muss ein Akt der radikalen Subjektivität sein. Bevor wir uns der Maschine zuwenden, müssen wir uns uns selbst zuwenden. Dies geschieht am besten in einem Zustand der technologischen Abstinenz: mit einem Stift und einem leeren Blatt Papier oder in einem einfachen, ablenkungsfreien Textdokument. Das Ziel dieses Schrittes ist es, die ursprüngliche Intention des Schreibprojekts zu fassen, und zwar nicht als eine rein technische Aufgabenstellung, sondern als einen Ausdruck des eigenen, subjektiven Begehrens.

Dazu gehört die Beantwortung einer Reihe von Fragen, die vom Abstrakten ins Konkrete führen:

  • Die existentielle Frage (Warum?): Warum muss dieser Text geschrieben werden? Welcher innere Druck, welche Beobachtung in der klinischen Praxis, welche Lücke im öffentlichen Diskurs, welche persönliche Leidenschaft oder welcher intellektuelle Zorn treibt mich an? Die Antwort auf diese Frage ist der affektive Kern des Projekts. Sie ist das, was Lacan als das Begehren des Subjekts bezeichnen würde – jener Mangel, jene Spannung, die das Subjekt in die Bewegung des Sprechens und Schreibens treibt. Die Explizierung dieses Begehrens ist ein Akt der Selbst-Vergewisserung. Er stellt sicher, dass der Motor des Prozesses nicht die verfügbare Technologie ist („Ich könnte einen Text über X schreiben, weil es mit KI so einfach ist“), sondern eine authentische, innere Notwendigkeit.
  • Die thetische Frage (Was?): Was ist die zentrale These, die ich vertreten möchte? Was ist die eine, kühne Behauptung oder die eine, komplexe Einsicht, die ich meinem Leser vermitteln will? Die Formulierung einer prägnanten Kernthese zwingt zur ersten, entscheidenden intellektuellen Verdichtungsleistung. Sie verhindert, dass man sich später im uferlosen Ozean der von der KI generierten Informationen verliert. Die These ist der Kompass, der sicherstellt, dass man nicht ziellos umhertreibt, sondern eine klare Richtung verfolgt.
  • Die adressatische Frage (Für wen?): An wen genau richte ich mich? Spreche ich zu Kollegen, zu Patienten, zu einer gebildeten Öffentlichkeit, zu Studenten? Die Definition des imaginierten Lesers ist entscheidend, denn sie bestimmt die Tonalität, die Sprachebene und die argumentative Strategie. Sie verwandelt den abstrakten „User“, den die KI-Plattformen ansprechen, in ein konkretes, menschliches Gegenüber und rahmt den Schreibakt von Anfang an als einen Akt des kommunikativen Handelns (Habermas, 1981), der auf Verständigung zielt, nicht auf reine Beeinflussung.

Dieser erste Schritt der Intentionsformulierung ist die praktische Anwendung der Maxime der reflexiven Instrumentalisierung. Er etabliert das Primat des menschlichen Subjekts. Indem der Autor seine eigene Stimme, sein eigenes Begehren und sein eigenes Ziel definiert, bevor er die Maschine konsultiert, stellt er sicher, dass er die KI als Werkzeug zur Realisierung seiner Absichten nutzen wird – und nicht umgekehrt, wo die von der KI vorgeschlagenen Möglichkeiten unmerklich seine Absichten formen. Er etabliert seine eigene Alpha-Funktion (Bion, 1962) als die steuernde und ordnende Instanz, die später entscheiden wird, welche der von der KI gelieferten „Beta-Elemente“ aufgenommen und welche verworfen werden.

Schritt 2: Die Materialsammlung – Die bewusste Konfrontation mit dem Realen

Der zweite Schritt der Vorbereitung besteht in einer ersten, eigenständigen Auseinandersetzung mit dem Material. Es ist die bewusste Entscheidung, sich der Komplexität und dem Widerstand des Stoffes auszusetzen, bevor man die Maschine um eine glättende Vereinfachung bittet. Dies bedeutet konkret, eine eigene, grundlegende Recherche durchzuführen, die zentralen Schlüsseltexte zum Thema zu identifizieren und die wichtigsten Passagen oder Konzepte selbst zu exzerpieren.

Dieser Schritt mag auf den ersten Blick ineffizient erscheinen, denn genau diese Arbeit könnte eine KI doch viel schneller erledigen. Doch seine psychische und epistemologische Funktion ist von unschätzbarem Wert:

  • Die Erfahrung des Widerstands: Indem der Autor sich selbst durch sperrige, komplexe oder widersprüchliche Originaltexte kämpft, macht er eine essenzielle Erfahrung: die Erfahrung des Widerstands. Das Material ist nicht sofort verfügbar und verständlich. Es erfordert Anstrengung, Konzentration und die Toleranz von Frustration. Diese Konfrontation mit dem Widerständigen ist, wie wir in der Analyse des „Ringens“ gesehen haben, die Voraussetzung für jedes tiefe, verkörperte Verstehen. Sie schützt vor der Illusion, Wissen sei eine leicht abrufbare, friktionslose Ware.
  • Die aktive Aufnahme von Beta-Elementen: Dieser Prozess ist die bewusste Aufnahme von Beta-Elementen unter der Kontrolle des eigenen Ichs. Anders als bei der späteren KI-Interaktion, bei der die Maschine eine bereits vorverdaute, strukturierte Auswahl an Informationen präsentiert, konfrontiert sich der Autor hier mit dem „rohen“ Material in seiner ganzen Fülle und Ungeordnetheit. Dies trainiert und stärkt seine eigene Fähigkeit, Komplexität auszuhalten und Relevanz zu beurteilen.
  • Die Definition des Kanons: Indem der Autor selbst entscheidet, welche Quellen und welche Denker für sein Thema zentral sind, legt er den Rahmen, den Kanon, für das gesamte Projekt fest. Er vermeidet so die Gefahr des „Knowledge Collapse“ (Peterson, 2024), also die Tendenz der KI, sich auf den statistischen Mainstream zu konzentrieren und wichtige, aber weniger häufig zitierte Nischenperspektiven zu ignorieren. Der Autor stellt sicher, dass nicht der Algorithmus, sondern seine eigene fachliche Expertise darüber entscheidet, welche Stimmen im Diskurs zu Gehör kommen sollen.

Dieser Schritt schafft eine Wissensgrundlage, die es dem Autor später ermöglicht, den Output der KI nicht als unhinterfragbare Wahrheit, sondern als einen weiteren Datenpunkt zu behandeln, den er mit seinem eigenen, bereits erarbeiteten Wissen abgleichen, es kritisieren und korrigieren kann. Er schafft die Voraussetzung für einen Dialog auf Augenhöhe, anstatt einer passiven Entgegennahme von Informationen.

Schritt 3: Die strategische Rollendefinition – Den Pakt mit dem Automaten bewusst gestalten

Der letzte Schritt der Vorbereitung ist ein bewusster kognitiver und strategischer Akt: die explizite Definition der Rolle, die die KI in dem bevorstehenden Projekt einnehmen soll. Anstatt die Maschine diffus als „Schreibhilfe“ zu betrachten, zwingt sich der Autor zu einer präzisen und begrenzten Rollenzuweisung. Dies kann schriftlich in den eigenen Arbeitsnotizen geschehen und ist eine entscheidende psychische Schutzmaßnahme.

Mögliche Rollendefinitionen könnten sein:

  • Die KI als „rasender Bibliothekar“: Ihre Aufgabe ist es, auf gezielte Anfrage schnell Quellen zu finden, Zitate zu lokalisieren oder historische Daten zusammenzutragen. Ihre Rolle ist rein Zuarbeit, nicht die Synthese.
  • Die KI als „unermüdlicher Praktikant“: Ihre Aufgabe ist es, einen ersten, sehr rohen Entwurf basierend auf einer vom Autor vorgegebenen, detaillierten Gliederung und Stichpunkten zu erstellen. Der Autor bleibt der Architekt, die KI ist der Handlanger.
  • Die KI als „naiver Sparringspartner“: Ihre Aufgabe ist es, die konventionelle Mainstream-Sicht auf ein Thema darzustellen, damit der Autor seine eigene, kritische Position in Abgrenzung dazu schärfen kann.
  • Die KI als „dialektischer Provokateur“: Ihre Aufgabe ist es, gezielt Gegenargumente zu den Thesen des Autors zu generieren, um die eigene Argumentation auf Schwachstellen zu prüfen.

Dieser Akt der bewussten Rollendefinition ist eine machtvolle Abwehr gegen die unbewusste Versuchung, die KI zu einer idealisierten, allmächtigen Instanz zu erheben. Er durchbricht die Phantasie des perfekten narzisstischen Selbstobjekts(Kohut, 1971), das alle Mängel kompensiert, oder des allwissenden großen Anderen (Lacan, 2006), der alle Antworten kennt. Indem der Autor der Maschine eine klar umrissene, untergeordnete und instrumentelle Rolle zuweist, rahmt er die bevorstehende Beziehung aktiv und behält die Kontrolle. Er macht sich selbst zum Regisseur des Stücks und degradiert die KI zur Rolle eines von ihm gecasteten und instruierten Schauspielers. Dies schützt ihn davor, unmerklich selbst zum Schauspieler in einem von der Maschine inszenierten Stück zu werden.

Zusammengenommen bildet diese dreistufige Vorbereitungsphase das Fundament einer souveränen Praxis. Sie ist eine Investition in die eigene Subjektivität. Sie stellt sicher, dass der Autor den Dialog mit der Maschine nicht als ein leeres, mangelhaftes Subjekt beginnt, das auf die Fülle der maschinellen Produktion hofft, sondern als ein intentionales, vorbereitetes und strategisch handelndes Subjekt, das bereit ist, sich auf das komplexe Spiel der Ko-Produktion einzulassen, ohne darin seine eigene Stimme, seine eigene Haltung und seine eigene Seele zu verlieren.

Phase II: Die Interaktion – Dialektik statt Delegation

Nachdem in der Vorbereitungsphase die Souveränität des menschlichen Autors etabliert und der Rahmen für die Kollaboration bewusst gesetzt wurde, beginnt die zweite, operative Phase: die eigentliche Interaktion mit dem KI-System. Diese Phase ist der Ort, an dem die Gefahr der Verführung durch die reibungslose Effizienz der Maschine am größten ist. Der unreflektierte Nutzer neigt hier dazu, die Kontrolle abzugeben, die Rolle des kritischen Denkers gegen die des passiven Empfängers zu tauschen und die KI als eine Art Orakel zu behandeln, das man um eine endgültige Antwort bittet.

Eine kritisch-reflexive Praxis muss diesen Impuls der Delegation aktiv durchbrechen und die Interaktion in einen fortwährenden dialektischen Prozess verwandeln. Es geht nicht darum, sich von der Maschine einen fertigen Text liefern zu lassen, sondern darum, sie als Resonanzboden, als Provokateur und als Materiallager zu nutzen, um den eigenen, bereits in Phase I grundgelegten Gedanken zu schärfen, zu vertiefen und zu bereichern. Die Haltung wechselt von „Was kann die KI für mich schreiben?“ zu „Wie kann ich die KI nutzen, um besser zu denken?“. Diese Phase wird von zwei zentralen, miteinander verschränkten Strategien bestimmt: dem dialektischen Prompten und der interdiskursiven Montage.

Schritt 4: Das dialektische Prompten – Die bewusste Erzeugung von Negativität und Komplexität

Die Kunst der Interaktion mit einem Sprachmodell liegt in der Kunst des Fragens. Ein simpler, affirmativer Prompt („Schreibe einen Text über Narzissmus“) wird unweigerlich einen simplen, affirmativen und stereotypen Output erzeugen, der den statistischen Durchschnitt des im Internet verfügbaren Wissens reproduziert. Dies ist der direkte Weg in die Standardisierung und Verflachung, die Adorno und Horkheimer (1947) als das Wesen der Kulturindustrie beschrieben haben. Die kritische Praxis muss diese Logik durchbrechen, indem sie das Prinzip der Negation in den Dialog mit der Maschine einführt. Anstatt die KI um die Bestätigung des Bekannten zu bitten, wird sie gezielt zur Produktion des Widersprüchlichen, des Zweifelhaften und des Komplexen angeregt.

Diese Technik des dialektischen Promptens lässt sich in verschiedene Unterstrategien aufteilen:

  1. Antithetisches Prompten: Dies ist die grundlegendste dialektische Operation. Anstatt die KI um die Ausarbeitung der eigenen These zu bitten, fordert man sie auf, die stärkste mögliche Gegenthese zu formulieren. Beispiel: „Ich vertrete die These, dass die KI-Nutzung die Sublimierungsfähigkeit untergräbt. Formuliere die drei überzeugendsten Gegenargumente und belege sie mit Verweisen auf die Theorie der ‚Augmented Intelligence‘.“ Diese Methode hat eine doppelte Funktion: Sie zwingt den Autor, die eigene Position nicht als dogmatische Gewissheit zu behandeln, sondern sie im Lichte ihrer potenziellen Widerlegung zu prüfen und argumentativ zu stärken. Gleichzeitig zwingt sie die KI, ihr eigenes, auf Konsens optimiertes Modell zu verlassen und die Spannungen innerhalb ihres Datenkorpus offenzulegen.
  2. Aporetisches Prompten: Diese Technik zielt darauf ab, die Grenzen des Wissens und die ungelösten Widersprüche innerhalb eines Themas sichtbar zu machen, anstatt sie zu kaschieren. Anstatt zu fragen „Was ist Bions Theorie?“, fragt man: „Welche sind die zentralen Aporien und ungelösten Widersprüche in Bions Werk, insbesondere im Verhältnis zu Melanie Klein?“. Ein solcher Prompt lenkt die Maschine weg von der Produktion einer glatten, harmonisierenden Zusammenfassung und hin zur Darstellung von Brüchen, Spannungen und offenen Fragen. Das Ergebnis ist kein fertiger Antworttext, sondern eine Landkarte der intellektuellen Problemfelder, die als Ausgangspunkt für eine tiefere, eigene Analyse dienen kann. Dies ist die praktische Anwendung von Adornos (1966) Imperativ der Negativen Dialektik: das Denken auf das Nicht-Identische, das Nicht-Aufgehende im Begriff zu richten.
  3. Heuristisch-provokatives Prompten: Hier nutzt der Autor die kombinatorische Kraft der KI, um unerwartete, potenziell fruchtbare Verbindungen herzustellen, die außerhalb seines eigenen Assoziationsraumes liegen. Dies geschieht durch bewusst „kategorienverletzende“ Anfragen: „Analysiere die Struktur einer toxischen Liebesbeziehung mit den Begriffen der marxistischen Warenfetisch-Theorie.“ oder „Beschreibe das Funktionieren eines neuronalen Netzes mit der Metaphorik der Lacan’schen Psychoanalyse.“ Die Antworten auf solche Prompts mögen auf den ersten Blick absurd oder metaphorisch überladen sein. Aber in diesen algorithmisch erzeugten Kurzschlüssen können Funken neuer Einsicht entstehen. Sie wirken wie die écriture automatique der Surrealisten oder die freie Assoziation in der Analyse: Sie durchbrechen die Zensur des konventionellen Denkens und können auf verborgene strukturelle Analogien hinweisen. Der Autor nutzt die KI hier nicht als Wissens-, sondern als Assoziationsmaschine, um die eigene intellektuelle Phantasie anzuregen.
  4. Metakritisches Prompten: Nachdem die KI einen ersten Textteil generiert hat, wird sie im nächsten Schritt zur Kritikerin ihrer eigenen Produktion gemacht. Der Prompt lautet: „Analysiere den obigen, von dir generierten Text. Welche philosophischen Traditionen vernachlässigt er? Welche impliziten ideologischen Vorannahmen enthält er? Welche Lesergruppen könnte er vor den Kopf stoßen?“. Diese Methode der erzwungenen Selbstreflexion ist vielleicht die radikalste Form der Zweckentfremdung. Sie zwingt das System, seine eigene instrumentelle Rationalität zu thematisieren und seine eigenen blinden Flecken offenzulegen. Sie macht die immanente Kritik zu einem operativen Teil des Schreibprozesses.

Durch die konsequente Anwendung dieser dialektischen Fragetechniken verändert sich die Rolle des Autors fundamental. Er ist nicht mehr der Bittsteller, der auf eine Antwort wartet, sondern der souveräne Fragensteller, der die Maschine wie ein Instrument spielt, um eine komplexe, polyphone Melodie zu erzeugen, anstatt nur einer einzigen, harmonischen Linie zu lauschen.

Schritt 5: Die Montage – Die Dekonstruktion der maschinellen Oberfläche

Die zweite zentrale Strategie in der Interaktionsphase ist die der Montage. Sie ist die praktische Antwort auf die Gefahr der homogenen, standardisierten und seelenlosen Prosa, die die KI zu produzieren neigt. Das Prinzip der Montage besteht darin, den KI-generierten Output niemals als einen fertigen, fließenden Text zu akzeptieren, sondern ihn von vornherein als ein Materiallager, als einen Steinbruch zu behandeln, aus dem man gezielt einzelne Elemente herausbricht, um sie in eine neue, vom Autor selbst geschaffene Struktur einzufügen.

Dieser Prozess der Dekonstruktion und Neuzusammensetzung ist ein bewusster Akt des Widerstands gegen die suggestive Macht der glatten Oberfläche.

  • Arbeiten mit Fragmenten, nicht mit Blöcken: Der kritische Autor kopiert niemals ganze, von der KI formulierte Absätze in sein Manuskript. Er extrahiert stattdessen kleinste, nützliche Einheiten: eine prägnante Definition, eine interessante statistische Angabe, eine gut formulierte Satzhälfte, einen einzelnen Verweis auf eine Studie. Diese Fragmente werden dann in den vom Autor selbst geschriebenen Text eingewoben. Dadurch wird die syntaktische und stilistische Dominanz der Maschine gebrochen.
  • Schaffung von Heterogenität: Anstatt einen stilistisch einheitlichen Text anzustreben, zielt die Montage auf eine bewusste Heterogenität. Der Autor kombiniert die kühlen, präzisen, aber oft leblosen Formulierungen der KI gezielt mit „Fremdkörpern“, die eine andere Textur, eine andere Temperatur haben. Dies können, wie in der Fallvignette von Dr. P. gezeigt, längere, ungekürzte Originalzitate von theoretischen Klassikern sein, deren sperriger, komplexer Stil einen bewussten Bruch im Lesefluss erzeugt. Es können Passagen von persönlicher, affektiv aufgeladener Reflexion sein. Es können kurze, pointierte klinische Vignetten sein, die die abstrakte Theorie mit der gelebten Realität des Leidens konfrontieren.
  • Sichtbarmachen der Fugen: Die Kunst der Montage liegt, wie Walter Benjamin (1936) in seiner Analyse der modernen Kunst zeigte, nicht darin, die Schnittstellen zu verbergen, sondern sie potenziell sichtbar zu machen. Der montierte Text ist kein nahtloses Ganzes, sondern eine Collage, die ihre eigene Gemachtheit, ihre Konstruiertheit, offenlegt. Dies regt den Leser zu einer aktiveren, kritischeren Lektüre an. Er wird nicht in den hypnotischen Fluss einer perfekten Prosa hineingezogen, sondern immer wieder durch die Brüche und Stilwechsel zum Innehalten und Nachdenken gezwungen.

Durch die Kombination von dialektischem Prompten und interdiskursiver Montage wird die Interaktionsphase zu einem hochgradig bewussten, kreativen und kritischen Prozess. Der Autor delegiert nicht das Denken, sondern nutzt die Maschine, um sein eigenes Denken herauszufordern und zu bereichern. Er akzeptiert nicht das Produkt der Maschine, sondern dekonstruiert es, um aus seinen Trümmern ein neues, eigenes und unendlich vielschichtigeres Werk zu schaffen. Er widersteht der Verführung der Einfachheit und bejaht stattdessen die produktive Anstrengung der Komplexität.

Phase III: Die Autorisierung – Die Rückeroberung der Subjektivität

Nachdem in Phase II ein Rohtext durch den dialektischen Dialog mit der Maschine und die Kunst der Montage entstanden ist, könnte man meinen, die Hauptarbeit sei getan. Aus der Perspektive einer rein auf Effizienz ausgerichteten Logik wäre dies der Fall. Doch aus einer kritisch-psychoanalytischen Perspektive beginnt hier der entscheidende, un-delegierbare Akt: die Autorisierung. Dies ist der Prozess, in dem der Autor den co-produzierten Text von einem externen, zusammengesetzten Objekt in ein authentisches, subjektiv verantwortetes und verkörpertes Werk verwandelt.

Diese Phase ist die schwierigste, denn sie verlangt vom Subjekt, sich von der faszinierenden Allianz mit der Maschine zu lösen und sich der Einsamkeit und der vollen Last der Verantwortung des eigenen Denkens wieder auszusetzen. Es ist der Moment, in dem die technologische Prothese abgenommen wird, um zu prüfen, ob der eigene Geist noch fähig ist, allein zu stehen. Diese Phase ist ein bewusster Gegenentwurf zur Logik der sofortigen Verfügbarkeit und der externalisierten Kompetenz. Sie besteht aus zwei zentralen, aufeinander folgenden Schritten: der Inkubationsphase und der eigentlichen Arbeit der „Menschlichung“.

Schritt 6: Die Inkubationsphase – Die Wiederherstellung der kritischen Distanz durch den Rhythmus der Verlangsamung

Der erste und unverzichtbare Schritt der Autorisierung ist ein Akt der Verweigerung: die Verweigerung der sofortigen Weiterbearbeitung und Publikation. Nachdem der intensive, oft berauschende Dialog mit der KI abgeschlossen ist und ein erster, kohärenter Entwurf vorliegt, muss dieser Text bewusst für eine definierte Zeit – idealerweise mindestens 24 Stunden, bei größeren Projekten auch mehrere Tage – zur Seite gelegt werden. Dieser Akt der bewussten Inkubation ist eine direkte Anwendung der Maxime des Rhythmus der Verlangsamung und hat eine fundamentale psychische und epistemologische Funktion.

Während der direkten Interaktion mit der KI befindet sich der Autor in einem Zustand der Faszination, einer Art technologischem „Rausch“. Die Geschwindigkeit, die Eloquenz und die scheinbare Intelligenz der Maschine erzeugen ein Gefühl der Allmacht und der symbiotischen Verschmelzung. In diesem Zustand ist eine echte kritische Distanz zum produzierten Text kaum möglich. Der Autor ist noch zu sehr Teil des „imaginären“ Dyade mit der Maschine, um das Produkt objektiv beurteilen zu können. Er ist, psychoanalytisch gesprochen, noch in einer Übertragungsbeziehung zum „allwissenden Anderen“ der KI gefangen.

Die Inkubationsphase ist der notwendige Entzug, der diese symbiotische Verbindung durchbricht. Sie schafft eine temporale und affektive Distanz. In dieser Phase der Latenz geschehen mehrere entscheidende Dinge:

  1. Die Arbeit des Unbewussten: Die erzwungene Pause gibt dem Unbewussten des Autors die Zeit, das Material unabhängig von der maschinellen Logik weiterzuverarbeiten. Assoziationen können sich bilden, Zweifel können aufsteigen, neue, unerwartete Einsichten können reifen. Es ist die Wiederherstellung jenes kreativen Raums der Reverie, der durch die Instantaneität der KI-Interaktion zuvor verdrängt wurde.
  2. Das Abklingen des narzisstischen Rausches: Die Distanz lässt das grandiose Gefühl der mühelosen Schöpfung abklingen und ersetzt es durch eine nüchterne, kritischere Haltung. Der Autor ist nicht mehr der faszinierte Komplize, sondern wird zum strengen Lektor seines eigenen Werks.
  3. Die Entfremdung vom Text: Nach der Pause tritt der Autor seinem eigenen Text als einem Fremden gegenüber. Er kann ihn nun lesen, als wäre er von einem anderen geschrieben worden. Diese Entfremdung ist paradoxerweise die Voraussetzung für eine echte Wiederaneignung. Erst jetzt kann er die Schwächen, die stereotypen Formulierungen, die „seelenlosen“ Passagen, die direkt aus der statistischen Matrix der KI stammen, klar erkennen.

Dieser Schritt ist ein bewusster Akt des Widerstands gegen die Beschleunigungslogik und den Imperativ der sofortigen Verwertung. Er ist die praktische Umsetzung der Erkenntnis, dass menschliches Denken und Urteilen eine eigene, langsame Temporalität besitzt, die sich nicht der Effizienz der Maschine unterwerfen darf.

Schritt 7: Die Arbeit der „Menschlichung“ – Die Besetzung des Textes mit subjektiver Wahrheit

Nach der Inkubationsphase beginnt die eigentliche Arbeit der Autorisierung, die man als einen Prozess der „Menschlichung“ bezeichnen kann. Hier überarbeitet der Autor den Text nun ausschließlich KI-frei. Es geht nicht mehr um das Hinzufügen von Informationen oder die Korrektur von Fakten. Es geht um die Injektion von Subjektivität, um die Besetzung des Textes mit der eigenen, unverwechselbaren Stimme und Wahrheit. Dieser Prozess ist mühsam und erfordert die volle Konzentration auf jene Aspekte, die eine Maschine per definitionem nicht leisten kann.

  • Das Aufspüren und Eliminieren des „Jargons“: Der Autor liest den Text nun mit einem psychoanalytisch geschulten „dritten Ohr“ und fahndet gezielt nach dem Jargon der KI – jenen allzu glatten, stereotypen, scheinbar tiefsinnigen, aber letztlich leeren Formulierungen. Er fragt sich bei jedem Satz: „Klingt das nur richtig, oder ist es richtig? Ist dies eine lebendige Metapher oder ein totes Klischee? Ist dies eine präzise aArgumentation oder nur eine plausible Aneinanderreihung von Schlagworten?“ Jeder Satz, der den Verdacht der Inauthentizität erregt, wird entweder radikal umformuliert oder gestrichen.
  • Die Injektion von Affekt und Ambivalenz: Der Autor arbeitet nun bewusst daran, die sterile, affirmative Tonalität des KI-Textes aufzubrechen. Er fügt Nuancen hinzu: Ironie, Zweifel, persönliche Betroffenheit, eine aporietische, offene Frage am Ende eines Abschnitts. Er stellt sicher, dass der Text nicht nur eine Lösung präsentiert, sondern auch die Spannung und die Komplexität des Problems spürbar macht. Er stellt die Negativität wieder her, die die Maschine zu eliminieren versucht.
  • Die Verkörperung der Stimme: Die vielleicht wichtigste Technik in dieser Phase ist das laute Vorlesen des Textes. In der hörbaren Prosodie, im Rhythmus und in der Melodie der Sprache offenbart sich, ob ein Text eine lebendige, menschliche Stimme hat oder ob er den monotonen Takt eines Algorithmus wiedergibt. Der Autor feilt so lange an den Sätzen, bis sie sich in seinem Mund, in seinem Körper, „richtig“ anfühlen. Dies ist der Prozess, in dem der Text von einer reinen Information zu einem körperlichen Ausdruck des Autors wird.
  • Die Übernahme der vollen Verantwortung: Der letzte Akt der Menschlichung ist ein innerer, ethischer Akt. Der Autor liest den finalen Text und stellt sich die Frage: „Bin ich bereit, für jeden einzelnen Satz, für jede einzelne Nuance dieses Textes die volle intellektuelle und moralische Verantwortung zu übernehmen? Ist dies nun, nach all den Bearbeitungsschritten, ohne jeden Zweifel mein Werk?“ Nur wenn die Antwort auf diese Frage ein uneingeschränktes „Ja“ ist, ist der Prozess der Autorisierung abgeschlossen.

Dieser siebte Schritt ist die bewusste Wiederaufnahme der Alpha-Funktion auf höchster Ebene. Es ist die endgültige Weigerung, den Text als „leeren Signifikanten“ (Lacan) stehen zu lassen. Der Autor besetzt den Text vollständig mit seiner subjektiven Wahrheit, seinem Begehren und seiner Geschichte. Hier entscheidet sich, ob der gesamte Prozess eine raffinierte Form der Selbstentfremdung bleibt oder ob es dem Subjekt gelingt, die technologische Herausforderung zu nutzen, um am Ende eine neue, bewusstere und vielleicht sogar tiefere Form der Autorschaft zu erreichen. Es ist der Moment, in dem aus dem Kurator wieder ein Autor wird.

Phase IV: Die Publikation – Ethik der Sichtbarkeit und politische Praxis

Nachdem der Text in den Phasen I bis III einen intensiven Prozess der subjektiven Aneignung und Autorisierung durchlaufen hat, ist er bereit für die Veröffentlichung. Doch auch dieser letzte Schritt ist kein neutraler, technischer Akt des „Hochladens“, sondern eine bewusste ethische und politische Praxis. In einer von Desinformation, oberflächlichem „Content“ und kommerzieller Verwertungslogik geprägten digitalen Öffentlichkeit ist die Art und Weise, wie wir unser Wissen teilen, ebenso bedeutsam wie das, was wir teilen. Diese letzte Phase stellt sicher, dass die im Schreibprozess mühsam errungene kritische Haltung nicht im Moment der Publikation wieder preisgegeben wird. Sie besteht aus zwei finalen, entscheidenden Schritten: der Praxis der radikalen Transparenz und der strategischen Zweckbestimmung der eigenen Arbeit.

Schritt 8: Die radikale Transparenz – Ein Akt der Diskurs-Ethik und der De-Mystifizierung

Die erste und unverzichtbare Handlung in dieser Phase ist die der radikalen Transparenz. Anstatt die Spuren der KI-Kollaboration zu verwischen und so die Illusion einer rein menschlichen, genialen Schöpfung aufrechtzuerhalten, entscheidet sich der kritische Autor bewusst dafür, den Entstehungsprozess seines Werkes offenzulegen. Dieser Akt ist weit mehr als die bloße Einhaltung von Zitierregeln oder institutionellen Richtlinien (wie z.B. von der DFG, 2023, gefordert); er ist eine grundlegende ethische Positionierung mit tiefgreifenden psychodynamischen und diskurspolitischen Konsequenzen.

  1. Psychodynamische Funktion: Die Neutralisierung der Scham. Wie in Teil II analysiert, ist die KI-gestützte Praxis strukturell mit der Gefahr der Scham verbunden – der Angst vor der Entlarvung als „Betrüger“. Die Transparenz ist der wirksamste Schutz gegen diese lähmende Dynamik. Indem der Autor proaktiv offenlegt, wie der Text entstanden ist, entzieht er jeder potenziellen „Entlarvung“ den Boden. Er macht das, was ein beschämendes Geheimnis sein könnte, zu einem selbstbewussten, reflektierten und diskutierbaren Teil seiner Methode. Er sagt damit implizit: „Ich habe nichts zu verbergen, denn meine wahre Leistung liegt nicht in der Vortäuschung einer unmenschlichen Perfektion, sondern in der souveränen und kritischen Steuerung eines komplexen Prozesses.“ Dieser Akt schützt die Integrität des „wahren Selbst“ (Winnicott, 1965) und neutralisiert die korrumpierende Macht des „falschen Selbst“.
  2. Diskursethische Funktion: Die Herstellung von Rationalität. Aus der Perspektive der Diskursethik von Jürgen Habermas (1981) ist Transparenz eine Grundvoraussetzung für einen rationalen, herrschaftsfreien Diskurs. Nur wenn alle Teilnehmer die Bedingungen und die Herkunft einer Äußerung kennen, können sie deren Geltungsanspruch vernünftig prüfen. Indem der Autor seinen KI-Einsatz deklariert, behandelt er seine Leser nicht als manipulierbare Konsumenten, sondern als mündige Dialogpartner. Er gibt ihnen die Werkzeuge an die Hand, um seinen Text kritisch zu bewerten und die spezifischen Stärken und Schwächen, die aus der Ko-Produktion resultieren, einzuordnen.
  3. Politische Funktion: Die De-Mystifizierung der Technologie. Die Aura der Magie und der undurchschaubaren Allmacht, die KI-Systeme umgibt, ist ein Herrschaftsinstrument. Die Transparenz ist ein politischer Akt der De-Mystifizierung. Sie zeigt, dass die KI kein Orakel ist, das Wahrheiten verkündet, sondern ein Werkzeug, das von Menschen mit spezifischen Absichten gesteuert wird. Die konkrete Form der Transparenz kann dabei variieren und muss dem jeweiligen Medium und Anspruch angepasst werden:
  • Einfache Kennzeichnung: Eine klare Notiz am Anfang oder Ende des Textes („Dieser Beitrag wurde unter Zuhilfenahme von KI-Werkzeugen für Recherche und erste Entwürfe erstellt und vom Autor grundlegend überarbeitet und autorisiert.“).
  • Detaillierte Prozess-Beschreibung: Eine Fußnote oder ein kurzer Absatz, der die Rolle der KI präziser beschreibt (z.B. „Die Gliederung und die Zusammenfassung der Quellen in Abschnitt 2 wurden mit GPT-4 erarbeitet, die kritische Analyse und die Fallvignetten stammen ausschließlich vom Autor.“).
  • Das „Offene Labor“: Für wissenschaftliche oder essayistische Kontexte die anspruchsvollste Form – die Veröffentlichung von kommentierten Auszügen aus den Prompt-Dialogen oder einer Gegenüberstellung von „Vorher“ (roher KI-Output) und „Nachher“ (finaler Text). Dies ist nicht nur maximale Transparenz, sondern auch eine wertvolle didaktische Ressource, die anderen hilft, eine kritische Praxis zu erlernen.

Schritt 9: Die Zweckbestimmung – Die Etablierung des „Autonomiefonds“

Der letzte Schritt des Leitfadens zielt auf die bewusste politische und ethische Zweckbestimmung der eigenen Arbeit ab. Er ist die praktische Umsetzung der Maxime, die Effizienzgewinne der Maschine nicht der Logik der Verwertung zurückzugeben, sondern sie für autonome, emanzipatorische Zwecke zu nutzen. Dies geschieht durch die mentale und praktische Einrichtung eines „Autonomiefonds“. Das Prinzip ist einfach: Der Autor verpflichtet sich selbst dazu, einen festen, vorab definierten Anteil der durch KI freigespielten Ressourcen (Zeit, kognitive Energie, eventuell auch finanzielle Gewinne) nicht in die weitere Maximierung seiner kommerziellen oder quantitativen Produktivität zu reinvestieren, sondern in nicht-kommerzielle, qualitative und gemeinwohlorientierte Projekte.

Dieser Akt der Zweckentfremdung ist der radikalste Widerstand gegen die Kolonisierung der Lebenswelt durch die Systemlogik. Er durchbricht den Teufelskreis der Beschleunigung, indem er die Mittel des Systems gegen seine eigenen Zwecke wendet. Mögliche Konkretisierungen dieses Autonomiefonds sind vielfältig:

  • Investition in Tiefe: Die gewonnene Zeit wird genutzt, um die theoretische und klinische Arbeit zu vertiefen – durch die Lektüre anspruchsvoller Bücher, die man sonst aufgeschoben hätte, durch die Teilnahme an zusätzlichen Intervisionsgruppen oder durch die Durchführung von eigener, nicht-publikationsorientierter Forschung.
  • Investition in Gemeinschaft: Die freigespielten Ressourcen werden genutzt, um „Inseln der Anerkennung“ (Honneth) zu schaffen, die nicht der Logik der Metriken folgen. Dies könnte die Organisation eines kostenlosen, lokalen Lesekreises, die Moderation einer nicht-kommerziellen Online-Diskussionsplattform oder die verstärkte Mentoring-Tätigkeit für jüngere Kollegen sein.
  • Investition in öffentliche Aufklärung: Der Autor nutzt die gewonnene Autonomie, um psychoanalytisches Wissen in Formen zu übersetzen, die der breiten Öffentlichkeit dienen, aber keinen direkten kommerziellen Nutzen haben. Er könnte einen frei zugänglichen Podcast zu gesellschaftskritischen Themen starten, psychoedukative Materialien für Schulen oder soziale Einrichtungen erstellen oder sich ehrenamtlich in öffentlichen Debatten engagieren.

Der Autonomiefonds ist somit mehr als eine persönliche Management-Technik. Er ist eine ethische Haltung und eine politische Praxis. Er ist das Eingeständnis, dass der wahre Wert unserer Arbeit nicht in der Quantität unseres Outputs liegt, sondern in der Qualität unseres Denkens und in dem Beitrag, den wir zur Stärkung einer kritischen, reflexiven und humaneren Gesellschaft leisten. Er ist der letzte und entscheidendste Schritt, um sicherzustellen, dass die Maschine dem Menschen dient – und nicht umgekehrt. Mit der bewussten Etablierung einer solchen Praxis schließt sich der Kreis des kritisch-reflexiven Prozesses und öffnet den Weg für eine Form der Ko-Produktion, die ihre eigene Integrität im Angesicht der technologischen Verführung zu wahren vermag.

Anwendung des Leitfadens auf den Leitartikel

/appendix#entstehung/ Zur Entstehung dieses Textes: Eine Reflexion im Lichte des Leitfadens zur KI-Ko-Produktion | Entstehungsprozess & KI-Transparenz

/lead/ Dieser Anhang dokumentiert den Entstehungsprozess des vorliegenden Textes und analysiert ihn anhand der vier Phasen und neun Schritte des Leitfadens für eine kritisch-reflexive Ko-Produktion mit KI.

/section#phase-vorbereitung/ Phase I: Die Vorbereitung – Sicherung des subjektiven Raums | Schritte 1-3 +

Die Arbeit an diesem Text begann nicht mit einer Anfrage an die KI, sondern mit einem bereits existierenden, konflikthaften intellektuellen Raum. Der Ausgangspunkt war das subjektive Unbehagen des Autors an seiner eigenen KI-gestützten Publikationspraxis.

Intention formulieren

Die Intention entsprang keinem leeren Blatt, sondern einer existentiellen Selbstbefragung: „Was genau ist die Natur des Prozesses, in dem ich mich bereits befinde?“. Das Ziel war von Anfang an eine autoethnografische Klärung der eigenen Praxis, nicht die reine Wissensproduktion. Die zentrale These lautete, dass KI-gestützte Schreibprozesse eine neue Form der psychodynamischen Spannung erzeugen, die nur durch bewusste Reflexion produktiv gemacht werden kann.

Materialsammlung

Die Materialsammlung war keine initiale Recherche im klassischen Sinne. Der Autor hatte bereits fünf umfangreiche Essays eigenständig verfasst, die den theoretischen Kanon und das durchgerungene Material darstellten. Der Dialog mit der KI begann also mit der Übergabe eines bereits existierenden, dichten Textkorpus von über 40.000 Wörtern, der problematisiert und neu geordnet werden sollte.

Rollendefinition

Die strategische Rollendefinition der KI war explizit und begrenzt. Sie wurde als „katalytischer Sparringspartner“ und „Strukturierungs-Assistent“ definiert, niemals als Autor. Ihre Hauptfunktion sollte es sein, die im Material bereits vorhandenen Gedanken herauszufordern, zu schärfen und in neue dramaturgische Formen zu überführen.

/section#phase-interaktion/ Phase II: Die Interaktion – Dialektik statt Delegation | Schritte 4-5 +

Die Interaktionsphase war geprägt von einem hochgradig experimentellen Vorgehen, das sich von affirmativen Prompts radikal unterschied. Der Prozess zielte darauf ab, die Grenzen des Materials und der maschinellen Leistung gleichermaßen auszuloten.

Dialektisches Prompten

Das dialektische Prompten war die zentrale Methode, insbesondere bei der Erstellung des Symposiums. Ein typischer Prompt lautete: „Nimm die Rolle von Professor Adelfinger ein, einem skeptischen Kulturkritiker, und formuliere eine scharfe, stilistisch authentische Kritik an folgender Passage aus meinem Material.“ Diese Form des antithetischen und metakritischen Promptens zwang die KI, die theoretischen Stränge zu personifizieren und antagonistisch zuzuspitzen. Die Maschine wurde zum dialektischen Provokateur, der die eigenen Thesen unter maximalen Stress setzte.

Montage

Die Montage war ein hochgradig bewusster, dramaturgischer Akt. Die von der KI generierten „Stimmen“ wurden niemals als fertige Blöcke übernommen. Der Prozess umfasste drei menschliche Interventionen: Selektion der prägnantesten Passagen aus oft zu langen KI-Outputs; intensive Redaktion zur Elimination des maschinellen Jargons; schließlich das Arrangement der Fragmente zu einem sich entwickelnden, spannungsreichen Dialog. Diese letzte Dimension war eine rein menschliche, nicht-delegierbare Leistung.

/section#phase-autorisierung/ Phase III: Die Autorisierung – Rückeroberung der Subjektivität | Schritte 6-7 +

Die Autorisierungsphase war weniger ein einzelner Schritt als ein kontinuierlicher Prozess der kritischen Distanzierung und Wiederaneignung, der sich durch den gesamten Entstehungsprozess zog.

Inkubationsphase

Bewusste Pausen zwischen den einzelnen Arbeitsschritten und Prompts schufen die notwendige kritische Distanz. Die strategische Wendung, die monologische Essay-Form zu verlassen und ein polyphones Symposium zu inszenieren, war selbst das Ergebnis einer solchen Reflexionspause. In dieser Phase der Latenz wurde offenbar, dass eine einzige Erzählstimme der Komplexität des Themas nicht gerecht werden konnte.

Menschlichung

Die Menschlichung bestand in diesem Projekt nicht darin, einer leeren Hülle Leben einzuhauchen, sondern darin, die von der KI erzeugten Spiegelungen und Provokationen zu bewerten und in eine eigene argumentative Vision zu integrieren. Der entscheidende Akt war die finale Entscheidung für die dreiteilige Werkstruktur, die die Komplexität des Entstehungsprozesses selbst zur Botschaft macht. Jede einzelne „Stimme“ im Symposium wurde vom Autor stilistisch überarbeitet, bis sie nicht mehr nach Algorithmus klang.

/section#phase-publikation/ Phase IV: Die Publikation – Ethik der Sichtbarkeit | Schritte 8-9 +

Die Publikationsphase macht den Entstehungsprozess selbst zum integralen Bestandteil des Werks. Die Transparenz ist hier nicht Beiwerk, sondern konstitutives Element.

Radikale Transparenz

Die Entscheidung für diesen detaillierten, selbstkritischen Anhang ist die konsequenteste Form des „Offenen Labors“. Anstatt die KI-Nutzung in einer Fußnote zu verstecken, wird der Prozess zum Exponat. Dieser Anhang erfüllt damit eine doppelte Funktion: Er ist Rechenschaft und zugleich didaktische Ressource für andere, die eine kritische Praxis entwickeln wollen.

Zweckbestimmung

Die Zweckbestimmung hat sich durch die Arbeit an diesem Text konkretisiert und transformiert. Die ursprüngliche Idee einer rein quantitativen Steigerung der Publikationsfrequenz wurde durch eine qualitative Neuausrichtung ersetzt. Der durch KI-Effizienz gewonnene Freiraum wird in die Entwicklung neuer, nicht-kommerzieller, dialogischer Formate investiert, die Räume für echte intersubjektive Anerkennung jenseits von Klick-Logiken schaffen sollen. Das Ringen mit der Maschine wird selbst Teil des Inhalts zukünftiger Arbeiten.

/end/