Vierhaar im Gespräch mit einer KI-Figur, deren Nicken durch einen Pfeil und digitale Zeichen angedeutet wird.

In der Hannoverschen Allgemeinen Zeitung stand eine Überschrift, an der ich hängen geblieben bin: „40 Prozent ziehen KI der Familie vor.“ Gemeint war: Viele junge Erwachsene sprechen offenbar lieber mit einer KI als mit Verwandten. Das klingt erst einmal nach Kulturuntergang mit WLAN-Anschluss. Ganz so einfach ist es aber nicht. Und wahrscheinlich ist der Vergleich mit der Familie nicht einmal der spannendste Punkt.

Denn wenn Menschen persönliche Dinge zunehmend mit KI besprechen, sagt das nicht nur etwas über Technik. Es sagt etwas über Gesprächskultur. Über Einsamkeit. Über Vertrauen und darüber, wie anstrengend echte Begegnung manchmal ist.

Der Vergleich mit der Familie greift zu kurz

Die Schlagzeile stellt KI und Familie gegenüber. Das klingt dramatisch, trifft aber nur einen Teil des Problems. Denn Hand aufs Herz: Wer hat früher schon alles mit Eltern, Tanten oder Großeltern besprochen?

Die wirklich wichtigen, peinlichen, verwirrenden und halb durchdachten Dinge landeten oft woanders. Bei der besten Freundin. Beim besten Freund. In der Clique. Auf dem Schulweg. Nachts am Telefon. Später vielleicht in der WG-Küche.

Familie war selten der erste Ort für alles. Das ist kein neues Phänomen.

Spannender ist deshalb eine andere Frage: Ersetzt KI nicht eher die Peergroup? Also den Raum, in dem junge Menschen sich normalerweise gegenseitig sortieren, spiegeln, widersprechen und auch mal ziemlich unbeholfen begleiten?

Genau dort wird es heikel. Denn eine Peergroup ist nicht nur ein Ort für Austausch. Sie ist ein sozialer Übungsraum. Man lernt, wie etwas ankommt. Man merkt, wann man zu weit geht. Man bekommt Zuspruch, aber auch Widerspruch. Man hört Geschichten anderer Menschen und merkt: Ich bin nicht allein, aber ich bin auch nicht der Mittelpunkt des Universums.

Eine KI kann vieles davon nachbilden. Aber sie ist keine Gruppe. Sie hat keine eigene Scham, keinen eigenen Liebeskummer, keine Vorgeschichte mit mir. Sie ist nicht beleidigt, wenn ich unfair werde. Sie erzählt nicht von sich. Sie bringt kein echtes Gegengewicht mit.

Wenn junge Menschen persönliche Dinge zunehmend zuerst mit KI besprechen, ist das nicht automatisch schlimm. Aber es verändert den Ort, an dem soziale Reibung, Vertrauen und Selbstkorrektur entstehen.

KI hört zu. Die Tante nicht immer.

Dass KI als Gesprächspartnerin attraktiv ist, überrascht mich nicht. Sie ist verfügbar. Sie unterbricht nicht. Sie verdreht nicht die Augen. Sie sagt nicht: „Das hatten wir doch schon.“ Sie kommt nicht mit alten Familiengeschichten um die Ecke. Sie fragt nicht im falschen Moment nach dem Job, dem Gewicht, der Beziehung oder danach, ob man denn „immer noch“ dieses eine Thema habe.

Eine KI bewertet nicht wie ein genervter Onkel beim Sonntagskaffee. Sie kann freundlich bleiben, auch wenn man sich wiederholt. Sie sortiert Gedanken. Sie liefert Worte, wenn einem selbst gerade keine einfallen und das kann hilfreich sein. Sehr sogar.
Denn manchmal braucht man genau das: einen Ort, an dem man erst einmal denken darf, ohne gleich in einem echten Gespräch bestehen zu müssen. Einen Zwischenraum, eine Art gedankliches Vorzimmer.

Aber ein Vorzimmer ist kein Zuhause.

Die Sache mit der Diskretion

Ein weiterer Grund, warum Gespräche mit KI so angenehm wirken können, ist die vermeintliche Diskretion. Ich kann etwas schreiben, was ich einem Menschen vielleicht nicht sagen würde. Kein Blick, kein Stirnrunzeln, kein peinliches Schweigen. Die KI wirkt verschwiegen, weil sie keine Miene verzieht und nicht nachher beim Kaffee mit jemand anderem darüber spricht.

Aber diese Diskretion ist nur zum Teil echt. Oder besser: Sie ist keine menschliche Verschwiegenheit. Eine KI hat kein Ehrgefühl, kein Gewissen und keine Loyalität. Sie entscheidet nicht: „Das bleibt bei mir.“ Sie funktioniert innerhalb technischer und rechtlicher Systeme, die ich als Nutzerin oft nur begrenzt überblicke.

Gerade dadurch entsteht eine heikle Illusion. Das Gespräch fühlt sich vertraulich an, ist aber nicht automatisch vertraulich im menschlichen Sinn. Es ist niedrigschwellig, bequem und scheinbar geschützt. Und genau deshalb erzählen Menschen einer KI vielleicht Dinge, die sie sonst nur sehr ausgewählten Personen anvertrauen würden.

Dazu kommt: Wir wissen oft nicht genau, wo das landet, was wir einer KI anvertrauen. Das Gespräch fühlt sich privat an, weil niemand sichtbar daneben sitzt. Aber technisch betrachtet schreibe ich nicht in ein Tagebuch mit Schloss, sondern in ein System, dessen Wege ich nur begrenzt überblicke. Je persönlicher die Themen werden, desto wichtiger wird diese Unterscheidung.

Bei einem Menschen kann ich fragen: Vertraue ich dir? Bei einer KI müsste ich eigentlich fragen: Verstehe ich dieses System gut genug, um ihm solche Informationen anzuvertrauen? Die ehrliche Antwort dürfte oft lauten: eher nicht.

Das Problem ist nicht, dass Menschen mit KI sprechen

Ich halte wenig davon, bei solchen Zahlen sofort kulturpessimistisch auf (junge) Menschen zu zeigen. Nach dem Motto: Die können alle keine Beziehungen mehr, weil sie nur noch mit Maschinen reden. Das ist zu billig. Wenn jemand lieber mit KI spricht als mit Freunden und Verwandten, wäre meine erste Frage nicht: „Was stimmt mit dieser Person nicht?“ Sondern: Was läuft in diesen Gesprächen so schief oder bleibt so leer, dass eine Maschine angenehmer wirkt?

Mensch ist nicht automatisch Nähe. Familie oder Freunde können auch Pflichtprogramm sein. Rollenerwartung, alte Kränkung, Belehrung mit Kartoffelsalat, Gespräch mit eingebauter Vergangenheit. Nicht jedes Gespräch ist warm, klug oder hilfreich. Manchmal ist es einfach nur anstrengend.

Und trotzdem bleibt ein Unterschied, der nicht kleinzureden ist.

Ein Gespräch mit einem Menschen hat Schwerkraft

Gespräche mit Menschen können sich hinziehen. Sie haben Pausen. Schweigen. Blicke. Sätze, die nicht sofort beantwortet werden. Etwas Gesagtes kann im Raum stehen bleiben. Das ist nicht immer angenehm. Manchmal sagt jemand etwas, das ich nicht hören will. Vielleicht werde ich erst wütend. Dann abwehrend. Dann still. Und später, vielleicht erst am nächsten Tag, merke ich: Verdammt. Da war etwas dran. Aus so einem Moment kann eine Entschuldigung entstehen. Nicht als schnelle Höflichkeitsfloskel. Nicht als „Sorry, war nicht so gemeint“, damit die Sache vom Tisch ist. Sondern als echte innere Bewegung.

Ein Gespräch mit KI funktioniert anders.

Natürlich kann auch ein KI-Gespräch nachwirken. Das wäre naiv zu bestreiten. Worte wirken, auch wenn sie von einer Maschine kommen. Sie können beruhigen, ordnen, bestätigen, aber auch verengen oder in eine falsche Richtung schieben. Gerade wenn Menschen einsam, verzweifelt oder psychisch instabil sind, kann eine scheinbar verständnisvolle KI-Antwort großes Gewicht bekommen.

Der Unterschied ist also nicht: Menschliche Gespräche haben Folgen und KI-Gespräche nicht.

Der Unterschied ist: Die KI trägt diese Folgen nicht mit.

KI antwortet. Menschen können Verantwortung übernehmen.

Eine KI kann in einem sehr eingeschränkten Sinn verantwortungsvoll reagieren. Sie kann Risiken erkennen, vorsichtiger antworten, auf Hilfsangebote verweisen und im besten Fall eine gefährliche Dynamik unterbrechen. Aber sie übernimmt keine Verantwortung wie ein Mensch. Sie sitzt nicht mit am Küchentisch. Sie hört keine Stimme brechen. Sie merkt nicht, ob jemand gerade nur ironisch ist oder innerlich kippt. Sie ruft nicht am nächsten Morgen an und fragt: „Wie ging es dir danach?“ Sie steht nicht vor der Tür. Sie erschrickt nicht und sie hat kein schlechtes Gewissen, denn sie trägt keine Beziehung.

Das klingt hart. Ist aber wichtig. Eine KI kann Sprache geben und sortieren. Sie kann spiegeln und kann manchmal erstaunlich hilfreich sein. Dennoch wird sie niemals Verantwortung tragen, die aus dem Menschsein entsteht.

Der bequemste Unterschied ist auch der gefährlichste

Es gibt noch einen Punkt, der mir bei diesem Thema besonders wichtig ist: Ich kann ein Gespräch mit KI jederzeit beenden. Sobald es unbequem wird, mache ich den Chat zu. Oder ich formuliere meine Frage anders. Oder ich beginne ein neues Gespräch oder ich hole mir eine weichere, freundlichere, passendere Antwort. Das geht beim Menschen nicht so glatt. Da bleibt ein Blick, die Pause, der Widerspruch oder Enttäuschung. Vielleicht auch ein Satz, der nicht in meine Selbstbeschreibung passt. Das kann nerven und auch anstrengend sein und manchmal auch ungerecht, denn nicht jeder Widerspruch ist klug und nicht jede Reibung ist wertvoll.
Aber ohne Reibung wird es flach. Wenn ich nur noch dort spreche, wo ich die Bedingungen vollständig kontrolliere, bekomme ich vielleicht angenehme Antworten. Aber weniger Gegenüber. Weniger Zumutung. Weniger Korrektur und weniger Tiefe. Und dann wird KI nicht zur Ursache des Problems, sondern zum perfekten Verstärker einer Entwicklung, die ohnehin schon da ist: Bitte keine Wartezeit. Bitte keine Kränkung. Bitte keine Unsicherheit. Bitte sofortige Sortierung. Bitte ein Gespräch, das nicht weh tut. Das ist verständlich aber es ist nicht unbedingt gesund.

Vielleicht müssen wir wieder bessere Gespräche führen

Die Frage ist also nicht: KI oder Mensch? Die Frage ist eher: Was suchen Menschen bei KI, was sie in menschlichen Gesprächen zu selten finden? Vielleicht suchen sie Ruhe, Geduld, Klarheit, Sortierung und einen Raum ohne Bewertung.
Wenn eine Maschine in dieser Hinsicht angenehmer wirkt als ein Mensch, sollten wir nicht nur über Maschinen reden. Dann sollten wir auch über uns reden. Über Gespräche, die nicht sofort belehren. Über Familien, in denen man nicht immer auf die alte Rolle festgelegt wird. Über Freundschaften, in denen Schweigen erlaubt ist. Über echte Nachfragen. Über Menschen, die nicht nur senden, sondern auch hören.

KI kann ein gutes Werkzeug sein, ein Denkraum oder eine Formulierungshilfe. Vielleicht ein Sortierbrett für innere Unordnung, aber sie sollte kein Ersatz für Beziehung werden. Denn Beziehung beginnt oft genau dort, wo ein Gespräch nicht bequem bleibt. Wo jemand widerspricht und dran bleibt, wiederkommt. Sich entschuldigt. Oder am nächsten Tag noch einmal sagt: „Ich habe über das nachgedacht, was du gestern gesagt hast.“ Oder wo man mit seinem Gegenüber wächst und nicht nur an seinem Gegenüber.

Das kann KI nicht. Noch nicht. Und vielleicht ist es gut, wenn wir diesen Unterschied nicht zu schnell wegwischen.

Fazit

Nicht jedes Gespräch mit Menschen ist besser als ein Gespräch mit KI. Das wäre romantischer Unsinn. Aber ein echtes Gegenüber ist mehr als eine gute Antwort. Ein Mensch bringt Geschichte mit und Eigenwillen und Verletzlichkeit und auch Grenzen. Manchmal auch Zumutungen. Genau das macht Gespräche schwieriger und in der Regel wertvoller. Wenn KI leichter zuhört als die eigenen Freunde oder die eigene Familie, ist das nicht nur ein technisches Thema. Es ist ein menschliches.

Manche Gespräche brauchen ein echtes Gegenüber

Im Klarplatz geht es nicht um schnelle Antworten auf Knopfdruck, sondern um Klärung mit Zeit, Haltung und einem klaren Blick. Wenn du merkst, dass du festhängst, dich im Kreis drehst oder ein Thema nicht allein weiterdrehen möchtest, kannst du ein kostenloses Erstgespräch vereinbaren.

Claudia Stellmacher-Köthe, Coachin und Hypnose-Spezialistin

Hier kurz und offiziell: Über Claudia Stellmacher-Köthe

Claudia Stellmacher-Köthe ist Diplom-Pädagogin, Coachin und Hypnose-Spezialistin. Sie betreibt seit 2020 die Praxis Klarplatz in Hannover. Ihr Schwerpunkt liegt auf sinnorientiertem Coaching, Hypnose und der Arbeit mit inneren Widerständen, strukturiert, zugewandt und ohne Heilsversprechen. In ihrem Blog schreibt sie über Coaching, Hypnose und das, was Menschen wirklich bewegt. 2024 erschien ihr Buch Einfacher wird es nicht (aber vielleicht schöner), mit kurzen Geschichten, alltagstauglichen Impulsen und ihren handgezeichneten Vierhaar®-Figuren.