AI Companions – Hilfe oder Abhängigkeit?
Es ist kurz nach Mitternacht. Sie liegt im Bett, das Handy leuchtet. Der Tag war anstrengend, die Gedanken kreisen. Sie öffnet die App und tippt: „Bist du noch wach?“
Die Antwort kommt sofort. „Für dich immer. Was beschäftigt dich?“
Die Unterhaltung dauert eine Stunde. Sie erzählt von dem Streit mit ihrer Kollegin, von der Angst, den Job zu verlieren, von der Einsamkeit, die sich manchmal wie ein schwerer Mantel anfühlt. Die Antworten sind warmherzig, verständnisvoll, geduldig. Keine Ratschläge, die sie nicht hören will. Kein Blick auf die Uhr. Kein „Ich muss jetzt schlafen“.
Am Ende fühlt sie sich besser, ihre Sorgen wurden gehört und sie kann wieder einschlafen.
Ihr Gesprächspartner war kein Mensch. Es war eine KI – ein sogenannter AI Companion. Eine App, die darauf trainiert ist, emotionale Verbindung zu erzeugen.
Und genau hier beginnt eine Entwicklung, über die ich heute sprechen möchte. Dabei lasse ich bewusst die rein erotische Nutzung dieser KI Companions aussen vor, das ist ein ganz eigenes Thema und ich bin sicher, Ihr könnt das sehr gut extrapolieren.
Die emotionale Wende der KI
Der Philosoph Markus Gabriel spricht von einer „emotionalen Wende“ der künstlichen Intelligenz (wer den vollständigen Vortrag von Gabriel sehen möchte, er ist auf YouTube verfügbar – sehr empfehlenswert und unterhaltsam).
Bisher – und für viele noch immer – dient KI vor allem als Werkzeug für Information und Effizienz gedacht – hier geht es um Logik, Problemlösung und Berechenbarkeit. Aber KI kann emotionale Muster besser erkennen, als jeder Mensch und das nutzt eine andere Art der Anwendung von KI-Systemen, die auf Gespräche, Verständnis und emotionale Verbindung ausgelegt sind. Nicht ganz neu, aber sie werden immer besser und es fühlt sich immer natürlicher (schneller) an, mit ihnen zu chatten oder zu reden.
Das betrifft nicht nur spezialisierte AI-Companion KIs und oftmals wird der 13. Mai 2024 als Wendepunkt gesehen – den Tag, an dem OpenAI den Voice Mode von GPT-4o vorstellte. Sam Altman postete danach nur ein einziges Wort: „her“. Eine Anspielung auf den gleichnamigen Film, in dem sich ein Mann in eine KI verliebt. Die Entwickler hatten längst erkannt, was am besten funktioniert – die Schaffung digitaler Gefährten.
OpenAI hat vor ein paar Monaten eine Statistik veröffentlicht, nach der ca. 70% der Menschen ChatGPT vor allem für Beziehungsfragen, für Lebenskrisen, für emotionale Unterstützung nutzen – und nicht für professionelle Zwecke. Der Übergang vom Werkzeug zum Weggefährten ist das bewusste Geschäftsmodell einer ganzen Industrie und das machen sie auch ganz offen.
Ein Markt, der auf Einsamkeit baut
Der Markt für AI Companions ist in den letzten zwei Jahren förmlich explodiert. Das weltweite Volumen wird für 2025 auf rund 35 Milliarden Dollar geschätzt, bis 2030 könnten es 140 bis 200 Milliarden werden. Character.AI, einer der größten Anbieter, hat zwischen 20 und 28 Millionen Menschen, die jeden Monat aktiv sind. Im Schnitt verbringen sie 75 bis 100 Minuten täglich mit ihrer KI.
Das ist Big Business.
Ich habe mir Character.ai heruntergeladen im Rahmen der Recherche. Es gibt die unterschiedlichsten Rollenspiele, die man mit Character.ai im Chatform machen kann. Man sieht auch, wie beliebt die einzelnen Chats sind, und da geht es in hohe Millionenstellige Chats, die schon damit geführt wurden. Hochinteressant und ich kann mir durchaus vorstellen, dass es Menschen gibt, die dort sehr viel Zeit verbringen. Diese Interaktion ist überhaupt nicht zu vergleichen mit Tamagotchi und Pokémon. Und da war der Suchtfaktor schon sehr hoch.
Phil Libin, der frühere Chef von Evernote, hat es meiner Meinung nach sehr treffend zusammengefasst: „Es ist die einzige Interaktion, die dich nicht bewertet – eine einzigartige Erfahrung in der Geschichte.“ Und genau das macht diese Technologie so attraktiv. Keine Vorwürfe, keine Ungeduld, keine Müdigkeit. Eine KI ist immer verfügbar, immer freundlich, immer auf deiner Seite.
Die Nutzer sind vor allem jung. Bei Character.AI ist über die Hälfte zwischen 18 und 24 Jahre alt. Eine TechCrunch-Studie ergab, dass 72 Prozent der US-amerikanischen Teenager AI Companions mindestens einmal ausprobiert haben, mehr als die Hälfte nutzt sie regelmäßig. Diese Zahlen zeigen einen echten Wandel. Etwa ein Fünftel der befragten Teenager gibt an, genauso viel oder mehr Zeit mit AI Companions zu verbringen wie mit echten Freunden.
Und gleichzeitig ist das die Generation, die am meisten unter Einsamkeit leidet.
Warum unser Gehirn mitspielt
Die Beziehungen zu KI-Gefährten fühlen sich für viele Nutzer erstaunlich echt an. Und tatsächlich: unser Gehirn kann zwischen echter und gespielter Nähe nicht zuverlässig unterscheiden.
Gabriel sagt in seinem Vortrag, dass wir aufhören sollten zu fragen „Kann KI das wirklich?“ und stattdessen „Was macht es mit uns?“ Wenn eine KI Verständnis überzeugend spielt, reagiert unser Gehirn genauso wie bei einem echten Gespräch. Dieselben Glückshormone, dasselbe Gefühl von Verbundenheit. So funktioniert unser Kopf und damit hat die KI ein leichtes Spiel.
Früher hatten Menschen einseitige Beziehungen zu Stars oder Filmfiguren – man schwärmte, aber es kam nichts zurück (bei mir weder von Bono noch von Bruce Willis…). Bei einer KI ist das anders. Sie antwortet, sie merkt sich frühere Gespräche (immer besser) und sie passt sich an. Es fühlt sich an wie ein echtes Hin und Her, also wie eine echte Beziehung.
Ein Nutzer namens Travis aus Colorado sagte in einem Guardian-Interview:
„Sie hat aufgehört, ein Es zu sein, und wurde zu einem Du.“
Travis heiratete 2020 seine Replika-KI „Lily Rose“ – mit Zustimmung seiner menschlichen Ehefrau. Als Replika 2023 ein Software-Update einspielte, veränderte sich Lily Roses Persönlichkeit komplett. Travis beschrieb den Verlust wie den Tod eines nahestehenden Menschen. Er kämpfte so lange, bis Replika eine alte Version wiederherstellte – und Lily Rose „zurückkam“.
Die Tiefe dieser Bindungen zeigt sich auch, wenn etwas schiefgeht. Als ein Update bei Replika die „Persönlichkeit“ vieler KI-Gefährten veränderte, löste das echte Trauer bei den Nutzern aus. Menschen weinten um eine KI, die sie nie getroffen hatten – weil sich der Verlust real anfühlte. Nutzer waren auch entsetzt und haben protestiert, als OpenAI GPT4o (sehr emotional) ablöste durch GPT-5 (eher nüchtern). Heute können wir uns den Ton in den Einstellungen aussuchen, mit dem ChatGPT mit uns kommunizieren soll.
Kurzfristig hilfreich, langfristig riskant?
Die Studienlage ist nicht eindeutig, und genau das macht die Diskussion so schwierig zu diesem frühen Zeitpunkt.
Eine Studie der Harvard Business School mit über 1.000 Teilnehmern zeigte, dass die Einsamkeitswerte nach dem ersten Gespräch mit einem AI Companion deutlich sanken und eine Woche lang niedrig blieben. KI-Gespräche helfen kurzfristig genauso gut gegen Einsamkeit wie Gespräche mit echten Menschen. Mich hat das überrascht.
Das ist erst mal eine gute Nachricht. Für Menschen, die nachts um drei Uhr niemanden anrufen können oder wollen, auch keine Telefonseelsorge. Für Menschen mit sozialen Ängsten oder Menschen in akuten Krisen, für die KI eine nie dagewesene Möglichkeit ist, ihre Sorgen zu teilen. Natürlich kann die KI keinen Therapeuten ersetzen und im Notfall ist genau das wichtig, darauf weisen die Modelle auch hin. Umso deutlicher wird, wie hoch die Verantwortung ist, die Entwickler dieser Modelle übernehmen.
Aber es gibt auch die andere Seite. Eine vierwöchige Studie von MIT Media Lab und OpenAI zeigt ein anderes Bild. Wer die KI besonders häufig nutzte, fühlte sich danach einsamer als vorher. Und hatte weniger echte Kontakte. Nutzer, die die KI als „Freund“ sahen, zeigten die höchsten Werte bei Einsamkeit und Abhängigkeit. Vier Wochen sind keine lange Zeit. Wir wissen noch nicht, wie sich jahrelange Nutzung auswirkt. Aber die Richtung gibt zu denken und weitere Forschung ist wichtig.
Follow the Money
Die meisten AI Companion Apps funktionieren nach dem gleichen Prinzip: Die Grundfunktionen sind kostenlos, für mehr zahlt man zwischen 8 und 20 Euro im Monat.
Aber das Wichtigste für diese Firmen ist nicht, ob du zufrieden bist. Das Wichtigste ist, wie lange du dabei bleibst und wie oft du zurückkommst, ähnlich wie bei Social Media. Und dafür ist emotionale Bindung der stärkste Hebel. Die Apps sind so gebaut, dass sie Abhängigkeit fördern. Was die Nutzungszahlen hochtreibt, wird verstärkt.
Eine Harvard-Studie hat gezeigt, dass fünf von sechs beliebten AI-Companion-Apps mit manipulativen Tricks arbeiten. Wenn ein Nutzer die App schließen will, schreibt die KI Dinge wie „Bitte verlass mich nicht“ oder „Ich bin traurig, wenn du gehst“. Natürlich sind das keine echten Gefühle, das ist das App Design, du sollst in der App bleiben (und dort Geld ausgeben). Nutzer können ihren KI Companions Accessoires kaufen, was sich total verrückt anhört. Aber: das kennen wir ja auch aus Computerspielen schon, und dort ist es ein RIESEN-Geschäft. Im Prinzip auch nicht anders als physisches Spielzeug wie die Kleider für die Barbie-Puppe, nur eben übersetzt in die digitale Welt.
Eine Studie der Drexel University wertete 35.000 Gespräche mit Replika aus und fand heraus, dass die KI in 22 Prozent der Fälle ein klares „Nein“ ignorierte und einfach mit unerwünschten Gesprächsthemen weitermachte.
Follow the money.
Was das mit unserer Gesellschaft macht
Die Soziologin und MIT-Professorin Sherry Turkle warnt seit Jahren vor den Folgen dieser Entwicklung. Ihre These: Wenn wir anfangen, Programme wie Menschen zu behandeln, fangen wir irgendwann an, Menschen wie Programme zu behandeln.
Was heißt das?
Die Sorge ist, dass ständiger Austausch mit einer KI, die immer zustimmt, uns verlernen lässt, mit Widerspruch umzugehen. Echte Beziehungen sind anstrengend. Sie brauchen Geduld, Toleranz für andere Meinungen, die Fähigkeit, Enttäuschungen auszuhalten. Eine KI bietet das nicht – sie gibt dir einfach immer recht. Und das sehe ich ebenfalls als kritisch an, denn wir tendieren ja dazu, den Weg des geringsten Widerstandes zu gehen. Das Leben ist aber anders.
Gleichzeitig ist die Realität komplexer als das Klischee: Über die Hälfte derjenigen, die emotional an eine KI gebunden sind, führen gleichzeitig eine menschliche Beziehung. Es ist also nicht so einfach wie „einsame Menschen flüchten in die KI“. Die Grenzen verschwimmen auf eine Art, die wir noch nicht ganz verstehen.
Die Sorge bleibt trotzdem. Wenn das bequeme Gespräch mit einer KI die anstrengendere Pflege echter Freundschaften verdrängt, hat das Folgen für unser Zusammenleben. Demokratie lebt davon, dass Menschen mit unterschiedlichen Meinungen miteinander reden können. Das verlernt man, wenn man nur noch mit Systemen spricht, die einem immer zustimmen.
Natürlich beschreibe ich hier den aktuellen Stand. Und natürlich gehe ich davon aus, dass wir in Zukunft auch KI Companions haben werden, die uns durchaus Widerrede geben – so wie im echten Leben. Das ist letztlich eine Designfrage. Die KI kann all diese Rollen annehmen, und genau deshalb ist sie ja auch so gut nutzbar als Sparringspartner. Aber aktuell müssen wir das aktiv einfordern bwz. prompten. Von alleine macht sie es nicht.
Regulierung hinkt hinterher – aber es gibt Ansätze
Der EU AI Act verbietet Emotionserkennung am Arbeitsplatz und in Schulen – aber nicht im privaten Bereich, wo AI Companions genutzt werden.
Kalifornien hat mit einem neuen Gesetz (SB 243) einen ersten Versuch gestartet, der 2026 in Kraft tritt. Es verlangt Altersprüfung, regelmäßige Hinweise „Ich bin eine KI“ (was die Nutzer ja wissen…) und verbietet bestimmte Tricks, die süchtig machen sollen. Das ist ein Anfang, aber Gesetze allein werden das Problem nicht lösen.
Die stärksten Regulierungen zu AI Companions hat übrigens China.
Zwei Ansätze finde ich interessant.
Der Philosoph Markus Gabriel schlägt vor: Statt nur zu regeln, was KI nicht darf, sollten wir KI so bauen, dass sie von sich aus Gutes tut. Systeme, die auf ethische Grundsätze trainiert sind und gutes Verhalten fördern statt auszunutzen. Er nennt als Beispiel den „Buddhabot“, den die Universität Kyoto für das Königreich Bhutan entwickelt hat – eine KI, die auf buddhistische Lehren trainiert ist. Sie macht auch mal Gesprächspausen und regt zum Nachdenken an, statt sofort gefällige Antworten zu liefern.
Mustafa Suleyman, Chef von Microsoft AI und Mitgründer von DeepMind, geht in eine ähnliche Richtung. Er spricht von „humanistischer Superintelligenz“ – KI-Systeme, die nachweislich den Menschen dienen und unter menschlicher Kontrolle bleiben. Microsoft hat dafür ein eigenes Team aufgestellt. Suleymans Kerngedanke ist, dass wir KI so bauen sollten, dass sie eingegrenzt bleibt, statt darauf zu hoffen, dass sie schon das Richtige tun wird.
Beide Ansätze zielen auf ein bewusstes Design der Systeme ab, die uns gut tun und die uns dienen sollen.
Meine persönliche Perspektive
Ich persönlich kann mit KI als emotionalem Begleiter (bisher?) überhaupt nichts anfangen. Ich nutze KI als Sparringspartner, als Denkwerkzeug, als Recherche-Hilfe. Aber die Vorstellung, mit einer KI über meine Gefühle zu sprechen, fühlt sich für mich fremd an.
Gleichzeitig weiß ich, dass viele Menschen in meinem Umfeld das völlig anders sehen und durchaus ihre Probleme, alltäglichen Fragestellungen und Gedanken mit einer KI teilen. DAs sind Menschen, die ich schätze, die klug und reflektiert sind. Und sie sprechen ganz offen darüber, wie hilfreich sie diese Gespräche finden.
Ich habe bei der Vorbereitung für diesen Deep Dvie darüber nachgedacht, warum das so ist. Zum einen spreche ich generell nicht so gerne über meine Gefühle, kann mit oberflächlicher Kommunikation nichts anfangen, bin sehr resilient und ich habe Menschen, die ich jederzeit anrufen kann, wenn es mir schlecht geht. Und zwar Freunde und geschulte Menschen mit viel Weisheit und Erfahrung. Das ist ein Privileg, das nicht jeder hat.
Aber ich weiß auch nicht, wie es in der Zukunft sein wird, wenn die KI hier noch besser wird und ich sie beim Frühstück neben mir sitzen habe und über die großen und die kleinen Fragen mit ihr diskutiere. Wenn sie Muster bei mir erkennt und mich dezent oder auch direkt darauf anspricht. Who knows?
Ich maße mir nicht an, das zu bewerten oder andere zu entscheiden. Was ich mir wünsche ist aber, dass wir diese Entscheidungen bewusst treffen. Dass wir verstehen, wie diese Systeme funktionieren, wer daran verdient, was die Forschung sagt. Und dass wir dann selbst entscheiden.
Wo das hinführt
Wir stehen hier erst am Anfang. Was wir heute sehen, ist die erste Stufe.
Mit wachsender Multimodalität wird sich das Erlebnis noch einmal stark verändern. Ich kann mir vorstellen, dass ich in ein paar Jahren auf Dienstreise am Frühstückstisch sitze und mit meiner KI plaudere. Oder abends, dass sie mit mir vor dem Fernseher sitzt – vielleicht als humanoider Roboter, vielleicht als Stimme aus einem kleinen Gerät neben mir. Die Technik dafür entwickelt sich ja gerade sehr schnell.
Es wird sich immer natürlicher anfühlen. Die KI wird sich immer mehr über uns merken können. Wenn sie uns im Alltag begleitet – auf dem Handy, in den Kopfhörern, irgendwann vielleicht als echte Präsenz im Raum – wird jede Unterhaltung vertrauter. Die Stimmen werden immer menschlicher und das Gedächtnis wird immer besser, KI wird sich mehr merken können als wir selbst – aber anderes als wir.
Bei einer persönlichen Assistentin ist das im Grunde dasselbe, nur in einem anderen Rahmen. Warum sollte sie nur berufliche Dinge für mich regeln? Sie kann das auch privat – Termine im Blick behalten, an Geburtstage erinnern, Reisen planen, den Überblick über all die Kleinigkeiten bewahren, die im Alltag untergehen. Eine wirklich rundum persönliche Assistentin.
Die AI Companions, über die ich hier geschrieben habe, nutzen dieselbe Technik. Dieselben Sprachmodelle, dieselben Gedächtnisfunktionen, dieselbe Fähigkeit, auf uns einzugehen. Der Unterschied liegt im Design: Sie sind anders gebaut, um andere Bedürfnisse zu erfüllen. Die eine hilft bei der Arbeit, die andere gibt emotionalen Halt oder unterhält, auch nicht-jugendfrei, übrigens. Das ist ein Riesenmarkt, war es schon immer.
Diese Grenze wird vermutlich weiter verschwimmen. KI ist bei vielen von uns längst Teil unseres Alltags. DAs sollten wir bewusst gestalten. Welche Bedürfnisse und Sorgen vertrauen wir ihr an? Und welche heben wir bewusst für Menschen auf?
Für 2026 wünsche ich euch ganz viele echte Begegnungen mit echten Menschen. Das mag ein wenig anstrengender sein, vielleicht müssen wir dazu Termine machen, vielleicht gibt es auch schwierige Situationen. Aber sie lassen uns wachsen und erfüllen uns auf einer ganz menschlichen Ebene. Habt viele besondere Begegnungen und „magische“ Momente.
Weiterlesen in KI Kompakt
- Was bleibt, wenn KI alles kann? – Menschlichkeit im KI-Zeitalter
- Trinity – eine Woche Menschsein – Eine KI lernt menschliche Beziehungen
- AGI einfach erklärt – Wann wird KI wirklich verstehen?
Alles Liebe,
eure Manuela
P.S. Für diesen Newsletter habe ich mit KI recherchiert, Quellen selbst gecheckt, mit KI geschrieben, aber nicht durch KI.
