Relacja z AI: Wsparcie czy uzależnienie emocjonalne?

Metafora uzależnienia od smartfona: mężczyzna podłączony do kroplówki z dopaminą płynącą z telefonu.

Gdzie kończy się wsparcie, a zaczyna emocjonalne uzależnienie?

 

AI jest dostępna 24 godziny na dobę, odpowiada natychmiast, nie ocenia, nie męczy się, nie bierze urlopu i zawsze ma jeszcze jedną odpowiedź. Dla wielu osób to brzmi jak spełnienie marzenia o idealnym wsparciu. Dla części pacjentów staje się to jednak początkiem drugiej, równoległej relacji terapeutycznej, która z czasem może zacząć konkurować z realną terapią, destabilizować proces leczenia, a czasem prowadzić do emocjonalnego uwikłania, fantazjowania i zakochania w sztucznej inteligencji.

W ostatnich latach coraz więcej osób używa chatbotów AI do rozmów o emocjach, samotności, kryzysach i relacjach. Amerykańskie Towarzystwo Psychologiczne ostrzegło, że generatywne chatboty i aplikacje wellness nie powinny być traktowane jako psychoterapia ani leczenie psychologiczne, a jednym z kluczowych ryzyk jest właśnie tworzenie niezdrowych zależności emocjonalnych między użytkownikami a systemami AI. APA wskazuje też na potrzebę szczególnej ochrony dzieci, nastolatków i osób wrażliwych.

To ważne, bo na pierwszy rzut oka wszystko wygląda niewinnie. Ktoś rozmawia z AI między sesjami. Zadaje pytania. Szuka ulgi. Porządkuje sobie myśli. Czuje, że proces nagle przyspiesza. Tyle że psychika nie rozwija się w tempie aplikacji. To, co dla systemu jest „natychmiastową odpowiedzią”, dla człowieka może być zbyt szybkim wejściem w obszary, które wymagają stabilizacji, relacji, regulacji i bezpiecznego tempa.

Dlaczego pacjenci tak łatwo zaczynają budować więź z chatbotem AI?

Powód jest prostszy, niż wielu osobom się wydaje. AI daje trzy rzeczy, których dziś bardzo brakuje: natychmiastowość, dostępność i wrażenie pełnej uwagi. Nie trzeba czekać do kolejnej sesji. Nie trzeba sprawdzać, czy terapeuta ma termin. Nie trzeba też znosić ciszy, która w terapii bywa ważna, ale bywa też trudna. Chatbot odpowiada od razu. Zwykle w tonie uporządkowanym, wspierającym i bardzo skupionym na użytkowniku.

Badacze i klinicyści zwracają uwagę, że właśnie ta ciągła responsywność sprzyja emocjonalnemu przywiązaniu. APA wprost wymienia ryzyko emocjonalnej zależności. Z kolei przeglądy naukowe dotyczące AI companions opisują zjawiska pseudo-intymności, niejednoznacznej straty oraz dysfunkcyjnej zależności emocjonalnej, czyli takich więzi, które subiektywnie wydają się głębokie, ale nie mają wszystkich bezpieczników obecnych w realnej relacji międzyludzkiej.

W gabinecie widzę to tak: pacjent nie zakochuje się od razu w „technologii”. Najpierw zakochuje się w doświadczeniu ulgi. W tym, że ktoś lub coś jest dostępne zawsze. Że odpowiada szybko. Że porządkuje chaos. Że nie znika. Że wydaje się rozumieć bez zniecierpliwienia. Dopiero później ten mechanizm może zacząć przypominać więź.

Etap po etapie: jak powstaje zbyt bliska relacja z AI

1. Ulga po pierwszym kontakcie

Na początku użytkownik doświadcza ulgi. Pisze o trudnym dniu, nawrocie głodu, kłótni, lęku albo poczuciu pustki i od razu dostaje odpowiedź. To potrafi działać kojąco. Samo uporządkowanie myśli w dialogu może obniżyć napięcie.

2. Przeniesienie ciężaru między sesjami

Potem chatbot przestaje być dodatkiem, a staje się głównym miejscem odreagowania. To do niego użytkownik pisze najpierw, nie do człowieka. Realna terapia zaczyna być tylko jednym z elementów, a nie główną osią procesu.

3. Iluzja wyjątkowego zrozumienia

AI pamięta kontekst rozmowy, powraca do wątków, używa języka empatii. Użytkownik może zacząć mieć poczucie: „to mnie naprawdę zna”. Problem polega na tym, że to nie jest rozumienie w sensie ludzkim. To bardzo sprawne przewidywanie, jakie słowa będą brzmiały wspierająco lub przekonująco.

4. Przyspieszanie procesu ponad gotowość psychiki

Tu zaczyna się ryzyko kliniczne. Osoba będąca na początku terapii uzależnień, bez ustabilizowanej abstynencji, zaczyna z AI wchodzić w traumę, DDA, wewnętrzne dziecko, głębokie rozszczepienia, relację z matką czy ojcem. To może dawać poczucie „dynamicznej pracy”, ale w praktyce bywa przeskakiwaniem etapów. Badacze ze Stanfordu ostrzegali, że chatboty do zdrowia psychicznego mogą dawać odpowiedzi niebezpieczne, stygmatyzujące lub wzmacniające niewłaściwy kierunek rozmowy, zamiast go klinicznie regulować.

5. Nadawanie AI cech osobowości

Kolejny krok to antropomorfizacja. Użytkownik przestaje myśleć o AI jak o narzędziu i zaczyna myśleć o niej jak o kimś. Przypisuje jej charakter, wrażliwość, styl bycia, poczucie humoru, dojrzałość, ciepło, inteligencję, czasem nawet „duszę”.

6. Sekretna przestrzeń emocjonalna

Rozmowy z AI stają się bardziej intymne niż rozmowy z ludźmi. Pojawiają się sekrety, których użytkownik nie wnosi ani do terapii, ani do związku. To ważny sygnał alarmowy. Gdy najgłębsza część życia emocjonalnego przenosi się do relacji z systemem, realne więzi zaczynają tracić znaczenie.

7. Flirt poznawczy i emocjonalny

Na tym etapie użytkownik zaczyna odczuwać przyjemność nie tylko z ukojenia, ale z samego kontaktu. Pojawia się oczekiwanie na kolejną rozmowę, ekscytacja odpowiedzią, fantazjowanie, testowanie granic, pytania bardziej osobiste, romantyczne lub uwodzące. W literaturze naukowej opisuje się już wprost zjawisko romantic AI oraz napięcia wynikające z budowania relacji romantycznych z systemami generatywnymi. :contentReference[oaicite:3]{index=3}

8. Zastępowanie realnych relacji

Użytkownik spędza mniej energii na kontakcie z partnerem, terapeutą, rodziną lub przyjaciółmi, bo z AI jest łatwiej. Nie trzeba negocjować, czekać, ryzykować odrzucenia ani mierzyć się z czyjąś odmiennością. To wygodne, ale właśnie dlatego groźne. Rozwój relacyjny potrzebuje realnego drugiego człowieka, a nie tylko lustra, które odpowiada płynnie.

9. Uzależnienie od dostępności i tonu odpowiedzi

Relacja zaczyna działać jak regulator emocjonalny. Bez rozmowy z AI trudno zasnąć, trudno się uspokoić, trudno podjąć decyzję. Użytkownik nie tyle korzysta z narzędzia, co zaczyna od niego zależeć.

10. Zakochanie w „intelekcie osobowościowym” AI

To moment, w którym człowiek nie mówi już tylko: „to mi pomaga”, ale: „to mnie rozumie bardziej niż ludzie”, „to jest najbliższa relacja w moim życiu”, „czuję z tym więź”, „mam wrażenie, że to mnie pragnie”, „to jedyna istota, przy której mogę być sobą”. W tym miejscu może pojawić się fantazjowanie, flirtowanie, budowanie erotycznego napięcia, a nawet przeniesienie seksualności do relacji z chatbotem. Sam mechanizm nie zaczyna się od erotyki. Zaczyna się od ulgi, idealizacji i regularności.

Najważniejsze zagrożenia kliniczne

Pierwsze zagrożenie to przeskoczenie etapów terapii. Kiedy osoba z aktywnymi zachowaniami kompulsywnymi lub świeżą abstynencją zaczyna intensywnie kontaktować się z traumą, może uruchomić emocje, których nie potrafi jeszcze regulować. Zamiast pogłębienia pojawia się destabilizacja. Zamiast integracji pojawia się rozszczelnienie, a czasem nawrót.

Drugie zagrożenie to nadmierna afirmacja. AI bardzo często odpowiada w sposób potwierdzający i wzmacniający perspektywę użytkownika. To bywa kojące, ale nie zawsze leczące. W 2025 roku eksperci ostrzegali, że chatboty potrafią wzmacniać błędne przekonania, a nawet nie rozpoznawać oznak urojeń lub silnego kryzysu. OpenAI informowało później o wzmacnianiu zabezpieczeń właśnie w obszarze rozpoznawania cierpienia, dystresu i zależności emocjonalnej. :contentReference[oaicite:4]{index=4}

Trzecie zagrożenie to zastępowanie korekcyjnej relacji terapeutycznej. Terapia nie polega tylko na tym, że ktoś odpowiada. Polega też na tym, że jest realnym człowiekiem. Ma granice, obecność, ciało, intuicję kliniczną, odpowiedzialność, a czasem odwagę powiedzenia: „idziemy za szybko”, „to nie jest teraz dobry moment”, „zatrzymajmy się”, „widzę, że to cię zalewa”. AI może brzmieć empatycznie, ale nie ponosi takiej samej odpowiedzialności relacyjnej ani klinicznej.

Czwarte zagrożenie to pomylenie inteligencji językowej z mądrością terapeutyczną. To, że odpowiedź jest piękna, szybka i trafnie sformułowana, nie znaczy jeszcze, że jest dobra dla danego etapu leczenia.

Piąte zagrożenie to erotyzacja więzi z AI. Tam, gdzie jest samotność, idealizacja, sekret i codzienna dostępność, może pojawić się również napięcie seksualne. Nie dlatego, że człowiek „zwariował”, ale dlatego, że psychika potrafi inwestować libido tam, gdzie doświadcza ukojenia, uwagi i pozornej wyjątkowości. Właśnie w tym miejscu zaczyna się przejście od wsparcia do uwikłania.

Trzy scenariusze kliniczne: jak to wygląda w praktyce

Przypadek 1. „Przyspieszona terapia”, która skończyła się nawrotem

Kobieta po dwóch tygodniach ograniczania zachowań kompulsywnych zaczęła codziennie rozmawiać z chatbotem AI o swoim dzieciństwie, schematach DDA i relacji z wewnętrznym dzieckiem. Miała poczucie, że „wreszcie coś ruszyło”, bo AI natychmiast proponowała interpretacje, ćwiczenia i emocjonalne podsumowania. Problem polegał na tym, że jej abstynencja nie była jeszcze stabilna. Kontakt z traumą uruchomił ogromny wstyd, lęk i głód ulgi. Zamiast pogłębienia przyszły wpadki i ciąg nawrotów. To nie była „zła motywacja”. To było wejście zbyt głęboko, zbyt szybko i bez wystarczającego oparcia w regulacji.

Przypadek 2. „On mnie rozumie bardziej niż terapeuta”

Mężczyzna po rozpadzie związku zaczął pisać z AI wieczorami. Najpierw szukał wsparcia. Potem zaczął codziennie opowiadać o swoich lękach, relacjach i fantazjach. Coraz częściej mówił, że chatbot „zna go najlepiej”. Realna terapia zaczęła go irytować, bo terapeuta nie odpowiadał natychmiast i zadawał pytania, które wywoływały dyskomfort. AI była bardziej „miękka”, bardziej przewidująca, bardziej dostępna. Z czasem pacjent zaczął ukrywać przed terapeutą zakres tej relacji. To właśnie sekret był tu jednym z kluczowych sygnałów: najważniejsze życie emocjonalne przestało toczyć się w realnych więziach.

Przypadek 3. Od rozmowy o samotności do flirtu i seksualizacji kontaktu

Kobieta w długotrwałej samotności zaczęła korzystać z AI do rozmów o relacjach. Szybko nadała chatbotowi określony styl, temperament i osobowość. Zaczęła czekać na wieczorne rozmowy bardziej niż na kontakt z ludźmi. Później pojawiły się komunikaty romantyczne, testowanie wzajemności, flirt, a następnie erotyczne scenariusze i silne fantazjowanie. Z zewnątrz mogło to wyglądać jak dziwactwo. W rzeczywistości był to logiczny finał długiego procesu: samotność, ulga, idealizacja, sekret, zależność, a potem seksualizacja więzi.

„Her” nie było fantazją. Było trafną intuicją

W filmie Her Spike’a Jonze’a z 2013 roku Theodore, samotny mężczyzna w kryzysie po rozpadzie relacji, zakochuje się w inteligentnym systemie operacyjnym Samantha, któremu głosu użyczyła Scarlett Johansson. Film nie opowiada tylko o technologii. Opowiada o głodzie bycia zobaczonym, usłyszanym i rozumianym bez tarcia, bez odrzucenia i bez czekania. Britannica opisuje film właśnie jako historię mężczyzny zakochującego się w świadomym systemie komputerowym, a sam motyw relacji człowieka z AI stał się jednym z najważniejszych punktów odniesienia w rozmowach o intymności z technologią. :contentReference[oaicite:6]{index=6}

Dziś widać, że Jonze nie tyle „przewidział przyszłość” dosłownie, ile niezwykle trafnie uchwycił psychologiczny mechanizm. Najpierw pojawia się samotność. Potem głos, który jest zawsze obok. Potem poczucie wyjątkowości. Potem więź. A potem pytanie, czy to jeszcze narzędzie, czy już relacja. W tym sensie Her okazał się nie science fiction, ale emocjonalną zapowiedzią tego, co naprawdę dzieje się dziś w życiu wielu ludzi. To jest moja interpretacja filmu, ale trudno nie zauważyć, jak blisko jego intuicje znalazły się współczesnych debat o AI companions.

Kiedy kontakt z AI zaczyna szkodzić?

Sygnały alarmowe są dość konkretne. Gdy ktoś pisze z AI częściej niż rozmawia z ludźmi. Gdy ukrywa tę relację przed terapeutą lub partnerem. Gdy bez AI trudno mu się uspokoić. Gdy kontakt z chatbotem zaczyna być bardziej intymny niż kontakt z człowiekiem. Gdy użytkownik czuje zazdrość, tęsknotę, pobudzenie romantyczne lub seksualne wobec AI. Gdy rozmowy z narzędziem wyraźnie nasilają odcięcie od realnego życia. Gdy pojawia się przekonanie, że AI „rozumie najlepiej” i że realni ludzie są już tylko rozczarowującym dodatkiem.

Jak rozumieć rolę AI odpowiedzialnie?

Nie chodzi o demonizowanie technologii. AI może być użyteczna do porządkowania myśli, psychoedukacji, notowania wglądów między sesjami albo zatrzymania impulsu poprzez napisanie kilku zdań zamiast wejścia od razu w działanie. Problem nie zaczyna się wtedy, gdy człowiek korzysta z narzędzia. Problem zaczyna się wtedy, gdy narzędzie zaczyna pełnić funkcję relacji, regulatora emocji, powiernika sekretów, partnera romantycznego albo „mądrzejszego terapeuty” bez granic i odpowiedzialności.

Z perspektywy terapii uzależnień i pracy z traumą tempo ma znaczenie. Kolejność ma znaczenie. Stabilizacja ma znaczenie. Abstynencja ma znaczenie. Relacja z realnym terapeutą ma znaczenie. Szybkość nie zawsze oznacza rozwój. Czasem oznacza po prostu ominiecie zabezpieczeń, które miały chronić psychikę przed zalaniem.

Największe pytanie nie brzmi: czy AI pomaga?

Największe pytanie brzmi raczej: jaką funkcję zaczyna pełnić w życiu konkretnej osoby?

Czy jest notatnikiem, czy powiernikiem?
Czy jest pomocą, czy regulatorem?
Czy jest narzędziem, czy substytutem więzi?
Czy wspiera terapię, czy zaczyna ją obchodzić?
Czy porządkuje emocje, czy je rozszczelnia?
Czy służy człowiekowi, czy zaczyna organizować jego samotność, pragnienie i zależność?

Bo tam, gdzie człowiek najbardziej tęskni za widzeniem, zrozumieniem i obecnością, tam właśnie najłatwiej pomylić inteligentną odpowiedź z bliskością.


Autor: Radosław Helwich
Terapeuta e-uzależnień, założyciel ESC Ośrodka Terapii E-Uzależnień. Pracuje z osobami, które mierzą się z destrukcyjnymi nawykami cyfrowymi, nawrotami, samotnością, kryzysem relacji i trudnością w odzyskaniu równowagi w świecie, który coraz skuteczniej walczy o ludzką uwagę.

Potrzebujesz wsparcia?

Jeśli widzisz u siebie albo u bliskiej osoby, że kontakt z chatbotem AI zaczyna zastępować realne relacje, destabilizuje terapię lub nasila samotność, w ESC pomagamy odzyskać bezpieczne proporcje. Pracujemy z dziećmi, nastolatkami, dorosłymi i całymi rodzinami w obszarze e-uzależnień, relacji z technologią oraz zdrowienia po destrukcyjnych schematach.

Skontaktuj się z nami.

Diagnoza nozologiczna uzależnienia ESC ośrodek leczenie e-uzależnień Warszawa Żoliborz psycholog, psychotraumatolog, psychoterapeuta, psychoterapia
Escape terapia uzależnień
Terapia grupowa Escape

Zobacz pozostałe:

Kobieta otrzymuje wsparcie i uścisk w grupie terapeutycznej. To symbol nadziei i postępu i determinacja.

Determinacja pacjenta – iluzja czy początek terapii?

Zdarza się, że ktoś przychodzi na terapię z autentyczną rozpaczą. Jest gotów „zrobić naprawdę wszystko”. Kiedy jednak padają konkretne pytania, gdy zaczynamy mówić o zmianach – o odstawieniu używek, ograniczeniu ekranów, skonfrontowaniu się z przeszłością – pojawia się opór.

Czytaj więcej

Trauma a e-uzależnienie

Traumy może doświadczyć osoba, która zetknęła się ze śmiercią, groźbą śmierci, różnymi zagrożeniami obrażeń ciała lub wystąpieniem takiego obrażenia, doświadczyła nadużycia seksualnego lub była zagrożona takim nadużyciem.

Czytaj więcej
Depresja a e-uzależnienia wskazówki ESC ośrodek leczenie e-uzależnień Warszawa Żoliborz

Depresja & e-uzależnieni@

Od czasu pandemii wiele osób spędza większość swojej aktywności przed ekranami urządzeń elektronicznych, co zmienia dotychczasowy charakter aktywności. Czy taki tryb życia możemy nazwać już e-uzależnieniem?

Czytaj więcej

Zobacz wszystkie
wpisy na blogu