ChatGPT zastępuje psychologa i psychoterapeutę

Czy ChatGPT zastępuje psychologa i psychoterapeutę? Mężczyzna na terapii oraz atrakcyjna kobieca postać AI wychodząca ze smartfona. Ilustracja do artykułu o granicach AI w zdrowiu psychicznym

Czy ChatGPT zastępuje psychologa i psychoterapeutę? Granice AI w zdrowiu psychicznym

Autor: Radosław Helwich – terapeuta e-uzależnień

Jeszcze niedawno sztuczna inteligencja kojarzyła się głównie z technologią, pracą i automatyzacją. Dziś jednak coraz więcej osób korzysta z niej także wtedy, gdy boli psychika. Pytają o lęk, depresję, traumę, relacje, sens życia, a czasem nawet o to, czy warto dalej żyć.

Dla części ludzi ChatGPT i inne chatboty stają się pierwszym miejscem szukania wsparcia emocjonalnego. Dlatego pojawia się ważne pytanie: czy ChatGPT zastępuje psychologa i psychoterapeutę?

Odpowiedź nie jest prosta. Z jednej strony AI może pomagać, natomiast z drugiej strony ma wyraźne granice, których warto być świadomym.

Spis treści

Dlaczego ludzie pytają AI o zdrowie psychiczne?

Powód jest prosty. AI jest dostępna natychmiast i nie wymaga czekania na termin.

Kontakt z AI można rozpocząć o każdej porze. Odpowiedź pojawia się od razu, a dodatkowo użytkownik może mieć poczucie, że ktoś go słucha i nie ocenia.

Dla osoby samotnej, zalęknionej albo będącej w kryzysie może to być bardzo kuszące. Czasem ktoś nie szuka jeszcze psychologa ani psychoterapeuty. Szuka po prostu chwili ulgi, zrozumienia i poczucia, że nie jest sam.

W czym AI może pomóc?

Warto spojrzeć uczciwie: sztuczna inteligencja może być pomocnym narzędziem, jeśli korzysta się z niej świadomie i z odpowiednimi granicami.

AI może wspierać w:

  • uporządkowaniu myśli,
  • nazwaniu emocji,
  • stworzeniu planu dnia,
  • przypomnieniu technik oddechowych,
  • psychoedukacji,
  • szukaniu pytań do autorefleksji,
  • zebraniu tematów przed terapią.

W takim ujęciu może być dobrym pierwszym krokiem. Może też stać się narzędziem pomocniczym między sesjami terapeutycznymi, a niekiedy bywa mostem do realnej pomocy.

Czego AI nie zastąpi?

Tu pojawia się kluczowa granica. AI nie zastąpi prawdziwej relacji z psychologiem lub psychoterapeutą, ponieważ nie posiada świadomości, empatii i odpowiedzialności człowieka.

Chatbot nie słyszy tonu głosu tak jak specjalista. Spojrzenie pacjenta również pozostaje poza jego zasięgiem. Napięcie w ciele, pauzy i cisza między słowami wymagają obecności człowieka, który potrafi je zauważyć.

Co ważne, AI nie ponosi realnej odpowiedzialności za konsekwencje emocjonalne rozmowy. Może wygenerować odpowiedź, jednak nie buduje relacji w ludzkim sensie.

Psychoterapia to nie tylko odpowiedzi. To także proces, relacja, korektywne doświadczenie i spotkanie dwóch ludzi.

Osobista historia pacjenta ESC

Historia została zmieniona i zanonimizowana, aby chronić prywatność pacjenta.

Jeden z pacjentów powiedział:

„Z AI rozmawiało mi się łatwiej niż z terapeutą. Nie musiałem się wstydzić. Mogłem pisać w nocy. A jeśli coś szło nie tak, mogłem wykasować pamięć i zacząć od nowa, jak w grze.”

Na początku opisywał swoje lęki, dostawał odpowiedzi i czuł chwilową ulgę. Po pewnym czasie zauważył jednak, że krąży w tym samym miejscu.

Wracały podobne emocje, podobne pytania i podobne trudności. Problem nie znikał, lecz przesuwał się na kolejny dzień.

Najważniejsze okazało się więc nie to, co pisał chatbot, ale to, czego pacjent unikał. Chodziło o realne spotkanie, odsłonięcie się przed człowiekiem i pracę nad źródłem bólu.

Czasem AI łagodzi objaw, ale nie dotyka przyczyny.

Kiedy kontakt z AI staje się ryzykiem?

Warto zachować czujność, gdy AI staje się jedynym źródłem wsparcia. Szczególnie wtedy, gdy człowiek zaczyna rezygnować z kontaktu z ludźmi, terapii albo realnej rozmowy.

Niepokojące sygnały mogą wyglądać tak:

  • AI zastępuje terapię mimo pogarszającego się stanu,
  • człowiek coraz bardziej izoluje się od ludzi,
  • pojawia się emocjonalne przywiązanie do chatbota,
  • wracają natrętne myśli, lęk lub depresja,
  • rozmowy z AI trwają godzinami kosztem snu i życia,
  • chatbot staje się głównym sposobem regulowania emocji.

Wtedy problemem nie jest technologia sama w sobie. Znaczenie ma raczej sposób korzystania i funkcja, jaką AI zaczyna pełnić w życiu człowieka.

Jak korzystać mądrze?

AI może wspierać, jeśli zna swoje miejsce. Dobrze traktować ją jako narzędzie, a nie jako jedyne źródło prawdy, bliskości lub pomocy emocjonalnej.

Może pełnić rolę:

  • notatnika myśli,
  • narzędzia porządkującego,
  • wsparcia edukacyjnego,
  • pomocy między sesjami terapeutycznymi,
  • inspiracji do refleksji.

Jednocześnie nie warto traktować jej jako jedynego terapeuty, partnera emocjonalnego czy zastępstwa relacji.

Narzędzie może wspierać człowieka, porządkować myśli i pomagać w autorefleksji. Jego rola kończy się jednak tam, gdzie zaczyna być jedynym źródłem bliskości, ulgi i emocjonalnego bezpieczeństwa.

Kiedy warto szukać pomocy?

Warto porozmawiać ze specjalistą, jeśli AI nie wystarcza, a cierpienie rośnie. Podobnie wtedy, gdy wracają myśli depresyjne, narasta lęk albo coraz trudniej radzić sobie z codziennością.

Sygnałem ostrzegawczym może być także izolowanie się od ludzi. Jeśli rozmowa z chatbotem zaczyna zastępować kontakt z człowiekiem, warto zatrzymać się i przyjrzeć temu bliżej.

Czasem największym krokiem nie jest kolejne pytanie zadane chatbotowi, lecz prawdziwe spotkanie.

Co widzę jako terapeuta e-uzależnień

W gabinecie coraz częściej słyszę zdanie:

„AI pomaga mi bardziej niż ludzie.”

Za tym zdaniem często stoi nie zachwyt technologią, lecz zmęczenie, rozczarowanie, samotność albo lęk przed odrzuceniem.

Dlatego pytanie nie brzmi tylko: czy ChatGPT zastępuje psychologa i psychoterapeutę?

Warto zapytać głębiej: czego dziś tak bardzo potrzebuje człowiek, że zaczyna szukać tego w rozmowie z algorytmem?

Potrzebujesz wsparcia?

Jeśli AI, telefon, pornografia, scrollowanie lub inne cyfrowe nawyki zaczynają wpływać na Twoje zdrowie psychiczne i relacje, można odzyskać równowagę.

ESC123 specjalizuje się w terapii e-uzależnień online i stacjonarnie.

Umów wizytę konsultacyjną

Powiązane artykuły

Młoda para cieszy się bliskością emocjonalną i fizyczną w realnym życiu, a kobieca postać AI w tle wspiera ich relację. Ilustracja o tym, że ChatGPT może pomagać budować relacje offline.
Diagnoza nozologiczna uzależnienia ESC ośrodek leczenie e-uzależnień Warszawa Żoliborz psycholog, psychotraumatolog, psychoterapeuta, psychoterapia
Escape terapia uzależnień
Terapia grupowa Escape

Zobacz pozostałe:

Kobieta otrzymuje wsparcie i uścisk w grupie terapeutycznej. To symbol nadziei i postępu i determinacja.

Determinacja pacjenta – iluzja czy początek terapii?

Zdarza się, że ktoś przychodzi na terapię z autentyczną rozpaczą. Jest gotów „zrobić naprawdę wszystko”. Kiedy jednak padają konkretne pytania, gdy zaczynamy mówić o zmianach – o odstawieniu używek, ograniczeniu ekranów, skonfrontowaniu się z przeszłością – pojawia się opór.

Czytaj więcej

Trauma a e-uzależnienie

Traumy może doświadczyć osoba, która zetknęła się ze śmiercią, groźbą śmierci, różnymi zagrożeniami obrażeń ciała lub wystąpieniem takiego obrażenia, doświadczyła nadużycia seksualnego lub była zagrożona takim nadużyciem.

Czytaj więcej
Depresja a e-uzależnienia wskazówki ESC ośrodek leczenie e-uzależnień Warszawa Żoliborz

Depresja & e-uzależnieni@

Od czasu pandemii wiele osób spędza większość swojej aktywności przed ekranami urządzeń elektronicznych, co zmienia dotychczasowy charakter aktywności. Czy taki tryb życia możemy nazwać już e-uzależnieniem?

Czytaj więcej

Zobacz wszystkie
wpisy na blogu