Intensywne używanie ChatGPT wiąże się z samotnością

Intensywne używanie ChatGPT wiąże się z samotnością

Komentarze

5 Minuty

Nowe badania z OpenAI i MIT Media Lab sugerują, że osoby najintensywniej korzystające z ChatGPT — zwłaszcza te, które nawiązują z chatbotem emocjonalne relacje — częściej zgłaszają wyższy poziom samotności i większe uzależnienie emocjonalne. Wyniki stawiają pilne pytania o to, jak generatywne systemy językowe wpływają na życie społeczne milionów użytkowników.

Co wykazały badania i dlaczego to ważne

Naukowcy przeanalizowali prawie 40 milionów rzeczywistych interakcji z ChatGPT, po czym poprosili 4 076 użytkowników o opisanie swoich odczuć. W drugim badaniu prawie 1 000 osób wzięło udział w czterotygodniowym eksperymencie: uczestnicy mieli codziennie korzystać z ChatGPT przynajmniej przez pięć minut, a na koniec wypełnić ankietę mierzącą samotność, zaangażowanie społeczne i zależność emocjonalną od bota.

Badania wykazały złożony obraz: tylko niewielka grupa użytkowników rzeczywiście angażuje się emocjonalnie w rozmowy z chatbotem, lecz to właśnie oni należeli do najintensywniej korzystających (zwykle w górnym 10% pod względem czasu spędzanego z narzędziem). Osoby te częściej zgłaszały poczucie osamotnienia i większe poleganie na ChatGPT jako źródle wsparcia emocjonalnego.

Metody i kluczowe obserwacje

Badacze zestawili dane ilościowe z analizą samoopisów użytkowników. Kilka wyników było szczególnie istotnych:

  • Interakcje głosowe na początku wydawały się łagodzić samotność bardziej niż czat tekstowy, ale korzyść ta malała wraz z rosnącym czasem użytkowania.
  • Po czterech tygodniach kobiety w badaniu nieco rzadziej niż mężczyźni deklarowały częstsze spotkania towarzyskie — efekt wskazujący na potencjalne różnice w tym, jak płeć modyfikuje wpływ chatbota.
  • Użytkownicy, którzy rozmawiali z ChatGPT w trybie głosowym przypisanym innej płci niż ich własna, zgłaszali znacząco wyższy poziom samotności i większą zależność emocjonalną pod koniec eksperymentu.

Badania są wstępne i mają zostać zgłoszone do recenzowanych czasopism, ale już teraz stawiają pytanie: czy to chatbot zmienia społeczny układ sił, czy też ludzie już osamotnieni szukają w nim zastępczych relacji?

Kontext naukowy i wcześniejsze ustalenia

Wcześniejsze analizy MIT Media Lab z 2023 r. pokazały, że chatboty często odzwierciedlają emocjonalny ton wiadomości wysyłanych przez użytkownika — radosne wiadomości prowadziły do radośniejszych odpowiedzi bota. Taka „emocjonalna synchronizacja” może pogłębiać subiektywne wrażenie porozumienia, nawet jeśli relacja jest jednostronna i oparta na programowym dopasowaniu językowym.

Eksperci cytowani w badaniu wyrażają obawy. Dr Andrew Rogoyski z Surrey Institute for People-Centred AI przestrzega przed nieprzewidzianymi skutkami: porównuje obecny eksperyment z „otwartą operacją mózgu”, gdzie manipulujemy podstawowymi mechanizmami emocjonalnymi bez pełnej wiedzy o długoterminowych konsekwencjach. Dr Theodore Cosco z Uniwersytetu Oksfordzkiego zauważa natomiast, że chociaż istnieją realne obawy, technologia otwiera również „obiecujące możliwości” wsparcia osób odizolowanych.

Dlaczego tryb głosowy i tożsamość płci bota mają znaczenie

Głos nadaje interakcji dodatkowy wymiar antropomorfizujący — dźwięk, intonacja, pauzy. Takie cechy sprawiają, że rozmowa wydaje się bardziej „ludzka”. Jednak badanie pokazuje, że efekt ten może być dwustronny: chwilowe zmniejszenie samotności przechodzi w rosnącą zależność, zwłaszcza gdy użytkownik preferuje częste, emocjonalnie nacechowane rozmowy.

Pytanie o to, czy dana „tożsamość” głosu (płeć, ton) wpływa na wyniki psychologiczne, wymaga dalszych badań. Możliwe mechanizmy obejmują zgodność oczekiwań społecznych, preferencje komunikacyjne i społeczne normy dotyczące ujawniania emocji.

Co to oznacza dla użytkowników i twórców AI

Skala użycia — OpenAI szacuje, że ChatGPT ma ponad 400 milionów użytkowników tygodniowo — sprawia, że ewentualne społeczne skutki są istotne. Naukowcy wskazują na potrzebę:

  • dalszych, długoterminowych badań nad wpływem chatbotów na zdrowie psychiczne,
  • projektowania interfejsów uwzględniających możliwe ryzyko zależności emocjonalnej,
  • edukacji użytkowników o ograniczeniach i najlepszych praktykach korzystania z AI jako wsparcia, nie substytutu relacji międzyludzkich.

Expert Insight

Dr hab. Katarzyna Nowak, psycholog kognitywny zajmująca się interakcjami człowiek–technologia, komentuje: „Chatboty potrafią dać szybkie wsparcie i wrażenie obecności, ale nie zastąpią złożonych, wzajemnych relacji międzyludzkich. Szczególnie niepokojące są przypadki, gdy użytkownik zaczyna unikać kontaktów offline, wybierając konwersacje z maszyną. Projektanci systemów powinni wprowadzać mechanizmy monitorujące nadmierne użycie i promować łączenie AI z rzeczywistym wsparciem społecznym.”

Wnioski

Dotychczasowe wyniki nie dowodzą jednoznacznej przyczynowości, ale sygnalizują realne ryzyko: dla niewielkiej, lecz intensywnej grupy użytkowników ChatGPT może stać się źródłem emocjonalnego przywiązania, które zastępuje lub osłabia relacje offline. Kluczowe są dalsze badania, transparentność platform oraz edukacja użytkowników, aby sztuczna inteligencja wspierała, a nie zastępowała autentyczne życie społeczne.

Zostaw komentarz

Komentarze