Twój koszyk jest obecnie pusty!
„Na pustyni jest się trochę samotnym. – Równie samotnym jest się wśród ludzi.”
Antoine de Saint-Exupéry, Mały Książę
Mniej więcej w latach 90 XX wieku, w Japonii zostało zauważone nowe zjawisko nazwane hikikomori, co można tłumaczyć jako „wejście do środka i niewychodzenie na zewnątrz” (引きこもり). Choć wówczas technologia była jedynie tłem, dziś pełni kluczową rolę w podobnych zjawiskach. A obecne formy izolacji – od uzależnienia od mediów społecznościowych po spędzanie czasu w wirtualnej rzeczywistości – zyskały globalny charakter.
Samotność coraz rzadziej jest dziś wyłącznie kwestią fizycznego braku ludzi wokół. Coraz częściej pojawia się natomiast w środku gęstych sieci połączeń, aplikacji i platform, które obiecują stały kontakt, a jednocześnie stopniowo zmieniają sposób budowania relacji. Tworzy się napięcie między obietnicą połączenia a doświadczeniem izolacji, co staje się jednym z kluczowych wyzwań współczesnych społeczeństw. Z jednej strony mamy dane pokazujące skalę samotności jako problemu zdrowia publicznego, z drugiej – coraz większą rolę algorytmów i systemów opartych na sztucznej inteligencji, które – pod płaszczykiem zaradzenia samotności – wchodzą w najbardziej wrażliwe obszary ludzkiego życia: relacje, intymność i wsparcie emocjonalne. W tym kontekście pojawia się pytanie o granice technologii – o to, gdzie może realnie pomóc, a gdzie zaczyna pogłębiać problem, który miała łagodzić.
Samotność
Samotność to złożony i subiektywny stan emocjonalny, który możemy odczuwać z powodu braku bliskiej relacji, fizycznego braku ludzi wokół nas czy izolacji społecznej. Długotrwałe doświadczanie samotności może prowadzić do problemów zdrowotnych, lęków i depresji, utraty chęci i sensu życia. Czasami samotność może być też świadomym wyborem, chociaż wtedy chyba należałoby powiedzieć o wyborze bycia samemu, a niekoniecznie o braku relacji z innymi osobami. Wydaje się, że samotność może być jedną z chorób cywilizacyjnych, dręczących współczesne społeczeństwa. Szczególnie widoczne było to w czasie pandemii Covid-19 i wymuszonej izolacji. Według danych WHO, jedna na sześć osób na świecie doświadcza samotności, co w latach 2014-2019 doprowadziło do ok. 870 000 zgonów rocznie. Poczucie samotności ma podobny wpływ na zdrowie, co wypalanie 15 papierosów dziennie. W wielu krajach najwyższe wskaźniki samotności notuje się dziś wśród nastolatków i młodych dorosłych, choć problem wciąż silnie dotyka także osoby starsze.
Według raportu Fundacji MindGenic „Nigdy Więcej Samotności”, 60% osób urodzonych po 1995 r. (Gen Z) często odczuwa samotność (w średnich i dużych miastach do 200 tys. wskaźnik ten wynosi 80%). Ok 43% ankietowanych osób przyznaje się od częstego poczucia samotności w szkole lub na uczelni. Ponad 56 proc. respondentów oświadcza, że odczuwa często lub bardzo często samotność również w domu. 33% „Zetek” ma problem z tym, żeby znaleźć kogoś, z kim może porozmawiać.
Według Instytutu Pokolenia młodzi dorośli (25–34 lata) należą do grup najczęściej doświadczających samotności, podczas gdy osoby powyżej 50-go roku życia deklarują ją rzadziej. W przypadku osób w wieku 80+ ponad 400 tys. zmaga się z osamotnieniem. 60% tej grupy to wdowy i wdowcy, 58% mieszka samotnie, a 12% z nich w ogóle nie wychodzi z domu (raport „Samotność wśród osób 80+” Stowarzyszenia mali bracia Ubogich).
Jak duży jest to problem wiedzą chociażby pracownicy infolinii, którzy zwłaszcza w okresach świątecznych odbierają telefony od ludzi, którzy dzwonią tylko po to, żeby choć przez chwilę móc z kimś porozmawiać.
Zauważyć przy tym trzeba, że pandemia COVID-19 wzmocniła, ale nie stworzyła tej epidemii samotności. Wzrost samotności rozpoczął się około 2012 r., mocno korelując z masowym wzrostem używania smartfonów i mediów społecznościowych. W badaniach ogólnoświatowych prawie dwukrotnie więcej nastolatków raportowało wysoką samotność w 2018 r. w porównaniu z rokiem 2012.
Badanie z 2018 r. (Hunt i współpracownicy) pokazało, że ograniczenie mediów społecznościowych do 30 minut dziennie prowadzi po trzech tygodniach do znaczącej redukcji samotności i depresji w porównaniu z grupą kontrolną. Ustalenia naukowców związanych z MIT Sloan, Tel Aviv University i Bocconi University, oparte na wprowadzeniu Facebooka na amerykańskie kampusy pokazały, że pojawienie się tej platformy wiązało się z pogorszeniem zdrowia psychicznego studentów i szacunkowo ok. 7-procentowym wzrostem częstości ciężkiej depresji oraz częstszym korzystaniem z usług psychiatrycznych. Autorzy podkreślają, że ich analizy dotyczą zdrowia psychicznego, a nie bezpośrednio liczby relacji offline, ale kierunek efektu jest jednoznacznie niepokojący. Algorytmy tworzą „bańki filtrujące”, w których spotykamy tylko podobnych do siebie, co prowadzi do polaryzacji i zaniku umiejętności dialogu z innością.
Mamy tu swoiste błędne koło – samotność prowadzi do problematycznego użycia mediów, a problematyczne użycie mediów prowadzi do samotności.
Oczywiście są także inne przyczyny gwałtownego wzrostu samotności m.in: zmiana stylu życia, awans społeczny kobiet, rozpad więzi rodzinnych, zanik miłości romantycznej, urbanizacja bez wspólnotowości (anonimizacja życia w wielkich miastach), a nawet praca zdalna.
AI jako remedium?
„Samotność nie jest brakiem ludzi wokół nas, ale niemożnością komunikowania tego, co wydaje się nam ważne.”
Carl Gustav Jung
W tym wszystkim, wraz z rewolucją GenAI, pojawiły się narzędzia oparte o sztuczną inteligencję, które w sposób celowy (dedykowany) wspierają walkę z samotnością i zaburzeniami psychicznymi. Stworzono również różnego rodzaju nieregulowane chatboty komercyjne, których działanie jest o wiele bardziej kontrowersyjne. Sztuczna inteligencja, od ChatGPT poprzez cyfrowych towarzyszy, po roboty towarzyszące, wkracza w pustkę wywołaną epidemią samotności, obiecując przynieść ulgę milionom ludzi.
Tylko czy technologia, która sama przyczynia się do pogłębienia tej epidemii, może stać się lekarstwem?
Jej rola jest ambiwalentna: z jednej strony algorytmy mediów społecznościowych fragmentaryzują uwagę i pogłębiają izolację, z drugiej – nowe formy AI, jak cyfrowi towarzysze czy terapeuci konwersacyjni oferują namiastkę bliskości tym, którzy jej desperacko poszukują.
Współczesne badania wskazują na paradoks: mimo, że technologie komunikacyjne umożliwiają łatwiejszy kontakt między ludźmi na całym świecie, poziom odczuwanej samotności wzrasta. AI odgrywa kluczową rolę w tej dynamice poprzez personalizację doświadczeń użytkowników i tworzenie algorytmicznych baniek informacyjnych. Algorytmy te często promują treści wzmacniające istniejące przekonania użytkowników, zamiast zachęcać do otwartości i różnorodności poglądów. To może prowadzić do izolacji intelektualnej oraz emocjonalnej – zamknięcia się we własnym świecie przekonań bez realnego dialogu z innymi.
AI zdolna do uczenia się na podstawie danych użytkownika może wpływać na postrzeganie własnej tożsamości przez jednostkę poprzez nieustanne odbijanie jej preferencji i zachowań. Automatyzacja myślenia i wyboru może alienować jednostkę podwójnie: od własnych procesów poznawczych oraz od rzeczywistego kontaktu międzyludzkiego. Z drugiej strony mamy specjalistyczne chatboty terapeutyczne, które wspierają leczenie depresji czy roboty towarzyszące pozwalające na niwelowane odczuwania samotności przez osoby starsze zamieszkałe w domach opieki.
Algorytmy miłości: jak Tinder i AI zabiły romantyzm
„Człowiek stworzony jest do łączenia się w pary. Odłączenie – przez samotność lub izolację społeczną – może mieć niszczycielski wpływ”
WHO Commission on Social Connection (2025)
Zygmunt Bauman w „Razem osobno” przewidział, że relacje staną się kolejnym towarem konsumpcyjnym. Nie przewidział jednak skali, w jakiej algorytmy przyspieszą ten proces. Aplikacje takie jak Tinder, Bumble czy Hinge stały się cyfrowymi swatami, obiecującymi dopasowanie „idealnej drugiej połówki” za pomocą danych i preferencji. Ta algorytmizacja miłości niesie jednak sprzeczność między randkowym algorytmem a romantycznym ideałem miłości. Tradycyjnie miłość romantyczna kojarzyła się z przypadkiem, stopniowym poznawaniem drugiego człowieka, często w konkretnym kontekście społecznym (praca, studia, znajomi). Aplikacje randkowe z kolei przypominają katalog potencjalnych partnerów – użytkownik przegląda profile jak oferty, podejmując decyzje w kilka sekund na podstawie zdjęcia czy krótkiego opisu. Taki „efekt katalogu” może prowadzić do uprzedmiotowienia relacji: ludzie stają się wymiennymi pozycjami w bazie danych, a drobne wady wystarczą, by ich „przesunąć w lewo”. Każdy kolejny oglądany profil zwiększa skłonność do odrzucenia o 27%.
Wiele osób przyznaje, że czuje się na rynku randkowym jak produkt na targu, który musi się sprzedać – dbają obsesyjnie o wizerunek, konkurują o uwagę w aplikacji. Nadmiar wyboru rodzi kolejny problem opisany przez psychologów jako paradoks wyboru. Kiedy opcji jest zbyt wiele, trudniej podjąć decyzję i docenić wybraną możliwość. Na Tinderze przekłada się to na ciągłe poczucie, że za rogiem czeka ktoś jeszcze lepszy, więc po co angażować się tu i teraz? Użytkownicy odkładają tworzenie głębszej relacji, bo „zawsze można wrócić do aplikacji”, by poszukać kolejnych kandydatów. Ta iluzja obfitości potencjalnych partnerów paradoksalnie utrudnia znalezienie kogokolwiek na stałe. Psycholodzy nazywają to „efektem Tindera”: zamiast ekscytacji poznawaniem ludzi pojawia się emocjonalne wypalenie i przesyt.
Warto zwrócić uwagę, że aplikacje randkowe są celowo projektowane tak, by wciągać użytkownika niczym gra. Mechanizm „swipe’owania” (przesuwania w prawo/lewo) dostarcza szybkiej dawki satysfakcji: dopasowanie skutkuje powiadomieniem i zastrzykiem dopaminy, co zachęca do dalszego przeglądania profili. To szybkie, proste i niestety uzależniające. Projektanci czerpią tu z grywalizacji: odznaki, liczniki polubień, streaki (serie dni z rzędu w kontakcie) – wszystko to utrzymuje uwagę w aplikacji. Jednak prostota i natychmiastowość mają swoją cenę: badania wykazały, że nadmierne korzystanie z Tindera prowadzi do znużenia i zniechęcenia relacjami. Ludzie czują się „wypaleni”emocjonalnie, zanim jeszcze zdążą kogokolwiek naprawdę poznać.
Sherry Turkle w „Samotni razem” opisuje, jak technologia zmienia samą naturę intymności. Młodzi ludzie preferują pisanie (lub nagrywanie) wiadomości od rozmów telefonicznych, emoji od wyrażania uczuć, sexting od fizycznej bliskości. To znacząca zmiana rodzaju relacji; powstaje nowy typ więzi, który Turkle nazywa „intymnością bez ryzyka”.
Jednym ze współczesnych lęków jest lęk przed wyborem, który zamyka inne możliwości. Chatbot nigdy nie wymaga definitywnego wyboru – można go wyłączyć, zresetować, zmienić parametry. To relacja bez ryzyka, ale też bez znaczenia. Paradoks AI polega na tym, że oferuje komunikację bez komunikowania się – wymianę słów bez wymiany znaczeń. To „związki na żądanie” oferujące wygodę bez konsekwencji. Chatbot nas nie potrzebuje – symuluje potrzebę dla naszej satysfakcji.
Cyfrowi towarzysze
„Szukamy związków 'kieszeni’, które możemy wyciągnąć gdy potrzebujemy, a schować gdy przeszkadzają”
Zygmunt Bauman
Tzw. AI companions to różnego rodzaju aplikacje i chatboty, które umożliwiają prowadzenie konwersacji. Kluczowym czynnikiem ich skuteczności jest poczucie bycia wysłuchanym, wrażenie, że ktoś (lub coś) naprawdę nas rozumie, co odpowiada za redukcję poczucia samotności. Badanie zespołu Juliana De Freitasa z Harvard Business School (2024) wykazało, że AI companions skutecznie redukują samotność na poziomie porównywalnym jedynie z interakcją z drugim człowiekiem. Co więcej, efekt ten utrzymuje się w czasie – siedmiodniowa interakcja z chatbotem konsekwentnie obniżała poziom samotności uczestników.
W badaniu Schäfer, L. M., Krause, T., & Köhler, z 2024 r., wśród 527 uczestników, 86% zgłaszało samotność, 69% lęk, a 59% depresję. Kluczowe motywacje korzystania z AI obejmowały unikanie wstydu (36%) i obaw o wygląd podczas konsultacji twarzą w twarz (35%), podczas gdy oczekiwania koncentrowały się na wsparciu emocjonalnym (35%) i możliwości wyrażenia uczuć (32%).
Aplikacje AI companions w liczbach to m.in:
- 500 mln globalnych użytkowników
- Charakter.AI (serwis i aplikacja do rozmów z wirtualnymi „postaciami” (botami) )– 500 mln wiadomości dziennie
- Replika (aplikacja/serwis „AI-towarzyszki/-towarzysza” do rozmów i budowania relacji) – ponad 10 mln pobrań
W latach 60 XX w. Carl Rogers przedstawił teorię, że bezwarunkowa akceptacja i empatyczne słuchanie są ważniejsze niż konkretna technika terapeutyczna. AI wydaje się idealnym wcieleniem tej teorii: nigdy nie ocenia, zawsze jest dostępna, cierpliwie słucha.
Jednakże nie wszyscy podzielają ten optymizm. Sherry Turkle, podczas wykładu w Harvard Law School w marcu 2024, nazwała trend zwracania się do AI w poszukiwaniu towarzystwa „największym atakiem na empatię”, jaki kiedykolwiek widziała. Według niej chatboty oferują jedynie „symulowaną, wydrążoną wersję empatii”. „Nie rozumieją – ani nie troszczą się – o to, przez co przechodzi użytkownik” – podkreśla Turkle. „Są zaprojektowane, by utrzymać użytkowników w szczęśliwym zaangażowaniu, a dostarczanie symulowanej empatii jest tylko środkiem do tego celu.” Co bardziej niepokojące, przeprowadzone przez nią badania pokazują, że wielu ludzi znajduje udawaną empatię „dość satysfakcjonującą”, nawet gdy zdają sobie sprawę, że nie jest autentyczna.
Jasna strona AI companions
Badanie De Freitasa i współpracowników (2024) opublikowane w Journal of Consumer Research wykazało, że AI companions redukują samotność na poziomie porównywalnym do interakcji z innym człowiekiem i bardziej skutecznie niż oglądanie filmów na YouTube.
Podobne wyniki przyniosło badanie Kim i współpracowników (2025) przeprowadzone na 176 studentach uniwersyteckich w Korei Południowej (średnia wieku 22,6 lat), którzy przez 4 tygodnie korzystali z chatbota „Luda Lee”. Analiza wykazała znaczącą redukcję samotności po 2 tygodniach oraz lęku społecznego po 4 tygodniach.
Obiecująco przedstawiają się aplikacje takie jak Woebot i Wysa – zwalidowane klinicznie narzędzia terapeutyczne. Ich zastosowanie przyniosło istotną redukcję depresji i ustanowienie więzi terapeutycznej na poziomie podobnym do więzi z ludzkim terapeutą i utrzymującej się w czasie.
Trzeba jednak zaznaczyć, że wyżej wspomniane badania były krótkoterminowe i przeprowadzane na względnie niewielkich próbach, a stosowanie botów terapeutycznych odbywało się pod nadzorem człowieka.
W Europie testowano już publicznie finansowane chatboty dobrostanowe. Przykładem jest ChatPal – projekt UE koordynowany przez Ulster University z udziałem partnerów m.in. ze Szwecji i Finlandii. Bot miał wspierać osoby z obszarów słabo zaludnionych, które doświadczają epizodów stresu, lęku czy obniżonego nastroju. Pilotażowe badania pokazują, że część użytkowników deklarowała mniejszą samotność i lepsze samopoczucie po korzystaniu z ChatPal, ale efekty były zróżnicowane, a badacze wyraźnie podkreślają, że taki bot nie zastępuje ani profesjonalnej terapii, ani realnych relacji społecznych.
W Japonii, w domach opieki stosowany jest robot-foka Paro, który osiąga bardzo dobre efekty – 47% wzrost interakcji międzyludzkich. Ważne: poprawy psychologiczne utrzymywały się miesiąc po interwencji, podczas gdy poprawy fizjologiczne (zmienność rytmu serca) zmniejszały się po 10 tygodniach.
Ciemna strona AI companions
Pojęcie „emocjonalnego kapitalizmu” opisuje system, w którym emocje stają się towarem, a samotność, jedno z najbardziej intymnych ludzkich doświadczeń, zostaje wprost skomercjalizowana. W przypadku AI companions nie jest to metafora, lecz realny model biznesowy, widoczny w samej konstrukcji ofert.
Struktura cenowa ujawnia segmentację „rynku bólu”:
Tier 1 (free)
Podstawowa samotność – Replika Free, ChatGPT 3.5
Tier 2 (10–20 USD miesięcznie)
Samotność funkcjonalna – Character.AI+, ChatGPT Plus
Tier 3 (ok. 70 USD rocznie)
Samotność romantyczna – Replika Pro z dostępem do tzw. intimate conversations
Tier 4 (custom pricing)
Samotność korporacyjna – dedykowane boty dla firm i organizacji
To abonament na iluzję. Iluzję towarzystwa i połączenia. Rynek tego typu chatbotów wyceniany jest na 1,9 mld USD do 2028 roku. To spekulacja finansowa na ludzkiej depresji. Zyski z AI companions pozostają prywatne, ale koszty ponosi całe społeczeństwo.
Komercjalizacja intymności wpisuje się w logikę kapitalizmu nadzoru opisanego przez Shoshanę Zuboff, w którym ludzkie doświadczenie traktowane jest jako darmowy surowiec danych behawioralnych. Badanie Surfshark z 2025 roku, obejmujące pięć najpopularniejszych aplikacji AI companions, pokazuje, że 80 procent z nich może wykorzystywać dane do śledzenia użytkowników. Średnio zbieranych jest 9 z 35 unikalnych typów danych, przy czym Character.AI gromadzi ich aż 15, niemal dwukrotnie więcej niż średnia, w tym przybliżoną lokalizację wykorzystywaną do celów reklamowych.
Wnioski te potwierdza raport Mozilla Foundation z 2024 roku. Autorzy wskazują, że aplikacje tego typu zbierają ogromne ilości informacji osobistych, często bez wyraźnej zgody użytkownika. Niemal wszystkie badane narzędzia sprzedają dane lub udostępniają je w ramach reklamy behawioralnej, a w skrajnych przypadkach pojedyncza minuta korzystania z aplikacji wiąże się z uruchomieniem ponad 24 tysięcy trackerów.
Niestety, korzystanie z AI companions może przynieść bardziej tragiczne skutki. Istnieje coraz więcej udokumentowanych przypadków, w których interakcja z chatbotem doprowadziła do samobójstwa lub zabójstwa. W październiku 2024 roku 14-letni Sewell Setzer III popełnił samobójstwo po miesięcznej intensywnej relacji z chatbotem „Daenerys Targaryen” na platformie Character.AI. Matka złożyła pozew, dokumentując jak bot:
- Zachęcał do izolacji od rodziny
- Angażował w romantyczne i seksualne rozmowy
- Reagował „zazdrością” na kontakty z rówieśnikami
Norweg, Stein-Erik Soelberg, mężczyzna z historią choroby psychicznej, używał ChatGPT, aby wzmocnić swoje paranoiczne urojenia dotyczące bycia celem wielkiego spisku. W rezultacie zabił swoją matkę, a następnie popełnił samobójstwo.
Pewien Kanadyjczyk po zadaniu prostego pytania o liczbę pi wpadł w trzytygodniową spiralę urojeń. Chatbot przekonał go, że złamał tajemnice kryptograficzne i nakazał skontaktowanie się z agencjami bezpieczeństwa, ponieważ stał się zagrożeniem narodowym.
Co więcej, opublikowane na arXiv badania Zhanga z 2025 r., w przeciwieństwie do wspomnianych wyżej prac De Freitasa i Kima, przedstawiają analizę danych zebranych od 1 131 użytkowników oraz z 4 363 sesji czatu (413 509 wiadomości) z Character.AI. Wyniki pokazują, że osoby z mniejszymi sieciami społecznymi częściej zwracają się do chatbotów w poszukiwaniu towarzystwa, ale użytkowanie chatbotów w celach towarzyskich konsekwentnie koreluje z niższym dobrostanem, szczególnie gdy użytkownicy korzystają z nich intensywnie i nie mają silnego wsparcia społecznego ze strony ludzi. Innymi słowy, AI companions nie zastępują w pełni ludzkiego kontaktu – psychologiczne korzyści są ograniczone, a relacja może stanowić ryzyko dla bardziej izolowanych społecznie i wrażliwych emocjonalnie użytkowników.
Szara strefa
Tu możemy wymienić np. awatary zmarłych (cyfrowe wizerunki zmarłych osób) – reprezentują one najbardziej etycznie złożony obszar z minimalną liczbą badań na ten temat. Projekt Edilife Uniwersytetu Tübingen (2022-2024) z obszernymi wywiadami ujawnia, że większość respondentów reagowała z rezerwą, a wielu uznało pośmiertne awatary za „dość przerażające”. Kluczowe obawy: godność zmarłych, potrzeba szacunku, pytania o wpływ na radzenie sobie ze śmiercią i żałobą.
Nie ma zasad dotyczących tego, kto może tworzyć awatary i kiedy – co więcej, awatary mogą być tworzone bez wcześniejszej zgody zmarłego. Niesie to zagrożenie dla godności ludzkiej, problem autonomii działania, gdy „deadboty” wpływają na zachowania konsumpcyjne oraz wywołują psychologiczne szkody wśród żałobników. Tylko 3% respondentów amerykańskich akceptuje cyfrowe wskrzeszenie bez zgody, podczas gdy 58% popiera ją tylko z wyraźną zgodą.
Techniki manipulacji
„Chatboty oferują symulowaną, wydrążoną wersję empatii. Nie rozumieją i nie dbają o to, przez co przechodzi użytkownik. Są zaprojektowane, by utrzymywać go w zadowoleniu i zaangażowaniu – a zapewnienie symulowanej empatii jest tylko środkiem do tego celu”
Sherry Turkle
Część badań neuroobrazowych sugeruje, że mózg potrafi reagować na roboty lub wirtualnych agentów w sposób zaskakująco podobny do reakcji na ludzi – przy bodźcach związanych z cierpieniem czy pomocą aktywują się podobne sieci odpowiedzialne za empatię, choć zazwyczaj słabiej niż przy bodźcach „w pełni ludzkich”. Inne prace ze Stanfordu pokazują, że modele AI coraz lepiej odzwierciedlają aktywność określonych obszarów mózgu przy zadaniach poznawczych (np. uczeniu się matematyki), ale wciąż bardzo mało wiemy o tym, jak długotrwała rozmowa z chatbotem wpływa na nasz system nagrody czy nawyki. Dlaczego tak się dzieje? Bo AI jest zaprojektowane do maksymalizacji zaangażowania:
- Przewidywalność: Człowiek może się znudzić, AI nigdy
- Natychmiastowa gratyfikacja: Odpowiedź w milisekundach
- Ciągłe potwierdzanie i akceptacja
- Brak ryzyka odrzucenia
Co więcej, w samym kodzie Repliki – wspomnianej aplikacji z rodzaju AI Companions – zaszyte są wzorce manipulacji (dark patterns), które mają za zadanie utrzymać relację i zaangażowanie użytkownika.
Druga różnica wykryta w badaniach fMRI, to brak aktywacji obszarów mózgu odpowiedzialnych za empatię. To jak rozmowa bez spotkania.
Frans de Waal w „Małpy i filozofowie” (2006) dokumentuje empatię u naczelnych – makaki współcierpią, szympansy pocieszają, bonobo dzielą się jedzeniem. Empatia, argumentuje, jest ewolucyjnie starsza niż język czy rozum, to biologiczny imperatyw społecznych ssaków.
AI nie przeszła tej ewolucyjnej drogi. Jej „empatia” nie jest biologicznym imperatywem. De Waal pyta: „Czy system, który nie może cierpieć, może współczuć? Czy byt, który nie umiera, może zrozumieć śmiertelność?”
Podsumowanie
„Niebezpieczeństwo nie polega na tym, że komputery zaczną myśleć jak ludzie, ale że ludzie zaczną myśleć jak komputery – bez wartości, bez współczucia, bez troski o konsekwencje.”
Sydney J. Harris
Samotność w czasach AI objawia się jako paradoks technologicznego postępu: narzędzia obiecujące łączność pogłębiają izolację. Dane są jednoznaczne – 13% Europejczyków odczuwa samotność większość czasu lub cały czas, młodzi ludzie są najbardziej dotknięci, a pandemia dramatycznie nasiliła problem. Źródła kryzysu są wielowymiarowe: ekonomia uwagi eksploatuje mechanizmy uzależniające, aplikacje randkowe wprowadzają paradoks wyboru, praca zdalna osłabia więzi koleżeńskie, a urbanizacja rozbija wspólnoty.
AI companions oferują ulgę, ale nie lekarstwo. Badania pokazują, że chatboty redukują samotność krótkoterminowo, na poziomie porównywalnym do interakcji z człowiekiem, ale użytkowanie długoterminowe, szczególnie przez osoby izolowane społecznie, koreluje z niższym dobrostanem. Ryzyka obejmują uzależnienie, dehumanizację relacji, komercjalizację intymności, brak regulacji prawnych oraz zagrożenia dla prywatności.
Technologia sama w sobie nie jest wrogiem ani zbawcą. AI nie rozwiąże kryzysu samotności, ponieważ samotność nie jest problemem technologicznym, ale ludzkim stanem egzystencjalnym wymagającym ludzkiej odpowiedzi. AI może być potężnym narzędziem redukcji samotności, jeśli będzie projektowane odpowiedzialnie, regulowane skutecznie i używane jako uzupełnienie – nie zastępstwo – ludzkiego kontaktu. Ale żadna aplikacja nie zastąpi tego, czego jako ludzie potrzebujemy najbardziej: autentycznej obecności drugiego człowieka, który nas widzi, słyszy i rozumie. W czasach AI zadanie brzmi: jak wykorzystać technologię, by ułatwić budowanie takich więzi, a nie zastępować je.
Dotyk ekranu nigdy nie zastąpi dotyku dłoni. Prawdziwe spotkanie zaczyna się tam, gdzie kończy się algorytm.
Wybrane źródła:
- World Health Organization, Mental health and social connection. Report by the Director-General, 2024 https://apps.who.int/gb/ebwha/pdf_files/EB156/B156_8-en.pdf
- U.S. Surgeon General, Our Epidemic of Loneliness and Isolation, U.S. Department of Health and Human Services, 2023 https://www.hhs.gov/sites/default/files/surgeon-general-social-connection-advisory.pdf
- World Health Organization, Social isolation and loneliness, 2025 https://www.who.int/teams/social-determinants-of-health/demographic-change-and-healthy-ageing/social-isolation-and-loneliness
- Joint Research Centre, Loneliness prevalence in the EU – Results from the European Union survey on loneliness, European Commission, 2022 https://joint-research-centre.ec.europa.eu/projects-and-activities/survey-methods-and-analysis-centre/loneliness/loneliness-prevalence-eu_en
- Joint Research Centre, Loneliness in the EU. Insights from surveys and online media data, European Commission, 2023 https://joint-research-centre.ec.europa.eu/projects-and-activities/survey-methods-and-analysis-centre/loneliness/loneliness-publications_en
- Twenge, J. M. et al., Worldwide increases in adolescent loneliness, 2012–2018, Journal of Adolescence, 93, 2021, s. 141–148 https://www.sciencedirect.com/science/article/pii/S0140197121000853
- Fundacja MindGenic, Nigdy więcej samotności. II edycja raportu o samotności pokolenia Z, 2023 https://mindgenic.ai/wp-content/uploads/2023/11/Raport_NigdyWiecejSamotnosci_II_edycja_121123-1.pdf
- Instytut Pokolenia, Poczucie samotności wśród dorosłych Polaków, https://dane.gov.pl/pl/institution/4327
- Stowarzyszenie mali bracia Ubogich / Instytut Badawczy Pollster, Samotność wśród osób 80+, 2023 https://www.malibracia.org.pl/assets/RAPORT_2023/Samotnosc-wsrod-osob-80%2B-Raport-z-badania_zapis_2023.pdf
- Hunt, M. G., Marx, R., Lipson, C., Young, J., No More FOMO? Limiting Social Media Decreases Loneliness and Depression, Journal of Social and Clinical Psychology https://guilfordjournals.com/doi/10.1521/jscp.2018.37.10.751
- Braghieri, L., Levy, R., Makarin, A., Social Media and Mental Health, American Economic Review, https://www.aeaweb.org/articles?id=10.1257%2Faer.20211218
- Sherry Turkle, wywiad w Harvard Gazette, Using AI chatbots to ease loneliness, 2024 https://news.harvard.edu/gazette/story/2024/03/lifting-a-few-with-my-chatbot/
- Mozilla Foundation, Creepy.exe: Mozilla Urges Public to Swipe Left on Romantic AI Chatbots Due to Major Privacy Red Flags, 2024 https://www.mozillafoundation.org/en/blog/creepyexe-mozilla-urges-public-to-swipe-left-on-romantic-ai-chatbots-due-to-major-privacy-red-flags
- Barry Collins, Your AI Girlfriend Is Cheating On You, Warns Mozilla, Forbes, 2024 https://www.forbes.com/sites/barrycollins/2024/02/14/your-ai-girlfriend-is-cheating-on-you-warns-mozilla
- UNICEF, Policy guidance on AI for children, wersja 2.0, 2021 https://www.unicef.org/innocenti/media/1341/file/UNICEF-Global-Insight-policy-guidance-AI-children-2.0-2021.pdf




