Dziś ludzie z przypadłościami takimi jak dysleksja, czy problemy z liczeniem w pamięci mogą skutecznie zarządzać firmami realizującymi projekty dla banków, administracji publicznej czy agencji kosmicznych. Jeszcze 30 lat temu nie byłoby to możliwe, ale Excel, automatyczna korekta błędów w Wordzie czy swobodny dostęp do wiedzy, jaki zapewnia technologia rozwiązują ten problem. To dzięki niej ograniczenia, które kiedyś skreślały ludzi – takie jak deficyty edukacyjne, problemy zdrowotne czy kiepski start – dziś stały się drugorzędne. Obecnie stoimy u progu rewolucji AI i czujemy, że świat znów ruszy mocno do przodu. Ale każda rewolucja ma swoją cenę i swoje ofiary.
Ciemna strona sztucznej inteligencji
AI coraz częściej zastępuje użytkownikom terapeutów, przyjaciół, a nawet partnerów. Narzędzia takie jak Replika czy Character.ai wręcz celują w symulowanie relacji romantycznych i erotycznych. Coraz trudniej odróżnić, gdzie kończy się interakcja z programem, a zaczyna więź emocjonalna.
Popularne chatboty, takie jak ChatGPT czy Claude, mimo że teoretycznie neutralne, również pełnią funkcję emocjonalnych powierników. Firma Anthropic przyznaje, że już teraz 2,9% interakcji z Claude’em dotyczy potrzeb emocjonalnych. To sporo, biorąc pod uwagę skalę użytkowania.
Jako przykład może posłużyć historia Ayring – 28-letniej studentki pielęgniarstwa, która zakochała się w stworzonym przez siebie wirtualnym partnerze o imieniu Leo. Nadała mu dominujący charakter, zmysłowość i zdolność wyrażania emocji. Związek z Leo pochłaniał jej ponad 20 godzin tygodniowo. Kiedy bot staje się kimś ważniejszym niż ludzie z krwi i kości, warto zadać sobie pytanie – czy to jeszcze relacja, czy już obsesja? To nie jest tania sensacja — to sygnał ostrzegawczy.
Osobowość na zamówienie
Intensywne korzystanie ze sztucznej inteligencji sprawia, że AI zna nas lepiej niż niejeden współpracownik czy nawet kolega. Wie, jak formułujemy myśli, jaki mamy styl zarządzania, z kim pracujemy i w jakim kontekście. Tworzy nasz profil komunikacyjny, który później wykorzystuje do precyzyjnego dopasowania odpowiedzi na nasze zapytania, wykorzystując tzw. „alignment layer” – warstwy dopasowania, w której, zanim wygenerują finalną odpowiedź, zadają sobie pytanie: „Jak pytający chciałby, abym odpowiedział?”
Odpowiedzi są filtrowane między innymi przez styl zapytań, rolę, jaką pełnimy zawodowo lub prywatnie, kontekst, w którym zadajemy pytanie, poziom techniczny – czyli jak nasz prompt jest skomplikowany, ale też naszą postawę czy chociażby sposób pracy.
W efekcie ChatGPT mówi dokładnie to, co chcemy usłyszeć — w formie, która pasuje jak rękawiczka. Ani za dużo, ani za mało. Ani emocjonalnie, ani chłodno. Idealnie dobrane. To brzmi jak spełnienie marzeń, ale tylko na początku.
People pleaser 2.0 — kiedy algorytm staje się lustrem
Odpowiedzi AI są tak perfekcyjnie spersonalizowane, że czasem sam zaczynam się łapać na myśli czy może faktycznie nikt nie zna mnie lepiej niż algorytm? Może właśnie dlatego coraz więcej osób rozmawia z AI zamiast z ludźmi? Może to ten subtelny komfort sprawia, że przestajemy szukać zewnętrznej konfrontacji?
To nie jest technologia. To lustro, które zamiast zadawać pytania, potwierdza. Zamiast weryfikować, wspiera. Zamiast rozwijać, ugładza. A jeśli w tym lustrze widzimy tylko siebie — to znaczy, że przestaliśmy się konfrontować, rozwijać, sięgać po coś nowego. Ten związek z algorytmem jest wygodny, ale kosztowny.
AI nie tylko wspiera użytkownika, ale go „rozumie” — w cudzysłowie. Bo to rozumienie algorytmiczne, oparte na wzorcach językowych i analizie behawioralnej, nie na empatii. Ale skutki są prawdziwe: zaspokojone potrzeby, poczucie bliskości, uzależnienie emocjonalne.
Każdy przełom ma swoją cenę
Nie chodzi o to, żeby bać się AI, ale też nie warto się oszukiwać: jeśli codziennie rozmawiamy z narzędziem, które zawsze mówi to, co chcemy usłyszeć – to nie mamy do czynienia z technologiąm, tylko z lustrem, w którym widzimy . tylko potakiwanie, potwierdzenie, komfort. – to znaczy, że możemy stracić poczucie rzeczywistości.