Internet nauczył się dziś mówić ludzkim głosem. Pokazuje twarze, opowiada historie, budzi emocje – i coraz częściej robi to bez udziału człowieka. Treści generowane przez sztuczną inteligencję wyglądają wiarygodnie, znajomo, bezpiecznie. Właśnie dlatego tak łatwo im zaufać.
Dzień Babci i Dzień Dziadka to dobry moment, by zapytać nie tylko o to, jak nasi bliscy radzą sobie z technologią, ale też czy potrafią rozpoznać prawdę od fałszu w sieci.
Właśnie z myślą o seniorach powstał bezpłatny poradnik przygotowany przez ekspertów NASK – krótki, przystępny przewodnik po zagrożeniach związanych z AI i podpowiadający, jak zachować czujność w codziennym korzystaniu z internetu. Bo jak zaznacza Beata Frankiewicz, współautorka poradnika:
– Technologia rozwija się bardzo szybko i coraz trudniej odróżnić treści tworzone przez człowieka od tych generowanych przez AI. Chcemy pomóc seniorom świadomie wybierać wartościowe informacje, bo to one często wpływają na nasze codzienne decyzje.
AI w codziennym internecie: pomoc i ryzyko
Sztuczna inteligencja jest obecna w codziennym korzystaniu z internetu znacznie częściej, niż mogłoby się wydawać. Podpowiada treści w wyszukiwarkach, poprawia zdjęcia w telefonach, odpowiada na pytania w czatach i obsługuje infolinie. Działa szybko, dyskretnie i najczęściej w tle – dlatego łatwo zapomnieć, że to nie człowiek, a algorytm decyduje o tym, co widzimy i jakie odpowiedzi dostajemy.
Problem zaczyna się wtedy, gdy algorytmy przestają być jedynie pomocą, a zaczynają wpływać na to, co uznajemy za ważne, wiarygodne albo warte uwagi. Systemy oparte na AI selekcjonują treści, podbijają jedne informacje kosztem innych, podsuwają materiały dopasowane do emocji i wcześniejszych reakcji użytkownika. W efekcie internet coraz rzadziej pokazuje świat takim, jaki jest.
Ten sam mechanizm, który ułatwia codzienne sprawy, bywa jednak wykorzystywany do zupełnie innych celów. AI generuje dziś obrazy, nagrania i teksty, które mają budzić zaufanie, wywoływać emocje i skłaniać do reakcji – często bez wyraźnej informacji o tym, że nie stworzył ich człowiek. To właśnie napięcie między wygodą a ryzykiem stało się punktem wyjścia do powstania nowego poradnika przygotowanego przez NASK.
Emocje jako przynęta
Porzucony pies, który czeka na właściciela. Rolnik, który nie może nawet za darmo rozdać swoich plonów. Wnuczek, który – mimo odłożenia wszystkich oszczędności — nie zdołał dojechać do babci. Samotna seniorka spędzająca święta w pustym domu. Albo treści religijne, które w kilku zdaniach mają wzruszyć, oburzyć albo dać poczucie wspólnoty.
Takie historie nie pojawiają się w internecie przypadkiem. Są krótkie, proste i uderzają dokładnie tam, gdzie reagujemy najszybciej – w empatię, współczucie, potrzebę pomocy. Wyglądają jak fragmenty prawdziwego życia, dlatego tak łatwo je polubić, skomentować albo przekazać dalej.
Problem zaczyna się wtedy, gdy emocje stają się narzędziem. Coraz częściej za podobnymi treściami nie stoi ani autor, ani realna historia, ale algorytm zaprogramowany na wywoływanie reakcji. Im silniejsza emocja, tym większy zasięg. A zasięg bardzo szybko zamienia się w zaufanie.
Autorki poradnika NASK pokazują, jak łatwo to zaufanie bywa później wykorzystywane – do przejmowania kont, wyłudzania danych albo kierowania użytkowników na fałszywe zbiórki pieniędzy. Granica między wzruszeniem a realnym zagrożeniem bywa tu naprawdę cienka.
– Choć seniorzy podchodzą do narzędzi sztucznej inteligencji z większą ostrożnością niż młodsze pokolenia, w praktyce korzystają z rozwiązań opartych na AI, nawet jeśli nie używają ich narzędzi w sposób świadomy. Dlatego tak ważne jest, by znali zarówno możliwości, jakie daje ta technologia, jak i zagrożenia, które się z nią wiążą – zaznacza Sylwia Adamczyk, współautorka publikacji.
Jedno kliknięcie może wystarczyć, by stracić dostęp do konta albo nieświadomie przekazać swoje dane. W świecie treści tworzonych przez algorytmy coraz ważniejsze staje się zatrzymanie na moment i zadanie sobie prostego pytania: kto i po co chce wywołać we mnie tę emocję?
Gdy obraz i głos przestają być dowodem
W internecie coraz częściej trafiamy na treści, które wyglądają jak fragmenty serwisów informacyjnych, reklamy znanych marek albo wypowiedzi osób publicznych. Krótkie nagrania wideo, profesjonalny montaż, spokojny ton, znajoma twarz. Nic nie krzyczy „oszustwo”, nic nie wygląda podejrzanie.
To właśnie w tym miejscu pojawiają się deepfejki – nie jako technologiczna ciekawostka, ale jako narzędzie pozwalające podszyć się pod autorytet i wiarygodność. Wykorzystywane są w fałszywych reklamach inwestycji, spreparowanych apelach o pomoc czy treściach, które mają skłonić do szybkiej decyzji – często finansowej.
Dla seniorów to szczególnie podchwytliwe. Przez lata obraz i głos były czymś, co porządkowało rzeczywistość i pomagało oddzielić prawdę od plotki. Jeśli ktoś występował „w telewizji”, mówił oficjalnym tonem albo wyglądał jak znana osoba, budził zaufanie. Dziś ta intuicja coraz częściej zawodzi – nie dlatego, że odbiorcy są mniej uważni, ale dlatego, że technologia nauczyła się bardzo dobrze udawać wiarygodność.
W poradniku przygotowanym przez NASK przywołano konkretne sytuacje, w których takie materiały prowadziły do realnych strat – pieniędzy, danych i poczucia bezpieczeństwa. Pokazują one, że w świecie, w którym obraz i głos można wygenerować w kilka minut, sama forma przekazu przestaje być dowodem. Coraz ważniejsze staje się pytanie nie o to, jak coś wygląda, ale kto za tym stoi i jaki ma cel.
Zdrowie: gdy szybka odpowiedź daje fałszywy spokój
Szukanie porad zdrowotnych w internecie stało się codziennością. Wystarczy kilka słów wpisanych w wyszukiwarkę albo czat, żeby dostać gotową odpowiedź – spokojną, logiczną i brzmiącą jak rada specjalisty. Tyle że coraz częściej nie pochodzi ona od człowieka.
To właśnie tu sztuczna inteligencja bywa szczególnie niebezpieczna. Potrafi odpowiadać płynnie i przekonująco, nawet wtedy, gdy się myli. Nie waha się, nie sygnalizuje niepewności, nie mówi „sprawdź to u lekarza”. Zamiast tego buduje narrację, która daje poczucie kontroli i bezpieczeństwa – często złudne.
W poradniku przygotowanym przez NASK opisano sytuacje, w których narzędzia AI podawały całkowicie fałszywe informacje medyczne: wymyślały badania naukowe, nazwiska lekarzy i zalecenia, które nigdy nie istniały. Jedna z takich historii dotyczyła mężczyzny, który – kierując się „radą” wygenerowaną przez czat – zastąpił sól w diecie bromem i trafił do szpitala. Odpowiedź była szybka, spokojna i brzmiała fachowo. Konsekwencje poniósł człowiek.
– W kwestii zdrowia największym zagrożeniem nie jest sama technologia, lecz fałszywe poczucie bezpieczeństwa, które może dawać. Sztuczna inteligencja nie diagnozuje, nie leczy i nie ponosi konsekwencji swoich sugestii, nawet jeśli brzmią one logicznie. AI w żadnym wypadku nie powinna zastępować konsultacji z lekarzem – zaznacza Sylwia Adamczyk.
To nie są pojedyncze wpadki, ale efekt tzw. halucynacji AI – momentów, w których algorytm tworzy informacje, które wyglądają wiarygodnie, choć nie mają nic wspólnego z rzeczywistością. W obszarach takich jak zdrowie szybka odpowiedź nie zawsze jest zaletą. Może dać chwilowy spokój – i jednocześnie opóźnić decyzję o szukaniu realnej pomocy.
Prezent, który ma znaczenie
Kwiaty zwiędną, czekoladki znikną szybciej, niż się wydaje. Ale rozmowa – może zostać na dłużej. Dzień Babci i Dziadka to dobry moment, by podarować coś, co nie mieści się w pudełku: czas, uważność i poczucie bezpieczeństwa w świecie, który coraz częściej tylko udaje, że jest znajomy.
W świecie pełnym wygenerowanych obrazów, fałszywych historii i odpowiedzi brzmiących aż nazbyt rozsądnie, cyberbezpieczeństwo staje się codzienną umiejętnością, a nie techniczną ciekawostką. To zdolność zadawania pytań, sprawdzania źródeł i mówienia sobie: „chwilę się zatrzymam”.
Bezpłatny poradnik przygotowany przez NASK może być punktem wyjścia do takiej rozmowy – pretekstem, by wspólnie przyjrzeć się temu, jak dziś działa internet i gdzie warto zachować większą czujność. Bo jednym z najlepszych prezentów, jakie możemy dziś dać seniorom, jest pewność, że nie zostają z tym cyfrowym światem sami.