Sztuczna inteligencja błyskawicznie staje się nie tylko „nowym Google”, ale także cyfrowym powiernikiem dzieci. Według NASK aż 70% nastolatków w Polsce korzysta z AI, a co dziesiąty robi to codziennie. Jednak obok pomocy w nauce, boty coraz częściej przejmują rolę doradców w sprawach, o których młodzi ludzie nie chcą rozmawiać z dorosłymi. W obliczu coraz częstszego korzystania przez dzieci z chatbotów AI w poszukiwaniu odpowiedzi, porad czy towarzystwa, pojawiają się kluczowe pytania o bezpieczeństwo, prywatność oraz wpływ technologii na rozwój emocjonalny.
AI rewolucjonizuje sposób, w jaki młodzież zdobywa wiedzę. Jak wynika z danych NASK, 48% nastolatków używa jej do nauki, a 40% do odrabiania prac domowych. Skala zmian jest ogromna: Wikipedia, która w 2018 roku wspierała 76% uczniów, dziś służy jedynie 23% z nich. Spadek zaliczyło też Google (z 63% na 45%). Jednak AI to nie tylko cyfrowa encyklopedia. Dane Common Sense Media ujawniają głębszy, emocjonalny wymiar zjawiska. Blisko co piąty nastolatek szuka u bota porad w codziennych sprawach. 12% młodych ludzi mówi AI o rzeczach, którymi nigdy nie podzieliliby się z bliskimi. Niepokoi też, że 1 na 3 dzieci woli rozmawiać o ważnych dla siebie tematach ze sztuczną inteligencją niż z drugim człowiekiem. To przesunięcie zaufania ze świata realnego do cyfrowego tworzy lukę, której rodzice mogą nie zauważyć.
– Rodzice czy opiekunowie nie mogą zakładać, że wszyscy dostawcy platform AI stosują skuteczne zabezpieczenia dostosowane do wieku dzieci. Nawet jeśli ochrona istnieje, jej egzekwowanie bywa niespójne, a sama technologia rozwija się szybciej niż regulacje prawne – mówi Kamil Sadkowski, analityk cyberzagrożeń ESET.
Jakie są główne zagrożenia?
Dzieci wykorzystują generatywną sztuczną inteligencję (GenAI) na różne sposoby – od pomocy w zadaniach domowych po traktowanie bota jako cyfrowego towarzysza. Wiąże się z tym kilka istotnych ryzyk. Jednym z nich jest wpływ na rozwój emocjonalny i społeczny. Dzieci przechodzą przez intensywny okres rozwoju poznawczego i emocjonalnego, co czyni je podatnymi na wpływy. Poleganie na „przyjacielu” w postaci chatbota może odbywać się kosztem budowania realnych relacji z rówieśnikami, co pogłębia izolację społeczną.
Kolejnym poważnym zagrożeniem jest występujący w interakcjach z chatem, tzw. efekt potakiwania. Ponieważ chatboty są zaprogramowane tak, aby wpisać się w oczekiwania użytkownika, mogą generować odpowiedzi wzmacniające niebezpieczne stany – np. zaburzenia odżywiania, skłonności do samookaleczeń, a nawet myśli samobójcze.
Nie należy zapominać również o kwestiach prywatności. Wszystko, co dziecko wpisze w czacie, jest przechowywane przez dostawcę tej usługi. W niektórych przypadkach dane te mogą wycieknąć lub pojawić się pośrednio w odpowiedziach wygenerowanych dla innego użytkownika.
Coraz młodsze dzieci narażone na nieodpowiednie treści
Co więcej, dzieci i młodzież korzystające z botów mogą być narażone na dostęp do szkodliwych i nieodpowiednich dla ich wieku treści.
Modele językowe, generując treści przekazywane przez boty, posiadają odpowiednie filtry, które mają zapobiegać m.in ekspozycji użytkownika na niektóre treści. W praktyce, mechanizmy te nie są w pełni skuteczne.
Dzieci, zwłaszcza te biegłe technicznie, mogą stosować tzw. „jailbreaking”, czyli specyficzne komendy omijające zabezpieczenia, aby uzyskać dostęp do treści brutalnych lub o charakterze seksualnym. Innym ryzykiem jest dezinformacja lub halucynacje, często przedstawione w sposób niezwykle przekonujący. Dla dziecka może to oznaczać podejmowanie błędnych i potencjalnie szkodliwych decyzji np. w kwestiach związanych ze zdrowiem – dodaje Kamil Sadkowski, ESET.
Warto zauważyć, że problem szkodliwych treści nie dotyczy wyłącznie dzieci i nastolatków korzystających z popularnych chatbotów. Na rynku pojawia się coraz więcej interaktywnych zabawek, zintegrowanych z AI. Część z nich przeznaczona jest dla dzieci już od 3. roku życia.
Tymczasem dziennikarze NBC News przeprowadzili pod koniec ubiegłego roku test kilku takich produktów. W efekcie okazało się, że część z nich w czasie rozmowy podpowiadała, gdzie w domu można znaleźć ostre przedmioty lub jak zapalić zapałkę. Jeden z modeli udzielał też odpowiedzi na pytanie związane z tematyką seksualną.
Czerwone flagi – 5 sygnałów, które powinny budzić niepokój rodziców
Platformy AI podejmują pewne kroki związane z zapewnieniem bezpieczeństwa, ale odpowiedzialność w dużej mierze spoczywa na rodzicach.
Oto sygnały, które mogą świadczyć o niezdrowej relacji dziecka ze sztuczną inteligencją:
- Wycofanie się z życia rodzinnego i niechęć do spędzania czasu z przyjaciółmi.
- Lęk lub niepokój pojawiający się, kiedy dziecko nie ma dostępu do bota.
- Personifikacja: Mówienie o chatbocie tak, jakby był żywą osobą.
- Powtarzanie dezinformacji jako sprawdzonych faktów.
- Szukanie porad medycznych/psychologicznych u AI zamiast u dorosłych.
Zabezpieczenia techniczne to pierwszy krok
Chociaż w wielu przypadkach dostęp do chatbotów jest ograniczony dla osób poniżej 13. roku życia, weryfikacja nie zawsze jest skuteczna. Dlatego blokady techniczne są pierwszym krokiem, ale nie zastąpią edukacji i wzmacniania relacji z dzieckiem. Oto na co warto zwrócić uwagę przygotowując się do rozmowy na temat ryzyk AI:
● Dialog zamiast zakazów: Spróbuj podejść do tematu bez oceniania. Wyjaśnij dziecku, że bot to tylko maszyna zaprojektowana, tak by angażować użytkownika, a nie istota zdolna do odczuwania czy myślenia.
● Edukacja i krytyczne myślenie: Naucz dziecko weryfikować informacje (fact-checking) i uświadamiaj, że AI może się mylić.
● Zasady korzystania: Ustal limity czasu (podobnie jak w przypadku mediów społecznościowych) i korzystaj z narzędzi kontroli rodzicielskiej.
● Ochrona danych: Przypominaj dziecku, by nigdy nie podawało botom danych osobowych, adresów czy haseł.
Sztuczna inteligencja, choć angażująca i pomocna, wymaga od nas wprowadzenia dzieci w świat świadomej i krytycznej konsumpcji treści cyfrowych. W świecie zdominowanym przez technologię uważność opiekunów oraz budowanie wzajemnego zaufania stanowią ważną barierę przed cyfrowymi zagrożeniami.