czwartek, 29 stycznia, 2026

Nasze serwisy:

Więcej

    7 na 10 polskich nastolatków używa AI. Oto 5 sygnałów, że korzystanie z bota wymyka się spod kontroli

    Zobacz również

    Sztuczna inteligencja błyskawicznie staje się nie tylko „nowym Google”, ale także cyfrowym powiernikiem dzieci. Według NASK aż 70% nastolatków w Polsce korzysta z AI, a co dziesiąty robi to codziennie. Jednak obok pomocy w nauce, boty coraz częściej przejmują rolę doradców w sprawach, o których młodzi ludzie nie chcą rozmawiać z dorosłymi. W obliczu coraz częstszego korzystania przez dzieci z chatbotów AI w poszukiwaniu odpowiedzi, porad czy towarzystwa, pojawiają się kluczowe pytania o bezpieczeństwo, prywatność oraz wpływ technologii na rozwój emocjonalny.

    - Reklama -


    AI rewolucjonizuje sposób, w jaki młodzież zdobywa wiedzę. Jak wynika z danych NASK, 48% nastolatków używa jej do nauki, a 40% do odrabiania prac domowych. Skala zmian jest ogromna: Wikipedia, która w 2018 roku wspierała 76% uczniów, dziś służy jedynie 23% z nich. Spadek zaliczyło też Google (z 63% na 45%). Jednak AI to nie tylko cyfrowa encyklopedia. Dane Common Sense Media ujawniają głębszy, emocjonalny wymiar zjawiska. Blisko co piąty nastolatek szuka u bota porad w codziennych sprawach. 12% młodych ludzi mówi AI o rzeczach, którymi nigdy nie podzieliliby się z bliskimi. Niepokoi też, że 1 na 3 dzieci woli rozmawiać o ważnych dla siebie tematach ze sztuczną inteligencją niż z drugim człowiekiem. To przesunięcie zaufania ze świata realnego do cyfrowego tworzy lukę, której rodzice mogą nie zauważyć.

    Rodzice czy opiekunowie nie mogą zakładać, że wszyscy dostawcy platform AI stosują skuteczne zabezpieczenia dostosowane do wieku dzieci. Nawet jeśli ochrona istnieje, jej egzekwowanie bywa niespójne, a sama technologia rozwija się szybciej niż regulacje prawne – mówi Kamil Sadkowski, analityk cyberzagrożeń ESET.


    Jakie są główne zagrożenia?
    Dzieci wykorzystują generatywną sztuczną inteligencję (GenAI) na różne sposoby – od pomocy w zadaniach domowych po traktowanie bota jako cyfrowego towarzysza. Wiąże się z tym kilka istotnych ryzyk. Jednym z nich jest wpływ na rozwój emocjonalny i społeczny. Dzieci przechodzą przez intensywny okres rozwoju poznawczego i emocjonalnego, co czyni je podatnymi na wpływy. Poleganie na „przyjacielu” w postaci chatbota może odbywać się kosztem budowania realnych relacji z rówieśnikami, co pogłębia izolację społeczną.


    Kolejnym poważnym zagrożeniem jest występujący w interakcjach z chatem, tzw. efekt potakiwania. Ponieważ chatboty są zaprogramowane tak, aby wpisać się w oczekiwania użytkownika, mogą generować odpowiedzi wzmacniające niebezpieczne stany – np. zaburzenia odżywiania, skłonności do samookaleczeń, a nawet myśli samobójcze.

    Nie należy zapominać również o kwestiach prywatności. Wszystko, co dziecko wpisze w czacie, jest przechowywane przez dostawcę tej usługi. W niektórych przypadkach dane te mogą wycieknąć lub pojawić się pośrednio w odpowiedziach wygenerowanych dla innego użytkownika.

    Coraz młodsze dzieci narażone na nieodpowiednie treści
    Co więcej, dzieci i młodzież korzystające z botów mogą być narażone na dostęp do szkodliwych i nieodpowiednich dla ich wieku treści.

    Modele językowe, generując treści przekazywane przez boty, posiadają odpowiednie filtry, które mają zapobiegać m.in ekspozycji użytkownika na niektóre treści. W praktyce, mechanizmy te nie są w pełni skuteczne.

    Dzieci, zwłaszcza te biegłe technicznie, mogą stosować tzw. „jailbreaking”, czyli specyficzne komendy omijające zabezpieczenia, aby uzyskać dostęp do treści brutalnych lub o charakterze seksualnym. Innym ryzykiem jest dezinformacja lub halucynacje, często przedstawione w sposób niezwykle przekonujący. Dla dziecka może to oznaczać podejmowanie błędnych i potencjalnie szkodliwych decyzji np. w kwestiach związanych ze zdrowiem – dodaje Kamil Sadkowski, ESET.
    Warto zauważyć, że problem szkodliwych treści nie dotyczy wyłącznie dzieci i nastolatków korzystających z popularnych chatbotów. Na rynku pojawia się coraz więcej interaktywnych zabawek, zintegrowanych z AI. Część z nich przeznaczona jest dla dzieci już od 3. roku życia.

    Tymczasem dziennikarze NBC News przeprowadzili pod koniec ubiegłego roku test kilku takich produktów. W efekcie okazało się, że część z nich w czasie rozmowy podpowiadała, gdzie w domu można znaleźć ostre przedmioty lub jak zapalić zapałkę. Jeden z modeli udzielał też odpowiedzi na pytanie związane z tematyką seksualną.


    Czerwone flagi – 5 sygnałów, które powinny budzić niepokój rodziców
    Platformy AI podejmują pewne kroki związane z zapewnieniem bezpieczeństwa, ale odpowiedzialność w dużej mierze spoczywa na rodzicach.

    Oto sygnały, które mogą świadczyć o niezdrowej relacji dziecka ze sztuczną inteligencją:

    1. Wycofanie się z życia rodzinnego i niechęć do spędzania czasu z przyjaciółmi.
    2. Lęk lub niepokój pojawiający się, kiedy dziecko nie ma dostępu do bota.
    3. Personifikacja: Mówienie o chatbocie tak, jakby był żywą osobą.
    4. Powtarzanie dezinformacji jako sprawdzonych faktów.
    5. Szukanie porad medycznych/psychologicznych u AI zamiast u dorosłych.
      Zabezpieczenia techniczne to pierwszy krok
      Chociaż w wielu przypadkach dostęp do chatbotów jest ograniczony dla osób poniżej 13. roku życia, weryfikacja nie zawsze jest skuteczna. Dlatego blokady techniczne są pierwszym krokiem, ale nie zastąpią edukacji i wzmacniania relacji z dzieckiem. Oto na co warto zwrócić uwagę przygotowując się do rozmowy na temat ryzyk AI:
      ● Dialog zamiast zakazów: Spróbuj podejść do tematu bez oceniania. Wyjaśnij dziecku, że bot to tylko maszyna zaprojektowana, tak by angażować użytkownika, a nie istota zdolna do odczuwania czy myślenia.
      ● Edukacja i krytyczne myślenie: Naucz dziecko weryfikować informacje (fact-checking) i uświadamiaj, że AI może się mylić.
      ● Zasady korzystania: Ustal limity czasu (podobnie jak w przypadku mediów społecznościowych) i korzystaj z narzędzi kontroli rodzicielskiej.
      ● Ochrona danych: Przypominaj dziecku, by nigdy nie podawało botom danych osobowych, adresów czy haseł.
      Sztuczna inteligencja, choć angażująca i pomocna, wymaga od nas wprowadzenia dzieci w świat świadomej i krytycznej konsumpcji treści cyfrowych. W świecie zdominowanym przez technologię uważność opiekunów oraz budowanie wzajemnego zaufania stanowią ważną barierę przed cyfrowymi zagrożeniami.
    ŹródłoDagma
    0 Komentarze
    najnowszy
    najstarszy oceniany
    Inline Feedbacks
    View all comments
    - Reklama -

    Najnowsze

    FiiO DM15 R2R: Przenośny Odtwarzacz CD z Flagowym Przetwornikiem R2R

    FiiO, wiodący producent innowacyjnych urządzeń audio, z dumą prezentuje FiiO DM15 R2R, przenośny odtwarzacz CD, który łączy nostalgię za...