poniedziałek, 26 stycznia, 2026

Nasze serwisy:

Więcej

    Jak skutecznie chronić dzieci? Debata w Sejmie

    Zobacz również

    Treści seksualne, samobójcze, ksenofobiczne, morderstwa, narkotyki i pedofilia. Dziś to nie są już pojedyncze incydenty, ale element cyfrowej codzienności coraz młodszych dzieci.

    To właśnie ten obraz – skala i powszechność najbardziej skrajnych treści – stał się punktem wyjścia do posiedzenia sejmowej Komisji do Spraw Dzieci i Młodzieży (22.01).

    - Reklama -

    Komisję zwołano w reakcji na serię dramatycznych zdarzeń z ostatnich miesięcy, w tym zabójstwo 11-letniej dziewczynki w Jeleniej Górze, oraz na kolejne raporty pokazujące rosnącą skalę przemocy, samookaleczeń i wykorzystywania dzieci w sieci. Celem posiedzenia było omówienie wpływu mediów społecznościowych, komunikatorów i narzędzi opartych na sztucznej inteligencji na bezpieczeństwo osób małoletnich oraz zapowiedź prac nad zmianami legislacyjnymi.

    W obradach wzięli udział: przedstawiciele Ministerstwa Edukacji Narodowej, Ministerstwa Cyfryzacji, Ministerstwa Zdrowia, NASK, organizacji pozarządowych, środowiska naukowego oraz instytucji pracujących na co dzień z dziećmi i młodzieżą. Bo problem przestał dotyczyć wyłącznie „niebezpiecznych przypadków”. Stał się systemowy.

    W trakcie posiedzenia wielokrotnie podkreślano, że internet jest dziś jednym z głównych środowisk, w których dzieci w Polsce doświadczają przemocy, upokorzenia i poważnych kryzysów psychicznych. Tymczasem państwo wciąż nie zbudowało dostatecznie skutecznych mechanizmów, które mogłyby tę rosnącą skalę zagrożeń realnie ograniczyć.

    Gdzie kończy się dzieciństwo, a zaczyna algorytm
    Cyfrowe środowisko nie jest już dodatkiem do świata dzieci. Jest jego rdzeniem. To tam zaczynają się pierwsze relacje, pierwsze konflikty i pierwsze doświadczenia porażki. Dzieje się to w wieku, w którym emocje są jeszcze niestabilne, a mechanizmy obronne dopiero się kształtują. I właśnie w tym momencie dzieci wchodzą w świat, który wciąż nie ma dla nich wystarczających mechanizmów ochrony – ani po stronie prawa, ani po stronie technologii.

    Dziś formalną granicą dostępu do mediów społecznościowych jest 13. rok życia, wynikający z przepisów o ochronie danych osobowych. W ocenie ekspertów to zdecydowanie za mało.


    – Granica 13 lat jest niezgodna z wiedzą naukową o rozwoju dziecka – mówił podczas posiedzenia komisji wiceminister cyfryzacji Michał Gramatyka. – To właśnie wiek 11–13 lat jest okresem największej podatności na presję rówieśniczą, kryzysy emocjonalne i problematyczne korzystanie z mediów społecznościowych.

    W tym wieku szczególnie łatwo uruchamia się mechanizm, którego nie widać na pierwszy rzut oka: rekomendacje zastępują rozmowę, a dopasowane treści potrafią przebić się przez zasady, które obowiązują w domu. Skutki widać w danych o cyberprzemocy. Prof. Dorota Kleszczewska z Instytutu Matki i Dziecka zwracała uwagę, że w porównaniach międzynarodowych realizowanych w ramach badań HBSC Polska młodzież jest – w czołówce zarówno ofiar jak i sprawców cyberprzemocy. A to w oczywisty sposób wpływa na psychikę dopiero rozwijanych się umysłów młodych ludzi.

    Od kilku lat widzimy wyraźny związek między intensywnym korzystaniem z mediów społecznościowych a zdrowiem psychicznym – podkreślała prof. Aleksandra Lewandowska, konsultantka krajowa w dziedzinie psychiatrii dzieci i młodzieży. – Badania prowadzone na dużych populacjach pokazują prawie trzykrotnie większe ryzyko występowania zaburzeń depresyjnych i zachowań samobójczych u młodych nastolatków intensywnie korzystających z mediów społecznościowych – dodaje.

    Najbardziej niepokojące jest jednak to, jak często dzieci stykają się z treściami skrajnymi bez własnej inicjatywy.

    Wśród uczniów siódmych klas 39 procent miało styczność z treściami suicydalnymi. W szkołach ponadpodstawowych – ponad 50 procent – mówiła dr Halszka Witkowska. – Tylko 9 procent kiedykolwiek takich treści szukało. Reszcie one się po prostu wyświetlają.

    To właśnie tutaj pęka mit „świadomego wyboru” i „zdrowego dystansu”. Dziecko nie musi niczego wpisywać w wyszukiwarkę. Wystarczy, że algorytm uzna dany temat za skuteczny w przyciąganiu uwagi.

    Jeżeli dziecko jest w kryzysie psychicznym, a algorytmy dodatkowo podrzucają mu takie treści, to pogłębia jego kryzys – dodawała Witkowska. – A jeżeli dziecko już z tego kryzysu wyszło, te treści stają się tragiczną przypominajką.

    W wypowiedziach ekspertów wracała też twarda statystyka: w 2025 roku w grupie do 19. roku życia liczba samobójstw wzrosła o ponad 26 procent; w grupie 7–12 lat odnotowano 5 śmierci samobójczych i 83 próby.

    Dzieci w kryzysie psychicznym są w internecie same – mówiła Witkowska. – Profilaktyka działa, ale gdy dziecko staje się ofiarą hejtu, przemocy, przemocy rówieśniczej – w tym momencie system przestaje je chronić.

    Rośnie też skala uzależnienia od ekranów i ryzykownych zachowań w sieci. Przedstawicielka Instytutu Cyfrowego Obywatelstwa sygnalizowała, że 34 procent młodzieży deklaruje korzystanie z mediów społecznościowych „prawie cały czas”, a ponad 2/3 spędza przed ekranem więcej niż 5 godzin dziennie; w weekendy co dziesiąte dziecko – 12 godzin. Do tego dochodzą nawyki, które dla sprawców są po prostu zaproszeniem: ponad połowa młodzieży przyjmuje zaproszenia od nieznajomych, a tylko niewielki odsetek prosi o pomoc, gdy w sieci wydarzy się coś złego.

    I w tym miejscu dochodzi jeszcze perspektywa rodziców, która podczas komisji wybrzmiała najmocniej jako emocja: bezradność. Z badań Fundacji More in Common przywoływanych na posiedzeniu wynika, że 89 procent rodziców w Polsce jest zaniepokojonych bezpieczeństwem swoich dzieci w internecie, a 87 procent przyznaje wprost, że potrzebuje wsparcia z zewnątrz.

    Prawo, które nie dogania praktyki
    Posiedzenie sejmowej komisji było próbą uporządkowania tematu, który dawno wyrósł poza szkolne pogadanki i pojedyncze apele o „kontrolę rodzicielską”. Eksperci na sali zgadzali się, że sama granica wieku – nawet jeśli zostanie przesunięta – niczego nie zmieni, jeśli nie będzie jej dało się realnie egzekwować.

    – Mamy dziś ograniczenie wiekowe w teorii, ale w praktyce większość młodszych dzieci i tak korzysta z tych usług – mówił Michał Gramatyka z Ministerstwa Cyfryzacji. – Bez skutecznej weryfikacji wieku każda nowa granica pozostanie kolejnym martwym przepisem.

    Wypowiedzi ekspertów i organizacji społecznych prowadziły do konkluzji problemem nie jest wyłącznie „czy podnieść wiek”, ale jak zmusić rynek do tego, by przestał projektować usługi przeciwko dzieciom. Padał wyraźny postulat „safety by design” – bezpieczeństwa wbudowanego w produkt, a nie doklejanego w regulaminie.

    – Każde dziecko może się z takimi treściami spotkać i nigdy nie wiemy, w jakim będzie stanie psychicznym, kiedy algorytm je podsunie – podkreślała przedstawicielka resortu cyfryzacji.

    Według ekspertów jednym z kluczowych problemów jest to, że państwo próbuje regulować internet etapami. Osobno pewne platformy, osobno inne usługi. Tymczasem dla dziecka to jest jeden świat – bez wyraźnych granic między aplikacjami.

    W efekcie część zagrożeń zawsze pozostaje poza zasięgiem regulacji. I do tego właśnie odnosiła się jedna z najczęściej cytowanych diagnoz:

    – Jeżeli będziemy regulować w silosach, zawsze coś nam ucieknie – argumentowała przedstawicielka Instytutu Cyfrowego Obywatelstwa. – Największym problemem jest długi ogon mniejszych serwisów i aplikacji, które wymykają się każdej selektywnej regulacji.

    Osobny wątek dotyczył komunikatorów szyfrowanych – bo to tam, jak wskazywano, przenosi się dziś część najpoważniejszych zagrożeń.

    – Model działania sprawcy jest bardzo powtarzalny: najpierw budowanie zaufania na platformie społecznościowej, potem przejście na szyfrowany komunikator – mówił przedstawiciel Państwowej Komisji ds. przeciwdziałania pedofilii. – To są środowiska wysokiego ryzyka.

    Gdzie kończy się odpowiedzialność platform, a zaczyna odpowiedzialność państwa
    Stanowisko NASK przedstawił Maciej Siciarek, dyrektor CERT Polska w NASK. Zgodził się, że samo podniesienie wieku dostępu jest potrzebne, ale podkreślał, że bez realnego egzekwowania prawa i objęcia regulacjami także komunikatorów żadna granica nie będzie działać.

    W perspektywie NASK ochrona dzieci w internecie nie sprowadza się do jednego limitu wiekowego. Doświadczenia Dyżurnet.pl i zespołów analitycznych pokazują, że problemem zasadniczym jest powszechny, łatwy i w praktyce niekontrolowany dostęp dzieci do treści nielegalnych i szkodliwych – niezależnie od formalnych ograniczeń.

    – Najważniejszym globalnym problemem nie jest sam wiek dostępu, lecz powszechny i łatwy dostęp dzieci do treści nielegalnych i szkodliwych – wskazuje w stanowisku NASK dyrektor Radosław Nielek. – Platformy w niedostatecznym stopniu moderują treści zamieszczane przez różne kategorie użytkowników, w tym przestępców seksualnych oraz systemy AI.

    NASK podkreśla też, że przesuwanie wieku bez równoległego wzmocnienia egzekwowania prawa i obowiązków po stronie platform może nie przynieść realnej zmiany: jeśli limity wieku dalej nie będą egzekwowane, dzieci i tak znajdą drogę do tych samych mechanizmów i treści. Dlatego potrzebne jest podejście oparte na dowodach, dialogu i rozwiązaniach, które da się egzekwować – a nie tylko dopisać do regulaminów.

    Szczególnie ważnym obszarem są komunikatory, ze względu na brak moderacji, może tam trafić wszystko.

    Komunikatory pełnią dziś funkcje zbliżone do mediów społecznościowych, umożliwiają publikowanie treści, tworzenie grup, budowanie profili oraz nawiązywanie kontaktów z osobami nieznajomymi – podkreślał Maciej Siciarek. – To właśnie tam trafia do dzieci znacząca część niebezpiecznych treści.


    Równolegle narasta skala zagrożeń związanych z narzędziami AI – od deepfake’ów i deepnudes tworzonych z wizerunkami dzieci po doniesienia o groomingu prowadzonym przez chatboty.

    „Dzisiejszy brak regulacji w tym zakresie przerzuca całą odpowiedzialność na małoletniego użytkownika” – można przeczytać w stanowisku NASK. Z tej diagnozy wynikają priorytetowe postulaty: realna weryfikacja wieku, skuteczniejsza moderacja i polskojęzyczne zespoły reagowania, restrykcyjne ustawienia prywatności dla nieletnich, wzmocnienie roli trusted flaggers i szybkie ścieżki reakcji, dostęp do danych dla badaczy oraz objęcie ochroną również komunikatorów i czatów.

    Ochrona dzieci to nasza wspólna odpowiedzialność
    Dane przywołane podczas posiedzenia komisji pokazują jednoznacznie: dzieci już dziś funkcjonują w środowisku wysokiego ryzyka. A jeśli prawo pozostaje jedynie deklaracją – ryzyko nie znika, tylko się przenosi: z platform na komunikatory, z treści tworzonych przez ludzi na treści generowane przez AI, z otwartej sieci do zamkniętych kanałów.
    Dlatego kluczowym wnioskiem z tej debaty nie jest pytanie, czy regulować, lecz jak zbudować system, który realnie zadziała – łączący egzekwowalne przepisy, odpowiedzialność platform, nadzór nad ryzykiem i konsekwentną edukację. W tym sensie ochrona dzieci w internecie staje się dziś jednym z najważniejszych sprawdzianów nowoczesnego państwa: nie testem intencji, tylko testem skuteczności.

    Bo jeśli my dziś nie zadbamy o bezpieczeństwo najmłodszych w sieci, jutro będziemy musieli zmierzyć się z konsekwencjami, których może nie dać się już naprawić.

    ŹródłoNASK
    0 Komentarze
    najnowszy
    najstarszy oceniany
    Inline Feedbacks
    View all comments
    - Reklama -

    Najnowsze

    Na Roblox wraca Bank Millennium Virtual Vibes

    Ruszyła nowa edycja Bank Millennium Virtual Vibes, jedynego w Polsce festiwalu muzycznego realizowanego w metaverse na platformie Roblox. W...