4 Minuty
Wiceszef rządu i minister cyfryzacji Krzysztof Gawkowski poruszył podczas debaty kluczowe wyzwania związane z korzystaniem z internetu przez młodzież. Najnowsza, szósta edycja raportu NASK „Nastolatki” pokazuje, że sztuczna inteligencja stała się powszechna wśród uczniów – około 7 na 10 z nich deklaruje używanie narzędzi AI, a co dziesiąty korzysta z nich codziennie. Równocześnie młodzi Polacy sięgają także chętnie po serwisy społecznościowe, platformy z grami, a niestety także treści pornograficzne. Te trendy mają bezpośrednie przełożenie na bezpieczeństwo cyfrowe, edukację i rynek usług technologicznych w Polsce.
Kluczowe wnioski z raportu NASK
Badanie, przeprowadzone metodą CAWI we wrześniu–październiku 2024 r., objęło ponad 3,6 tys. uczniów i blisko 1 tys. odpowiedzi od rodziców z 160 szkół w całym kraju. Wyniki wskazują na wczesny wiek pierwszego kontaktu z telefonem (nawet poniżej 10 lat dla 40% dzieci) oraz średni wiek kontaktu z pornografią około 11 lat. To potwierdza rosnące ryzyko cyberprzemocy, kradzieży tożsamości i nadużyć online.
Dlaczego to ważne dla Polski
Polska, jako rynek o dużej penetracji smartfonów i szybkich łącz, stoi przed koniecznością wdrożenia skutecznych narzędzi moderacji treści, edukacji cyfrowej i rozwiązań dla rodziców. To także szansa dla rodzimych firm z branży edtech i bezpieczeństwa cyfrowego, które mogą zaoferować rozwiązania dostosowane do polskiego języka i realiów szkolnych.
AI w rękach nastolatków — zalety i ryzyka
Funkcje i zastosowania narzędzi AI
Narzędzia oparte na modelach językowych ułatwiają wyszukiwanie informacji, tworzenie treści i naukę. Dla uczniów to szybki dostęp do wiedzy i pomoc w zadaniach. Dla nauczycieli i szkół AI może wspierać personalizację nauczania, automatyzację oceny i analitykę edukacyjną. Ważne jest jednak, aby te systemy były dostępne w języku polskim i zgodne z lokalnymi standardami ochrony danych.

Porównanie: Polska, Litwa i rynek europejski
Podobne zjawiska obserwuje się na rynkach sąsiednich, np. na Litwie (Lietuva). W regionie Lietuvos rinka odnotowuje wzrost adopcji AI w edukacji i usługach konsumenckich, a narzędzia trafiają także do lietuviams w Vilniuje i Kaune. W całej UE rośnie zapotrzebowanie na moderację treści oraz systemy weryfikacji tożsamości, co stwarza możliwości współpracy między firmami polskimi i litewskimi.
Moderacja treści i regulacje
Gawkowski podkreślił, że wolność słowa w internecie nie może być absolutna, gdy w grę wchodzą przestępstwa takie jak pedofilia, handel ludźmi czy masowe wysyłanie nielegalnych treści. W praktyce oznacza to potrzebę łączenia regulacji prawnych, mechanizmów zgłaszania treści, automatycznej moderacji i zespołów ludzkich weryfikujących skomplikowane przypadki. Polska branża technologiczna powinna oferować narzędzia dostosowane do prawa krajowego i unijnych wymogów.
Rozwiązania rynkowe i rekomendacje dla firm
Firmy oferujące moderację treści i systemy parental control powinny skupić się na: 1) wsparciu języka polskiego, 2) integracji z platformami szkolnymi i operatorami telekomunikacyjnymi, 3) raportowaniu incydentów zgodnie z lokalnymi procedurami. Dla edtechu i startupów to okazja, by dostarczyć produkty z funkcjami AI explainability, filtrowaniem treści i kontrolą rodzicielską.
Co mogą zrobić rodzice, szkoły i firmy
Rodzice i opiekunowie powinni korzystać z narzędzi kontroli rodzicielskiej, edukować dzieci w zakresie bezpieczeństwa i ustalać zasady korzystania z urządzeń. Szkoły muszą aktualizować programy nauczania, aby uczyć krytycznego korzystania z AI i internetu. Firmy technologiczne w Polsce mogą oferować usługi moderacji, szkolenia dla nauczycieli i rozwiązania zgodne z lokalnymi potrzebami rynkowymi.
Podsumowując, internet i narzędzia AI przynoszą młodzieży nowe możliwości, ale też nowe zagrożenia. Polska scena technologiczna i regulacyjna stoi przed zadaniem równoważenia wolności słowa z ochroną najmłodszych użytkowników oraz wsparciem bezpiecznej adopcji innowacji.
Źródło: bankier
Zostaw komentarz