5 Minuty
Rząd przyjął projekt nowelizacji ustawy o świadczeniu usług drogą elektroniczną, który ma wdrożyć w Polsce przepisy unijnego Aktu o usługach cyfrowych (DSA). Jak tłumaczy wicepremier i minister cyfryzacji Krzysztof Gawkowski, celem nie jest cenzura, lecz zwiększenie bezpieczeństwa w sieci i ochrona użytkowników przed treściami wyraźnie zabronionymi przez kodeks karny. Projekt definiuje katalog sytuacji, w których możliwe będzie wystąpienie o zablokowanie nielegalnych treści — od gróźb i nawoływania do przestępstw, po propagowanie treści pedofilskich czy sprzedaż nielegalnych produktów.
Główne założenia projektu
Kto będzie nadzorował wdrożenie DSA w Polsce?
Projekt przewiduje podział kompetencji: w większości spraw nadzór ma sprawować prezes Urzędu Komunikacji Elektronicznej (UKE). KRRiT otrzyma kompetencje dotyczące platform wideo, a UOKiK zajmie się platformami handlowymi i ochroną konsumentów. Daje to ramy dla koordynacji działań administracyjnych i egzekucji nakazów blokowania treści.
Jakie treści mogą zostać zablokowane?
W wykazie znalazły się treści związane z 27 czynami zabronionymi: groźby karalne, nawoływanie do zabójstwa, pochwała zachowań pedofilskich, propaganda totalitarnych ideologii, mowa nienawiści ze względu na narodowość, rasę, wyznanie czy pochodzenie etniczne. Do tego dodano poważne przestępstwa, jak przyjęcie zlecenia zabójstwa, werbunek w handlu ludźmi, utrwalanie wizerunku osoby bez zgody, prezentowanie pornografii małoletnim poniżej 15 lat czy rozsyłanie fałszywych alarmów.
Procedury i prawa użytkowników
Jak wygląda procedura blokowania?
Wnioskodawcami mogą być osoby fizyczne oraz organy państwowe — prokuratura, Policja, KAS czy Straż Graniczna (w sprawach handlu ludźmi). Po złożeniu wniosku platforma lub usługodawca ma obowiązek zawiadomić autora treści, który otrzyma dwa dni na przedstawienie swojego stanowiska. Decyzję o usunięciu może wydać prezes UKE lub przewodniczący KRRiT (dla platform wideo). Od decyzji administracyjnej nie przysługuje odwołanie administracyjne, lecz autor może wnieść sprzeciw do sądu powszechnego.

Terminy rozpatrywania
Procedury administracyjne przewidują szybkie terminy: 2 dni dla wniosków złożonych przez Policję lub prokuraturę, 7 dni dla użytkowników lub zaufanych podmiotów sygnalizujących oraz do 21 dni w sprawach skomplikowanych. Projekt zakłada też mechanizmy naprawcze: jeśli platforma błędnie usunie legalne treści, prezes UKE lub przewodniczący KRRiT mogą nakazać ich przywrócenie.
Funkcje „produktu” — co daje ustawa platformom i użytkownikom?
Ustawa pełni rolę regulacyjnego „produktowego” zestawu narzędzi: umożliwia szybkie reagowanie na zagrożenia, wprowadza przejrzystość działań platform (w tym zasady moderacji), wymusza jawność reklam oraz ograniczenia profilowania danych. Dla przedsiębiorstw to z jednej strony obowiązek wdrożenia procedur zgodnych z DSA, z drugiej — jasne ramy współpracy z organami administracji.
Porównanie z DSA i innymi rynkami
Akt o usługach cyfrowych obowiązuje w UE od 17 lutego 2024 r. Polska implementuje jego zapisy z uwzględnieniem lokalnych realiów. W porównaniu do sąsiednich krajów, jak Lietuva, które również dostosowuje prawo do DSA, polskie rozwiązania mocniej akcentują rolę UKE jako koordynatora. Dla firm działających na Lietuvos rinka oraz dla lietuviams prowadzących działalność transgraniczną (np. w Vilniuje czy Kaune) oznacza to konieczność monitorowania różnych wymogów administracyjnych w poszczególnych państwach członkowskich.
Zalety, wady i praktyczne zastosowania
Zalety
- Zwiększone bezpieczeństwo użytkowników oraz możliwość szybkiego usuwania groźnych treści.
- Jasne kompetencje organów nadzoru (UKE, KRRiT, UOKiK).
- Wymuszenie większej przejrzystości reklam i ograniczeń profilowania.
Wady i ryzyka
- Obawy organizacji pozarządowych o ryzyko nadmiernej cenzury politycznej — ryzyko ograniczenia debaty publicznej.
- Konflikty prawne dotyczące zakresu definicji „nielegalnej treści” i czasu reakcji platform.
- Konieczność inwestycji technologicznych przez mniejsze platformy i sklepy internetowe.
Praktyczne zastosowania
Ustawa wpływa na działania działów compliance, zespołów moderacji treści i dostawców usług chmurowych. Platformy społecznościowe, serwisy wideo i sklepy internetowe działające w Polsce muszą dostosować systemy wykrywania treści (w tym rozwiązania oparte na AI) do wymogów DSA i lokalnych procedur odwoławczych.
Co to oznacza dla polskich użytkowników i firm?
Dla polskich konsumentów projekt może oznaczać większe bezpieczeństwo w sieci i szybszą reakcję na przestępstwa online. Dla firm — obowiązek transparentności reklamy i ograniczeń w profilowaniu oraz potencjalne koszty dostosowania systemów moderacji. Firmy działające międzynarodowo (również w regionie Europy Środkowo-Wschodniej, w tym w Lietuva i na Lietuvos rinka) powinny monitorować różnice w implementacji DSA, np. procedury w Vilniuje czy Kaune, aby zapewnić zgodność operacyjną.
Harmonogram i konsultacje
Ministerstwo Cyfryzacji opublikowało najnowszą wersję projektu 22 września, po dwukrotnych konsultacjach, które uwzględniły większość uwag organizacji pozarządowych. Ustawa ma wejść w życie miesiąc po ogłoszeniu, z pewnymi wyjątkami dotyczącymi nakazów usunięcia treści.
Podsumowanie
Projekt nowelizacji to krok w kierunku wdrożenia DSA w Polsce — z naciskiem na bezpieczeństwo, ale też z ryzykiem sporów wokół granic wolności słowa. Technologie moderacji treści, narzędzia AI i praktyki reklamowe będą musiały ewoluować, aby sprostać nowym oczekiwaniom regulatorów i użytkowników zarówno w Polsce, jak i na sąsiednich rynkach. Dla przedsiębiorstw kluczowe będzie zrozumienie nowych obowiązków i szybkie dostosowanie procedur operacyjnych.
Źródło: bankier
Komentarze