4 Minuty
Wyniki badania zleconego przez Krajową Radę Radiofonii i Telewizji jasno pokazują, że Polacy oczekują przejrzystości przy wykorzystywaniu sztucznej inteligencji w mediach. Badanie „Sztuczna inteligencja w mediach”, przeprowadzone przez Ogólnopolską Grupę Badawczą (OGB) metodą CATI w dniach 23–27 października 2025 na próbie reprezentatywnej N=1000, wskazuje na rosnącą świadomość i jednoczesne obawy dotyczące wpływu algorytmów na jakość informacji.
Najważniejsze wnioski
Świadomość i oczekiwanie oznaczania
Ponad 92% respondentów zauważa, że dziennikarze i redakcje coraz częściej korzystają z narzędzi AI. Co ważne, niemal 96% badanych oczekuje wyraźnego oznaczania materiałów stworzonych lub wspomaganych przez sztuczną inteligencję. To sygnał dla polskich wydawców i platform cyfrowych, że transparentność będzie kluczowym wymogiem zaufania użytkowników.
Zalety postrzegane przez odbiorców
Mimo ostrożności odbiorcy dostrzegają praktyczne korzyści: automatyczne tłumaczenia, oszczędność czasu przy przygotowaniu materiałów, poprawa jakości grafiki i wizualizacji danych. Ponad połowa (51%) uważa, że AI w tłumaczeniach ułatwia dostęp do wiedzy — aspekt istotny także dla polskich firm rozwijających content w języku polskim i dla użytkowników szukających źródeł w obcych językach.

Główne obawy: dezinformacja i "halucynacje"
Manipulacja opinią publiczną
66% badanych obawia się możliwości manipulowania opinią publiczną przez treści generowane przez AI, a niemal 67% uznaje edukację w rozpoznawaniu fałszywych informacji za konieczną. Kluczowym problemem są tzw. "halucynacje AI" — sytuacje, gdy model generuje nieprawdziwe informacje podane jako fakty. Ponad 44% respondentów traktuje to jako realne zagrożenie dla rzetelności przekazu.
AI jako prezenter? Nie dla większości
Badani zdecydowanie sprzeciwiają się zastąpieniu ludzkich prezenterów przez wygenerowane postaci: ponad 95% jest temu przeciwne. W telewizji 76% zdecydowanie odrzuca generowanych prezenterów, a w radiu ponad 73% także nie akceptuje takiego rozwiązania.
Wizerunek zmarłych i granice akceptacji
Największy sprzeciw wzbudza wykorzystywanie wizerunku osób zmarłych w audycjach publicystycznych — ponad 93% respondentów odrzuca takie praktyki. Częściowa akceptacja pojawia się jedynie w kontekście treści edukacyjnych (35%) i artystycznych (25%). To ważna wskazówka dla producentów mediów i platform archiwizujących materiały historyczne.
Rekomendacje i implikacje dla rynku
Badanie zaleca jednoznaczne oznaczanie treści AI (jednolite etykiety i komunikaty) oraz podkreślanie roli człowieka jako ostatecznego weryfikatora (preferuje to blisko 60% badanych). Zalecane jest stopniowe wprowadzanie AI w funkcjach wspierających — tłumaczenia, wizualizacja danych, automatyzacja procesów redakcyjnych — bez zastępowania kreatywności i wrażliwych ról.
Funkcje produktów, porównania i zastosowania
Na rynku dostępne są rozwiązania AI, które różnią się funkcjami: tłumaczenia maszynowe z korektą ludzką, narzędzia do automatycznej transkrypcji, generatory grafiki i systemy wykrywania deepfake’ów. Dla polskich wydawców najważniejsze są modele oferujące lokalizację językową i wsparcie dla języka polskiego oraz integracje z newsroomami. W porównaniu do globalnych trendów Polska wykazuje podobne obawy jak kraje Europy Środkowo-Wschodniej, ale coraz szybciej adaptuje rozwiązania wspierające pracę redakcji.
Regionalny kontekst: porównanie z Litwą
W regionie bałtyckim również rośnie zainteresowanie regulacjami — w Lietuva (Lietuvos rinka) tematyka transparentności AI trafia do debaty publicznej. Badania wśród lietuviams w Vilniuje i Kaune pokazują zbliżone obawy dotyczące dezinformacji, choć akceptacja dla automatycznych tłumaczeń jest nieco wyższa. Dla polskich firm działających na rynkach zagranicznych takie porównania są pomocne przy planowaniu produktów i komunikacji.
Co to oznacza dla polskich użytkowników i firm?
Dla konsumentów: większa dostępność narzędzi AI w języku polskim i oczekiwanie jasnych etykiet. Dla mediów i firm technologicznych: konieczność wprowadzenia standardów oznaczania, szkolenia zespołów redakcyjnych w weryfikacji treści oraz inwestycji w narzędzia wykrywające fałszywe informacje. Przejrzystość i współpraca z regulatorami (jak KRRiT) będą kluczowe, by utrzymać zaufanie odbiorców w erze algorytmów.
Badanie OGB dostarcza konkretnych wskazówek dla polskiego rynku medialnego i technologicznego — teraz czas na praktyczne wdrożenia i edukację użytkowników.
Źródło: bankier
Zostaw komentarz