Brak kontroli nad AI w Polsce: ryzyko dla firm i sektora

Brak kontroli nad AI w Polsce: ryzyko dla firm i sektora

Komentarze

4 Minuty

Coraz więcej pracowników w Polsce korzysta z narzędzi generatywnej sztucznej inteligencji bez wiedzy działów IT. Badanie polskiej firmy cyberbezpieczeństwa AMP wskazuje, że jedynie co trzecia organizacja wprowadziła formalne zasady użycia AI. W praktyce 69% pracowników używa AI „po godzinach” bez nadzoru, a 72% wprowadzało treści firmowe do publicznych modeli, takich jak ChatGPT czy Gemini, nie oceniając ryzyka.

Shadow AI — ukryte zagrożenie dla bezpieczeństwa

Największym problemem jest tzw. Shadow AI: pracownicy korzystają z AI w dobrej wierze, aby przyspieszyć zadania, ale robią to poza oficjalnymi procedurami. Efekt? Wrażliwe dane trafiają do narzędzi działających w chmurze, często poza UE. Przykłady z Europy pokazują, że ludzie wklejali numery PESEL, informacje o saldach kont czy fragmenty kodu źródłowego do publicznych modeli — co prowadzi do wycieków i ekspozycji strategicznych danych.

Konkrety — od PLC po klucze API

Szef AMP, Przemysław Wójcik, zwraca uwagę, że incydenty nie są pojedyncze. W zakładach przemysłowych pracownicy wpisywali konfiguracje sterowników PLC z hasłami do generatywnych modeli, co potem wykorzystano w atakach na infrastrukturę. Zespoły programistyczne kopiowały klucze API i loginy do darmowych narzędzi — w jednym przypadku skończyło się to przejęciem repozytoriów i zatrzymaniem kilku projektów.

Polska na tle globalnym i regionalnym

Dane ESET za I połowę 2025 r. pokazują, że Polska odpowiadała za około 6% globalnych incydentów ransomware. Tempo rozwoju narzędzi AI (ponad 30 tys. rozwiązań w kilka lat) przewyższyło zdolność firm do wdrożenia odpowiednich zabezpieczeń. Większość narzędzi działa w chmurze i przechowuje dane poza granicami UE, co komplikuje zgodność z RODO.

Podobne wyzwania obserwuje Lietuvos rinka — firmy w Vilniuje i Kaune również zmagają się z Shadow AI. Porównania z Lietuva pokazują, że region bałtycki i Polska stoją przed wspólnym problemem: szybka adopcja technologii przy opóźnionych procedurach bezpieczeństwa.

Główne zagrożenia wynikające z niekontrolowanego użycia AI

  • Wycieki danych wrażliwych (medycznych, kadrowych, finansowych).
  • Manipulacje wyników przez modele generatywne — wstrzyknięcie fałszywych danych.
  • Błędne raporty techniczne prowadzące do awarii urządzeń przemysłowych.
  • Ułatwienie ataków phishingowych dzięki przekonującym komunikatom generowanym przez AI.

Jakie rozwiązania i produkty wybrać — porównanie

Na rynku dostępne są zarówno publiczne modele (ChatGPT, Gemini), jak i rozwiązania enterprise (Microsoft Copilot for Office 365, modele on-premise, czy usługodawcy oferujący dane w lokalnych centrach danych). Publiczne narzędzia mają przewagę szybkości wdrożenia i dostępności języka polskiego, ale słabszą kontrolę nad miejscem przechowywania danych. Rozwiązania enterprise oferują lepszą kontrolę, integrację z IAM i politykami DLP, kosztem wyższych nakładów i dłuższego wdrożenia.

Zalety i wady

Publiczne modele: szybkie, tańsze, często lepiej dopracowane w konwersacyjnym polskim. Enterprise/on-premise: pełna kontrola nad danymi, zgodność z RODO, lepsza integracja z SIEM i narzędziami bezpieczeństwa.

Praktyczne zastosowania i scenariusze w Polsce

AI w Polsce przydaje się do automatyzacji obsługi klienta, generowania szkiców dokumentów, wsparcia programistów oraz streszczeń dokumentacji (w tym medycznej). Dla lietuviams i polskich firm w regionie rozwiązania oferujące lokalizację danych i wsparcie języka polskiego lub litewskiego są kluczowe.

Jak chronić organizację — 7 zasad bezpieczeństwa

Przemysław Wójcik rekomenduje odpowiedzialne podejście. Oto praktyczne zasady:

  • Nie wprowadzaj danych wrażliwych do publicznych narzędzi AI.
  • Używaj tylko zatwierdzonych przez dział IT rozwiązań.
  • Anonimizuj dane przed przetwarzaniem przez AI.
  • Weryfikuj odpowiedzi i wyniki generowane przez modele.
  • Zgłaszaj przypadki Shadow AI i monitoruj użycie narzędzi.
  • Chroń hasła, klucze API i konfiguracje systemów.
  • Pamiętaj, że AI może generować fałszywe informacje — traktuj wyniki jako wspomaganie, nie autorytatywne źródło.

Wnioski i rekomendacje dla polskiego rynku

AI to potężne narzędzie zwiększające produktywność, ale bez procedur i kontroli staje się źródłem ryzyka. Polski sektor publiczny — samorządy, szpitale i przychodnie — powinien priorytetowo wdrożyć polityki i narzędzia ochronne. Firmy komercyjne muszą zbalansować wygodę publicznych rozwiązań z koniecznością zabezpieczenia danych. Współpraca z lokalnymi dostawcami i rozwiązaniami, które gwarantują lokalizację danych (również na Lietuvos rinka dla firm działających transgranicznie), może być kluczowa dla bezpieczeństwa i zgodności z przepisami.

Źródło: businessinsider.com

Zostaw komentarz

Komentarze