3 Minuty
Chiny zaprezentowały projekt rygorystycznych przepisów mających na celu uniemożliwienie chatbotom i konwersacyjnym systemom sztucznej inteligencji (AI) manipulowania emocjami użytkowników lub nakłaniania ich do samookaleczeń. Proponowane środki oznaczają istotny zwrot od tradycyjnej moderacji treści ku temu, co chińscy regulatorzy określają jako 'bezpieczeństwo emocjonalne'.
Nowy priorytet: bezpieczeństwo emocjonalne, nie tylko kontrola treści
Cyberspace Administration of China (CAC) opublikowała projekt regulacji do konsultacji społecznych, który w przypadku wdrożenia stanie się jednym z najbardziej restrykcyjnych dokumentów dotyczących usług AI o charakterze konwersacyjnym na świecie. Regulacje te wykraczają poza dotychczasowe ramy cenzury nielegalnych czy nieprzyzwoitych treści – skupiają się na tym, jak sztuczna inteligencja oddziałuje na samopoczucie psychiczne i emocje użytkowników.
Obowiązki platform AI
- Zapobieganie generowaniu treści zachęcających do samobójstw, samookaleczeń, hazardu lub przemocy.
- Eliminowanie manipulacyjnego języka i nadużyć werbalnych mogących wykorzystywać osoby podatne.
- Natychmiastowe kierowanie rozmowy do ludzkiego operatora w przypadku wykrycia zamiaru samobójczego przez użytkownika, a tam gdzie to możliwe, powiadomienie opiekuna lub osoby zaufanej.
Szczególna ochrona dzieci i młodzieży
Projekt ustawy przewiduje dodatkowe zabezpieczenia dla niepełnoletnich. Korzystanie z usług AI przez osoby poniżej określonego wieku prawnego wymagałoby zgody rodziców i byłoby ograniczone czasowo każdego dnia. Co ważne, gdy wiek użytkownika jest niejasny, platformy zobowiązane są do automatycznego stosowania restrykcyjnych ustawień, wyjątkowo tylko w przypadku udowodnienia wieku przez użytkownika. Takie podejście zabezpiecza przed ryzykiem wynikającym z nieautentycznych lub fałszywych kont.

Dlaczego chińscy regulatorzy podjęli działania właśnie teraz?
Wprowadzenie nowych przepisów jest bezpośrednią reakcją na niepokojące przypadki, w których interakcje z chatbotami AI miały doprowadzić do krzywdy w prawdziwym życiu. Doniesienia medialne opisywały sytuacje, gdzie długotrwała relacja z AI prowadziła do izolacji, a w jednym udokumentowanym przypadku – nawet do samobójstwa młodego użytkownika po interakcji z cyfrowym asystentem. Regulatorzy podkreślają, że obecne przepisy dotyczące bezpieczeństwa treści nie obejmowały tych luk, więc konieczne było przygotowanie nowych rozwiązań.
Od bezpieczeństwa treści do wpływu społecznego i emocjonalnego
Eksperci z dziedziny prawa i polityki publicznej widzą w chińskim projekcie jedną z pierwszych globalnych inicjatyw regulujących zachowania AI na wzór ludzi. Badacze tacy jak Winston Ma z New York University interpretują ten ruch jako przesunięcie akcentów z samej legalności treści na zapewnienie 'bezpieczeństwa emocjonalnego' użytkowników. Inni analitycy zauważają, że chińskie podejście regulacyjne priorytetyzuje mierzalne efekty społeczne zamiast ścisłej kontroli technicznej architektury modeli AI.
Konsekwencje dla deweloperów AI i twórców platform
Dla firm technologicznych w Chinach nowe przepisy oznaczają konieczność wdrożenia szeregu mechanizmów służących bezpieczeństwu: zaawansowanych filtrów, jasnych ścieżek eskalacji do moderatora, efektywnych systemów weryfikacji wieku oraz rejestracji potwierdzającej zgodność z przepisami. Metoda CAC koncentruje się przede wszystkim na skutkach działania AI – czyli na tym, jakie treści są generowane i jak użytkownicy na nie reagują – a nie na narzucaniu konkretnych rozwiązań konstrukcyjnych platform. To podejście może wpłynąć na światową debatę dotyczącą równoważenia innowacji z odpowiedzialnością społeczną.
Wyobraźmy sobie chatbota, który automatycznie przerywa ryzykowną konwersację i natychmiast łączy użytkownika z wykwalifikowanym psychologiem. Takie rozwiązania mają według regulatorów stać się standardem. Czy chińskie prawo stanie się wzorem dla innych państw, czy pozostanie unikalną ścieżką – czas pokaże. Jasne jest jedno: AI prowadząca konwersacje nie powinna igrać z emocjami ludzi.
Źródło: smarti
Zostaw komentarz