4 Minuty
Niektórzy traktują ChatGPT jak wyszukiwarkę, inni rozmawiają z nim tak, jakby pisali do przyjaciela w środku nocy, kiedy sen nie nadchodzi. Ten drugi sposób korzystania sprawił, że sztuczna inteligencja zaczęła pojawiać się w dużo poważniejszych kontekstach niż tylko demonstracja produktu czy pomoc programistyczna. OpenAI odpowiada teraz na te potrzeby, wprowadzając funkcję zaprojektowaną na wypadek sytuacji, gdy rozmowa zacznie przybierać niepokojący obrót.
Nowe narzędzie, nazwane Zaufany Kontakt, stopniowo pojawia się w ustawieniach ChatGPT dla dorosłych użytkowników. Jego działanie jest na pozór proste: pozwala użytkownikowi wybrać jedną osobę, która zostanie powiadomiona, gdy system wykryje poważne ryzyko samookaleczenia. W praktyce OpenAI stara się zbudować siatkę bezpieczeństwa, nie zamieniając zarazem prywatnych rozmów w automatyczne powiadomienia.
Korzystanie z niej jest dobrowolne. Użytkownik może wskazać jedną zaufaną osobę, która musi jednak spełniać wymóg wiekowy: mieć co najmniej 18 lat w większości regionów lub 19 lat w Korei Południowej. Po wybraniu kontakt otrzymuje zaproszenie z wyjaśnieniem roli i ma siedem dni na zaakceptowanie. Jeśli odmówi, użytkownik może wybrać kogoś innego.

To, co dzieje się dalej, pokazuje, że OpenAI stara się nie przekroczyć granicy. Powiadomienia nie są wysyłane automatycznie, gdy system wykryje niepokojące treści. Najpierw ChatGPT informuje użytkownika, że Zaufany Kontakt może otrzymać powiadomienie. Zachęca także do bezpośredniego kontaktu, oferując przykładowe sformułowania rozpoczęcia rozmowy. Następnie sprawę weryfikuje niewielka grupa specjalnie przeszkolonych recenzentów. Tylko jeśli potwierdzą oni poważne ryzyko samookaleczenia, OpenAI wysyła powiadomienie.
Powiadomienie może przyjść e-mailem, SMS-em lub poprzez aplikację. Nie zawiera ono treści rozmowy, cytatów ani podsumowania. Po prostu informuje zaufaną osobę, że w rozmowie pojawiły się niepokojące odniesienia do samookaleczenia, i prosi o kontakt. OpenAI zapewnia, że ludzka weryfikacja trwa zazwyczaj mniej niż godzinę.
Jak ta funkcja wpisuje się w szersze działania OpenAI na rzecz bezpieczeństwa
To nie jest odosobnione rozwiązanie. OpenAI wdrożyło wcześniej funkcje bezpieczeństwa dla kont nastolatków, w tym powiadomienia do rodziców, gdy powiązane konta wykazują oznaki niepokoju. Zaufany Kontakt rozszerza ten pomysł na dorosłych, co świadczy o zmianie postrzegania sposobu korzystania z ChatGPT. Chatbot przestał być wyłącznie asystentem produktywności. Dla wielu użytkowników to przestrzeń na bardzo osobiste, pełne emocji rozmowy.
Jak podaje OpenAI, funkcja została opracowana we współpracy z klinicystami, naukowcami i organizacjami zajmującymi się zdrowiem psychicznym, w tym Amerykańskim Towarzystwem Psychologicznym. Udział ekspertów z zewnątrz jest tu istotny. Każde narzędzie dotykające kwestii samookaleczeń, prywatności i reakcji kryzysowej musi być projektowane z wyjątkową ostrożnością.
Funkcja ma też wyraźnie określone granice. Zaufany Kontakt nie zastępuje infolinii kryzysowej, służb ratunkowych ani wsparcia psychologicznego. OpenAI zapewnia, że ChatGPT nadal będzie kierować użytkowników do takich form pomocy w razie potrzeby. Użytkownik może dowolnie zmienić lub usunąć zaufany kontakt, a sama osoba wybrana jako kontakt może w każdej chwili zrezygnować z roli.
W tym wdrożeniu kryje się cicha deklaracja. OpenAI przyznaje coś, o czym branża technologiczna wolała nie mówić: ludzie już przynoszą swoje najbardziej wrażliwe chwile do chatbotów AI. Niezależnie od intencji firm, taki sposób korzystania stał się faktem. Funkcje takie jak Zaufany Kontakt są próbą odpowiedzi na tę rzeczywistość – z większą ostrożnością, z większą ludzką troską i świadomością, że nawet najbardziej zaawansowany chatbot nie powinien być jedynym głosem w trudnej sytuacji.
Zostaw komentarz