7 Minuty
Sam Altman, dyrektor generalny OpenAI, rzadko brzmi jak człowiek gotowy na sądową batalię. Tym razem jednak wyraźnie zajął stanowisko.
Po szeroko komentowanej reakcji społecznej na ujawnioną współpracę OpenAI z Departamentem Obrony Stanów Zjednoczonych, Altman ogłosił, że firma zaktualizuje warunki umowy, by jednoznacznie podkreślić: systemy sztucznej inteligencji OpenAI nie mogą być wykorzystywane do masowej inwigilacji Amerykanów.
Altman upublicznił wewnętrzną notatkę, pierwotnie skierowaną do pracowników, w której szczegółowo rozpisano zmiany. Nowa treść umowy wyraźnie zabrania celowej inwigilacji obywateli i mieszkańców USA przy użyciu AI, a restrykcje te powiązano ze standardami prawnymi, takimi jak Czwarta Poprawka do Konstytucji, Ustawa o Bezpieczeństwie Narodowym oraz Ustawa o Inwigilacji Wywiadu Zagranicznego (FISA).
Sformułowania w notatce są wyjątkowo jednoznaczne jak na dokument rządowego wykonawcy. Wskazują, że zgodnie z obowiązującym prawem USA systemy AI „nie mogą być celowo wykorzystywane do domowej inwigilacji obywateli i mieszkańców USA”. Doprecyzowano także, iż zakaz obejmuje celowe śledzenie lub monitorowanie, nawet jeśli odbywa się na podstawie komercyjnie zakupionych danych osobowych lub identyfikowalnych informacji.
Modyfikacja umowy i wyraźna granica
Altman podkreślił również, że Departament Obrony potwierdził coś, co od początku budziło obawy komentatorów: usługi OpenAI nie będą przekazywane amerykańskim służbom wywiadowczym, takim jak NSA, w ramach obecnej współpracy. Każda zmiana w tej sprawie wymagałaby oficjalnej modyfikacji kontraktu.
Szeroko cytowane stało się kolejne zdanie Altmana: gdyby otrzymał nakaz, który uzna za niezgodny z Konstytucją, wolałby pójść do więzienia niż go wykonać. To mocne słowa, które wyraźnie sygnalizują, że OpenAI wyznacza granicę między „pracą dla obronności” a „monitoringiem krajowym” – podział, który zaciera się wraz z rozwojem AI.
Altman otwarcie przyznał także, że sposób ogłoszenia był nieprzemyślany. Według niego, OpenAI pośpieszyło się z komunikatem – wyzwania są „wyjątkowo złożone” i wymagają jasnego przekazu. Główną intencją było wyciszenie emocji i zapobieżenie „znacznie poważniejszym konsekwencjom”. Zamiast tego, termin ogłoszenia sprawił, że umowa wyglądała na działanie oportunistyczne.
Warto dodać, że moment zawarcia przez OpenAI umowy z Pentagonem niemal zbiegł się z decyzją prezydenta Donalda Trumpa, który nakazał amerykańskim agencjom rządowym wstrzymanie korzystania usług Anthropic — m.in. modelu Claude. Anthropic, co istotne, współpracuje z rządem federalnym od 2024 roku.
Anthropic, ograniczenia AI i polityczne napięcia
Prawdziwa istota całej sytuacji nie leży w jednej klauzuli umownej, lecz w coraz większych rozbieżnościach pomiędzy największymi laboratoriami AI, dotyczącymi dopuszczalnych zastosowań ich modeli przez instytucje rządowe.
Zgodnie z informacjami z notatki Altmana, szefostwo Departamentu Obrony oraz sekretarz Pete Hegseth naciskali na Anthropic, by osłabił swoje zabezpieczenia Claude’a, by umożliwić jego wykorzystanie do dowolnych „legalnych” celów. Wśród tych „legalnych” zastosowań miały, według relacji, znaleźć się masowa inwigilacja czy działania na rzecz pełnej autonomii broni.
Anthropic odmówił. W oficjalnym oświadczeniu firma zapowiedziała, że „żadna groźba ani kara” nie wpłynie na jej sprzeciw wobec masowej krajowej inwigilacji oraz autonomicznych systemów broni. Tuż po tej odmowie, Departament Obrony podjął kroki, by oznaczyć Anthropic jako „ryzyko dla łańcucha dostaw” – określenie typowe raczej dla zagranicznych, zwykle chińskich, firm podejrzewanych o powiązania z obcymi rządami.
Altman przekazał amerykańskim przedstawicielom, że Anthropic nie powinien być klasyfikowany jako zagrożenie w łańcuchu dostaw i wyraził nadzieję, że Pentagon przedstawi Anthropic podobne warunki jak OpenAI. Podczas weekendowego AMA na X dodał też zastrzeżenie: nie zna szczegółów umowy Anthropica ani jej różnic. Jednak jeśli byłaby ona w istocie bliźniacza, Anthropic powinno ją przyjąć.
Nie jest to jednak tylko spór światopoglądowy – to także konkurencyjna rozgrywka prowadzona na oczach opinii publicznej.
Po ujawnieniu współpracy OpenAI z Pentagonem, model Claude błyskawicznie znalazł się na szczycie darmowych aplikacji w App Store Apple, wyprzedzając ChatGPT i Google Gemini. Anthropic szybko zareagował, uruchamiając narzędzie do importowania pamięci, aby ułatwić zmianę chatbotów. Tymczasem odinstalowania ChatGPT wzrosły o 295% dzień do dnia, według Sensor Tower.
Krótko mówiąc: to nie tylko kwestia konstytucyjnych ograniczeń czy języka umowy. To także temat zaufania – i tego, jak szybko może się ono rozmyć, gdy użytkownicy zaczynają wątpić, czy zabezpieczenia AI są faktycznie nienegocjowalne.
Szerszy kontekst: rola AI w sektorze publicznym i wyzwania etyczne
Dynamiczny rozwój sztucznej inteligencji sprawia, że coraz trudniej wyznaczyć granice jej rządowych zastosowań oraz kontroli etycznej. Zarówno OpenAI, jak i Anthropic należą do liderów rynku AI, czego dowodem są obecne kontrowersje wokół wykorzystania ich modeli przez instytucje publiczne. Rozbieżność stanowisk rodzi pytania o przyszłość regulacji prawnych, przejrzystość procesów kontroli oraz granice standaryzacji w dynamicznie ewoluującym sektorze technologii AI.
Etyka a realia rynku
Dominujące podmioty na rynku sztucznej inteligencji, takie jak OpenAI i Anthropic, mają odrębne podejścia do kwestii bezpieczeństwa, transparentności i współpracy z rządem. OpenAI, stanowczo akcentując normy prawne, stara się budować społeczny kredyt zaufania i zapobiegać sytuacjom, które mogłyby zburzyć jego reputację. Z kolei Anthropic konsekwentnie podkreśla prymat wartości etycznych nad ewentualnymi korzyściami biznesowymi, nawet kosztem ryzyka utraty ważnych kontraktów.
- OpenAI: Skupia się na kompatybilności z amerykańskim prawem, regularnie aktualizuje umowy, wykluczając możliwość masowej inwigilacji.
- Anthropic: Utrzymuje surowe zabezpieczenia modeli, stanowczo odrzuca wszelkie naciski na ich luzowanie, nawet pod presją rządu.
- Konkurencja: Różnice w podejściu stają się istotnym czynnikiem decyzyjnym, wpływając na zaufanie i wybory użytkowników.
Techniczne aspekty zabezpieczeń AI
Systemy sztucznej inteligencji wdrażane przez firmy takie jak OpenAI czy Anthropic oparte są na skomplikowanych algorytmach uczenia maszynowego. Zabezpieczenia obejmują mechanizmy wykrywania nadużyć, filtrowania tożsamości użytkowników oraz blokowania zastosowań niezgodnych z przeznaczeniem. Jednak współpraca z instytucjami państwowymi rodzi presję na dostosowywanie lub znoszenie tych ograniczeń.
Zaufanie użytkowników i przyszłość AI
Rynek usług AI rozwija się w niespotykanym tempie; korzystają z nich zarówno instytucje rządowe, jak i konsumenci indywidualni. Wiarygodność i transparentność dostawców AI stają się zatem kluczowymi wartościami – każda decyzja dotycząca polityki etycznej czy zmian w umowach bezpośrednio wpływa na lojalność odbiorców.
- Prawne ograniczenia są coraz silniejsze, zwłaszcza wokół masowej inwigilacji i autonomicznych systemów broni.
- Zaufanie użytkowników może być nadwątlone w krótkim czasie przez jednoznaczne reakcje mediów na zmiany w polityce firm AI.
- Debata o etycznym zastosowaniu AI pozostaje żywa i ma wymiar nie tylko technologiczny, ale także społeczny i polityczny.
Wnioski: AI, regulacje i społeczne oczekiwania
Współczesna rywalizacja pomiędzy OpenAI a Anthropic, napędzana zarówno presją polityczną, jak i oczekiwaniami użytkowników i sektora publicznego, staje się symbolem szerszego konfliktu o kształt sztucznej inteligencji w XXI wieku. W centrum tego sporu leżą:
- Ochrona prywatności i transparentność działań AI,
- Etyczne granice komercyjnego zastosowania inteligentnych modeli,
- Równowaga między współpracą z sektorem publicznym a lojalnością wobec społeczności użytkowników i ogólnych wartości demokratycznych.
Decyzje podejmowane dziś przez wiodące laboratoria AI mogą określić normy i trendy dla całej branży na nadchodzące dekady. Rynkiem wstrząsają konflikty nie tylko o dostęp do technologii, lecz także o zaufanie społeczne, przejrzystość procesów oraz ochronę podstawowych praw obywatelskich w erze sztucznej inteligencji.
Zostaw komentarz