2 Minuty
DeepSeek, dynamicznie rozwijający się startup z branży sztucznej inteligencji, niedawno zaprezentował swój najnowszy model AI — R1. Nowy model wykazał znakomite wyniki w zadaniach związanych z rozumowaniem matematycznym oraz programowaniem. Jednakże, źródła danych treningowych dla R1 nie zostały ujawnione, co wywołało spekulacje wśród badaczy AI, że część tych danych mogła pochodzić z modeli Google Gemini.
Zarzuty dotyczące wykorzystania danych
Sam Peach, deweloper z Melbourne, znany z opracowywania testów oceniających „inteligencję emocjonalną” modeli AI, twierdzi, że posiada dowody sugerujące, iż model DeepSeek R1-0528 wykazuje preferencje dla słów i struktur typowych dla Gemini 2.5 Pro. W swoim wpisie na platformie X Peach zauważył, że model R1-0528 posługuje się charakterystycznymi wzorcami językowymi, które zaobserwowano również w Gemini 2.5 Pro.
Mimo iż sama ta obserwacja nie stanowi jednoznacznego dowodu, kolejny deweloper znany jako SpeechMap, specjalizujący się w ocenie „wolności słowa” w modelach AI, zauważa, że sposoby rozumowania stosowane przez DeepSeek są mocno zbliżone do tych, jakie prezentują modele Gemini.
Kontekst historyczny i wcześniejsze oskarżenia
Nie jest to pierwszy przypadek, kiedy DeepSeek spotyka się z zarzutami dotyczącymi metod szkolenia swoich modeli AI. Wcześniej niektórzy programiści informowali, że model DeepSeek V3 często identyfikuje się jako ChatGPT, co sugeruje, że w danych treningowych mogły znaleźć się konwersacje pochodzące z ChatGPT. Firma OpenAI wskazywała wcześniej na istnienie dowodów na to, że DeepSeek stosuje technikę „destylacji”, czyli wykorzystania danych wyjściowych z zaawansowanych modeli do treningu mniejszych modeli AI.
Wyzwania w treningu modeli AI
Społeczność AI zwraca uwagę, że wiele modeli może przypadkowo przyjmować podobne wzorce językowe lub błędnie się identyfikować. Wynika to z dominacji treści generowanych przez sztuczną inteligencję w internecie, które służą jako główne źródło danych treningowych dla nowych modeli AI. Ta sytuacja powoduje, że często dochodzi do pokrywania się stylu językowego i sposobu działania modeli, co utrudnia rozróżnienie modeli opracowanych niezależnie od tych inspirowanych istniejącymi rozwiązaniami.
Wnioski
Zarzuty wobec modelu DeepSeek R1 podkreślają złożoność oraz wyzwania etyczne związane ze szkoleniem modeli sztucznej inteligencji. Wraz z rozwojem branży AI, kluczowe stają się transparentność źródeł danych oraz metod szkolenia, aby utrzymać zaufanie i uczciwość w społeczności. Stała kontrola oraz otwartość na dialog są niezbędne dla odpowiedzialnego rozwoju technologii AI.
Źródło: smarti

Komentarze