Jak algorytmy rekomendacji zmieniają polityczne poglądy użytkowników w mediach społecznościowych

Jak algorytmy rekomendacji zmieniają polityczne poglądy użytkowników w mediach społecznościowych

Komentarze

5 Minuty

Przewiń media społecznościowe przez pięć minut i Twoje poglądy polityczne mogą się niezauważalnie zmienić. To niepokojący wniosek płynący z eksperymentu terenowego, który w 2023 roku objął niemal 5000 aktywnych użytkowników platformy X w Stanach Zjednoczonych. Celem badania było sprawdzenie, jak algorytm 'Dla Ciebie' wpływa na preferencje polityczne użytkowników.

Jak przeprowadzono badanie algorytmiczne na platformie X?

Zespół badawczy pod kierunkiem Ekateriny Zhuravskayi podzielił losowo 4965 uczestników na dwie grupy. Jedna z nich przez około siedem tygodni korzystała z kanału 'Dla Ciebie', podczas gdy druga pozostawała przy chronologicznej osi czasu. Wszyscy uczestnicy wypełniali ankiety dotyczące przekonań politycznych i zachowań zarówno przed, jak i po eksperymencie, a specjalna wtyczka do przeglądarki rejestrowała faktyczną zawartość ich kanału. Metodologia wydaje się prosta, jednak konsekwencje są złożone i daleko idące.

Algorytm „Dla Ciebie” a zmiana zachowań użytkowników

Osoby korzystające z sekcji 'Dla Ciebie' wykazywały znacznie większą aktywność: krótsze sesje przeradzały się w więcej kliknięć, obserwacji i interakcji. Jednak wraz z tymi interakcjami pojawiła się wyraźna zmiana – użytkownicy zaczęli częściej obserwować konta polityków o konserwatywnych poglądach i deklarować przesunięcie własnych przekonań w tym kierunku. Przyczyną był dobór treści przez algorytm, który częściej niż tradycyjne media rekomendował posty i profile polityczne, zwłaszcza o konserwatywnym charakterze.

Brak powrotu do pierwotnych poglądów po zmianie kanału

Można by oczekiwać, że powrót do chronologicznej osi czasu przywróci wcześniejsze przekonania. Nic bardziej mylnego – grupa, która powróciła do tradycyjnej formy prezentowania treści, nie odnotowała istotnych zmian w poglądach politycznych czy wzorcach obserwacji kont. Wpływ algorytmu okazał się trwały, nawet po wyłączeniu rekomendacji. Można to porównać do fali pchającej łódź – silnik został wyłączony, ale łódź przez pewien czas płynie dalej.

Wnioski: Algorytmy rekomendacji a polaryzacja postaw

Badanie dowodzi, że systemy rekomendacji w mediach społecznościowych mogą znacząco oddziaływać na polityczne preferencje użytkowników, a skutki te utrzymują się nawet po zakończeniu ekspozycji na algorytm.

Dowody z randomizowanego eksperymentu

Wyniki te korespondują z wcześniejszymi obawami dotyczącymi algorytmicznego wzmacniania przekazów i polaryzacji politycznej. Jednak to badanie dostarcza rzadkich, twardych dowodów pochodzących z randomizowanego eksperymentu terenowego, co w tej tematyce jest niezwykle cenne. Analiza danych zebranych za pomocą wtyczki oraz porównanie ankiet przed i po eksperymencie pozwoliły na szczegółowe zrozumienie współzależności ekspozycji na treści, wzorców obserwowania i deklarowanych postaw.

Algorytmy jako filtry rzeczywistości

Wydawcy i platformy społecznościowe często przedstawiają swoje mechanizmy wyświetlania treści jako neutralne. Jednak systemy rekomendacji nie są lustrami – działają jak filtry oraz wzmacniacze, reagujące na sygnały zaangażowania i decyzje projektowe. Gdy takie sygnały preferują treści politycznie nacechowane lub promują określone postacie, dochodzi do trwałego przesunięcia opinii publicznej w określonym kierunku.

Znaczenie eksperymentowania, transparentności i projektowania mediów społecznościowych

  • Po pierwsze: Eksperymenty, zwłaszcza randomizowane próby terenowe, są najlepszym sposobem ustalania przyczynowych skutków działania algorytmów rekomendacji.
  • Po drugie: Konieczna jest większa przejrzystość mechanizmów działania rekomendacji oraz rozbudowa narzędzi, które pozwalają użytkownikom kontrolować to, jakie treści są im prezentowane.
  • Po trzecie: Jeśli zaledwie kilka tygodni obcowania z algorytmicznie selekcjonowanymi treściami może zmienić preferencje i przekonania użytkownika, to architektura tych systemów odgrywa kluczową rolę w kształtowaniu postaw obywatelskich i debaty publicznej.

Społeczny wymiar projektowania algorytmów

Projektanci platform społecznościowych oraz decydenci powinni pamiętać, że rekomendacje to nie tylko narzędzie podnoszące zaangażowanie – stają się one elementem kształtowania debaty publicznej. Odpowiedzialność za transparentność i skutki społeczne algorytmów leży zarówno po stronie firm technologicznych, jak i instytucji regulujących media cyfrowe.

Podsumowanie: Co naprawdę rekomenduje nam algorytm?

Całość badania została opublikowana w czasopiśmie „Nature” i prowadzi do zasadniczego, niewygodnego pytania: czy rzeczywiście otrzymujemy rekomendację ciekawych treści, czy raczej – nieświadomie – zostajemy nakierowywani na określony światopogląd polityczny?

Rekomendacje dla praktyków i użytkowników

  • Świadomość, że nawet krótka ekspozycja na algorytmiczne rekomendacje może utrwalać określone postawy.
  • Potrzeba edukacji w zakresie mechanizmów działania algorytmów i konsekwencji ich użycia w mediach społecznościowych.
  • Konieczność wprowadzenia regulacji dotyczących transparentności algorytmów oraz oferowania użytkownikom kontroli nad rekomendacjami.
Algorytmy rekomendacji mają potencjał by być narzędziem wsparcia pluralizmu opinii. Jednak bez odpowiednich zabezpieczeń mogą utrwalać polaryzację i wpływać na szeroko pojętą debatę publiczną.

Znaczenie świadomego korzystania z mediów społecznościowych oraz projektowania odpowiedzialnych systemów rekomendacji staje się kluczowe dla budowania zdrowego społeczeństwa informacyjnego.

Źródło: smarti

Zostaw komentarz

Komentarze