Media społecznościowe napędzają polaryzację przez swą strukturę, nie algorytmy
Badania Maika Larooija i Pettera Törnberga z Uniwersytetu w Amsterdamie pokazują, że negatywny wpływ na społeczeństwo i polaryzacja w mediach społecznościowych nie wynikają wyłącznie z działania algorytmów, lecz mogą być zakorzenione w samej strukturze i dynamice platform. Nadzieje na to, że media społecznościowe staną się platformami prawdziwej debaty i wymiany poglądów rozwiały się już dawno. Coraz więcej dowodów wskazuje, że w praktyce sprzyjają one wzmacnianiu już posiadanych poglądów, polaryzacji, koncentracji wpływu w rękach wąskiej elity oraz nadreprezentacji głosów skrajnych. Larooij i Törnberg postanowili sprawdzić, czy zmiany w architekturze platform mogą ograniczyć te zjawiska.
Chcąc uniknąć ograniczeń badań obserwacyjnych wynikających z angażowania ochotników, naukowcy stworzyli model, w którym udział wzięły boty utworzone w oparciu o ChatGPT-4o mini. Funkcjonowały one w uproszczonym środowisku przypominającym sieć społecznościową. Każdy z botów posiadał szczegółowy profil zbudowany na podstawie danych z American National Election Studies. Boty mogły publikować posty, udostępniać cudze treści i obserwować innych.
Mimo prostoty, w modelu pojawiły się znane z rzeczywistości zjawiska: boty miały tendencję do obserwowania tych profili, z którymi dzieliły poglądy, a te boty, które wygłaszały bardziej radykalne opinie miały więcej obserwujących. To pokazuje, że nawet w bardzo uproszczonym środowisku społecznym istnieje tendencja do kierowania większej uwagi na radykałów, zatem do coraz większej polaryzacji. Sądziliśmy, że polaryzacja jest czymś napędzanym przez algorytmy platform społecznościowych, że platformy celowo tak zostały zaprojektowane, żeby maksymalizować zaangażowanie, żeby wkurzyć użytkownika. Dlatego zaprojektowaliśmy najprostszą z możliwych platform, a mimo to uzyskaliśmy takie wyniki – stwierdzają autorzy badań.
Badacze postanowili przetestować sześć scenariuszy, które miały zaradzić występowaniu niekorzystnych zjawisk i poprawić jakość debaty publicznej. Pierwszy polegał na wyświetlaniu postów w porządku chronologicznym, podczas drugiego ograniczono widoczność postów o dużej liczbie udostępnień, a w trzecim promowano wpisy o przeciwnym zabarwieniu politycznym. Czwarty scenariusz polegał na preferowaniu treści o korzystnych cechach (jak np. empatia czy logiczne argumentowanie), w scenariuszu piątym ukryto statystyki postów i użytkowników, a w szóstym usunięto z systemu rekomendacji biogramy użytkowników. Mimo to znowu uzyskano niekorzystne wyniki. To sugeruje, że wynikają one z jakiegoś podstawowego zjawiska związanego z zachowaniem, z umieszczeniem postów, udostępnianiem ich, obserwowaniem innych – komentują naukowcy.
Największy wpływ na działania botów miało chronologiczne wyświetlanie postów. Posty mniej popularne zyskały więcej uwagi. Paradoksalnie jednak doprowadziło to do wzmocnienia ekstremistycznego przekazu. Być może radykalne treści bardziej wyróżniały się na neutralnym tle innych postów. Również ograniczenie wyświetlania najpopularniejszych postów skutkowało zwiększeniem uwagi skierowanej na posty mniej popularne, ale nie miało to wpływu na żadne inne elementy. Podsuwanie użytkownikom postów o odmiennych poglądach politycznych nie wpłynęło na zachowania botów. Nadal angażowały się one w interakcje z wpisami zgodnymi z ich poglądami. Potwierdza to wnioski z innych badań pokazujące, że sama prezentacja odmiennych poglądów nie wystarcza, by przeciwnik brał je pod uwagę.
Pewien pozytywny skutek miało promowanie postów wysokiej jakości. Zmniejszyło ono zaangażowanie botów po własnej stronie ideologicznej i w niewielkim stopniu zwiększyło zaangażowanie po stronie przeciwnej. Jednocześnie jednak doprowadziło to do zwiększenia nierówności w odbiorze postów - boty zaczęły zwracać uwagę na wysokiej jakości posty tworzone przez „elitę”.
Ukrywanie statystyk postów i statystyk użytkowników skutkowało jedynie nieznacznym wzrostem uwagi w kierunku mniej popularnych postów i użytkowników. Jednostronne zaangażowanie ideologiczne nie uległo zmianie.
Symulacja pokazała, że nawet bez skomplikowanych algorytmów optymalizujących zaangażowanie, podstawowe mechanizmy działania mediów społecznościowych mogą prowadzić do tych samych patologii, co w prawdziwych serwisach. Kluczowy okazał się mechanizm sprzężenia zwrotnego między emocjonalnie nacechowanym zaangażowaniem a wzrostem sieci kontaktów.
Udostępnienia treści nie tylko zwiększały zasięg sieci danego użytkownika, ale też przyciągały nowych obserwujących, co w kolejnych iteracjach wzmacniało widoczność podobnych treści i użytkowników. W ten sposób utrwalała się polaryzacja, nierówny rozkład uwagi i przewaga głosów skrajnych.
Badania sugerują, że popularne wyjaśnienie problemów mediów społecznościowych poprzez „winę algorytmów” jest uproszczone. Algorytmy mogą pogłębiać zjawiska, ale ich źródła tkwią głębiej — w sposobie, w jaki platformy są zaprojektowane do nagradzania i reprodukowania emocjonalnych interakcji. To oznacza, że kosmetyczne zmiany w logice rekomendacji czy układzie interfejsu prawdopodobnie nie wystarczą. Jeśli celem jest stworzenie przestrzeni sprzyjającej konstruktywnej wymianie poglądów, konieczne może być gruntowne przeprojektowanie mechaniki widoczności i interakcji, nawet kosztem spadku zaangażowania czy liczby aktywnych użytkowników.
Autorzy podkreślają, że ich symulacja ma charakter wstępny i nie uwzględnia czynników takich jak doświadczenie użytkownika czy biznesowa opłacalność platform. Niemniej metoda generatywnej symulacji społecznej otwiera nowe możliwości testowania hipotetycznych scenariuszy w kontrolowanych warunkach. Choć wiąże się to z wyzwaniami — od kalibracji wyników po ryzyko stronniczości modeli — może być cennym narzędziem do badania tego, co naprawdę napędza dynamikę życia społecznego w sieci.
Rozwiązanie problemów polaryzacji napędzanej przez platformy społecznościowe może wymagać odważnych, strukturalnych reform. Nie chodzi tylko o naprawianie algorytmów, ale o zmianę samej logiki, według której platformy społecznościowe kształtują i nagradzają ludzkie interakcje. To być może jedyne rozwiązanie, które daje realną szansę na poprawę jakości debaty publicznej online.
Wyniki badań zostały opublikowane w serwisie arXiv.
Komentarze (7)
gorzynsk, 13 sierpnia 2025, 12:35
Naprawdę ktoś robił badania dotyczące emocji i zmian postaw na...podstawie botów? Serio? LLMy przewidują jedno słowo po drugim na postawie tego jakie słowa i w jakiej kolejności występowały w tym tekście, którym uczono owy model językowy. LLMy nie myślą, nie analizują znaczenia słów, a już na pewno nie mają emocji. Mogą jedynie odtwarzać coś co już się działo czyli jakoś tam uwzględniać emocje, które były wyrażane w tekstach użytych do uczenia.
Mariusz Błoński, 13 sierpnia 2025, 13:51
Skoro eksperymenty na botach skutkowały tymi samymi zjawiskami, co działania ludzkie, to może ich wykorzystanie jest uprawnione? Może nie jesteśmy ani tak wyjątkowi, ani tak skomplikowani, jak chcielibyśmy o sobie myśleć.
Ergo Sum, 14 sierpnia 2025, 00:56
Ciekawe użycie nieuprawnionego argumentu "ad hominem" do bota AI
W moim odczuciu eksperyment ujawnił podstawowe mechanizmy uzależnienia. Mechanizmy tak podstawowe, że można je odnaleźć nawet w przyrodzie nieożywionej. Żeby pozbawić platformy takich zjawisk trzeba by zmienić naturę ludzką. Ale jeśli to faktycznie ten powód - sprawa jest prosta. Zaangażować, albo płacić ekspertom działającym jak dziennikarze, tworzący alternatywne ciekawe materiały, z tematów zupełnie nie przylegających do powszechnej dyskusji.
gorzynsk, 14 sierpnia 2025, 10:07
Nie bardzo rozumiem gdzie tu argument ad hominem? Obraziłem bota?
Dla mnie to nie jest eksperyment tylko analiza uśrednionych zachowań ludzi, których wypowiedzi w internecie zostały użyte do uczenia modelu. Nie da się w ten sposób przetestować czegoś co wcześniej nie miało miejsca i nie zostało przedstawione modelowi w procesie uczenia. Model tylko szuka w sobie odpowiedzi na pytanie "co człowiek kiedyś napisał na tak zadanie pytanie". To "myślenie" AI, którym tak się chwalą firmy AI to też zadawanie kolejnych pytań o to jaka była statystycznie najczęstsza odpowiedź na kolejne i kolejne pytanie. A jak odpowiedzi nie było w zbiorze do nauki to LLM coś zmyśli co nazywa się halucynacjami. LLMy nie myślą, nie mają wyobraźni, nie mają emocji. To nie jest jeszcze ten rodzaj AI, który opisywała fantastyka.
Astro, 14 sierpnia 2025, 13:08
Zdecydowanie. Do przeciętnego ludzia nie trzeba tak wielu parametrów; wzbudzić szybko współczucie/ gniew/ nienawiść to dziś banalna sztuka. W rozumieniu tego bardzo pomogły nam właśnie systemy AI, choć oczywiście bardziej kumaci osiągali to wcześniej równie szybko.
Gratuluję znajomości działania "algorytmów AI" (tak, to nie jest cynizm, bo zwyczajne szyderstwo
). Myślę, że ostatni "Nobelek" w zakresie fizyki - choć kontrowersyjny dla wielu - dobrze oddaje to, o co chodzi. Ogrom danych treningowych może porażać przeciętnego Nowaka, ale naprawdę w internecie nie zadano wszystkich możliwych pytań, i dłuuugo się to jeszcze nie zdarzy. 
A wiesz jak często LUDZIE oszukują?
Częściej niż Ci się wydaje, a nawet zdecydowanie częściej. LLM-y to "tylko" pochodna naszego "funkcjonowania".
P.S. Na marginesie. Bardziej nawiedzajcie się "społecznościówkami", łatwiej będzie was prowadzać na smyczy; w końcu wystarczą komendy typu "siad" i "waruj"... Nawet nie wiecie jak to już się dzieje...
Ergo Sum, 16 sierpnia 2025, 15:14
ad hominem nie polega na obrażaniu, tylko atakowaniu jakości rozmówcy zamiast jego argumentu - co dokładnie uczyniłeś.
gorzynsk, 16 sierpnia 2025, 19:43
Chyba jednak nie. Uznaje pomysł robienia całego badania na podstawie chat bota. Gdybym napisał, że autor badania jest idiotą to byłoby ad hominem. Zresztą "ad hominem do bota" brzmi jakbym dyskutował z owym botem. A ja dyskutuję z pomysłem badań zachowań ludzi na podstawie zachowania bota. Zaznaczyłem też, że można z tego wyciągnąć jakieś wnioski o zachowaniach ludzi, które zostały zarejestrowane w materiale użytym do uczenia LLM. Ale mówienie o eksperymencie jako sprawdzeniu reakcji na coś co wcześniej nie wystąpiło jest co najmniej już za daleko idące.
Szyderstwo częściej obnaża osobę je stosującą niż adresata.
AI to cała dziedzina. Uczenie maszynowe to jedna jej część i za to był Nobel. ChatGPT to wielkie modele językowe. Zamiast przetwarzać dabe raczej w niestrawnych dla człowieka ilościach LLMy przetwarzają ludzki język pisany. I tak...to są algorytmy. Sposoby na zastąpienie słowa liczbą, sposoby na przetwarzanie występowania tych liczb wśród innych liczb za pomocą wielu warstw zbiorów kolejnych liczb. Same obliczenia są dość proste. Mnóstwo AI używamy od dekady, choćby rozpoznanie oczu przez aparat w telefonie, ale dopiero możliwość robienia tego w ogromnej skali pozwoliło na skuteczne stworzenie chatGPT.
Tyle, że to nadal algorytm, który przewiduje prawdopodobieństwo następnego słowa na podstawie bardzo dużej struktury danych powstałych przy uczeniu modelu. LLM nie wyobraża sobie kwadratu gdy go zapytasz czym on jest. Po prostu wypisze kolejne słowa na podstawie tekstów użytych do uczenia.
Na pewno jednak nie analizuje emocji jakie ma człowiek poddany jakiemuś eksperymentowi.