Media społecznościowe napędzają polaryzację przez swą strukturę, nie algorytmy
Badania Maika Larooija i Pettera Törnberga z Uniwersytetu w Amsterdamie pokazują, że negatywny wpływ na społeczeństwo i polaryzacja w mediach społecznościowych nie wynikają wyłącznie z działania algorytmów, lecz mogą być zakorzenione w samej strukturze i dynamice platform. Nadzieje na to, że media społecznościowe staną się platformami prawdziwej debaty i wymiany poglądów rozwiały się już dawno. Coraz więcej dowodów wskazuje, że w praktyce sprzyjają one wzmacnianiu już posiadanych poglądów, polaryzacji, koncentracji wpływu w rękach wąskiej elity oraz nadreprezentacji głosów skrajnych. Larooij i Törnberg postanowili sprawdzić, czy zmiany w architekturze platform mogą ograniczyć te zjawiska.
Chcąc uniknąć ograniczeń badań obserwacyjnych wynikających z angażowania ochotników, naukowcy stworzyli model, w którym udział wzięły boty utworzone w oparciu o ChatGPT-4o mini. Funkcjonowały one w uproszczonym środowisku przypominającym sieć społecznościową. Każdy z botów posiadał szczegółowy profil zbudowany na podstawie danych z American National Election Studies. Boty mogły publikować posty, udostępniać cudze treści i obserwować innych.
Mimo prostoty, w modelu pojawiły się znane z rzeczywistości zjawiska: boty miały tendencję do obserwowania tych profili, z którymi dzieliły poglądy, a te boty, które wygłaszały bardziej radykalne opinie miały więcej obserwujących. To pokazuje, że nawet w bardzo uproszczonym środowisku społecznym istnieje tendencja do kierowania większej uwagi na radykałów, zatem do coraz większej polaryzacji. Sądziliśmy, że polaryzacja jest czymś napędzanym przez algorytmy platform społecznościowych, że platformy celowo tak zostały zaprojektowane, żeby maksymalizować zaangażowanie, żeby wkurzyć użytkownika. Dlatego zaprojektowaliśmy najprostszą z możliwych platform, a mimo to uzyskaliśmy takie wyniki – stwierdzają autorzy badań.
Badacze postanowili przetestować sześć scenariuszy, które miały zaradzić występowaniu niekorzystnych zjawisk i poprawić jakość debaty publicznej. Pierwszy polegał na wyświetlaniu postów w porządku chronologicznym, podczas drugiego ograniczono widoczność postów o dużej liczbie udostępnień, a w trzecim promowano wpisy o przeciwnym zabarwieniu politycznym. Czwarty scenariusz polegał na preferowaniu treści o korzystnych cechach (jak np. empatia czy logiczne argumentowanie), w scenariuszu piątym ukryto statystyki postów i użytkowników, a w szóstym usunięto z systemu rekomendacji biogramy użytkowników. Mimo to znowu uzyskano niekorzystne wyniki. To sugeruje, że wynikają one z jakiegoś podstawowego zjawiska związanego z zachowaniem, z umieszczeniem postów, udostępnianiem ich, obserwowaniem innych – komentują naukowcy.
Największy wpływ na działania botów miało chronologiczne wyświetlanie postów. Posty mniej popularne zyskały więcej uwagi. Paradoksalnie jednak doprowadziło to do wzmocnienia ekstremistycznego przekazu. Być może radykalne treści bardziej wyróżniały się na neutralnym tle innych postów. Również ograniczenie wyświetlania najpopularniejszych postów skutkowało zwiększeniem uwagi skierowanej na posty mniej popularne, ale nie miało to wpływu na żadne inne elementy. Podsuwanie użytkownikom postów o odmiennych poglądach politycznych nie wpłynęło na zachowania botów. Nadal angażowały się one w interakcje z wpisami zgodnymi z ich poglądami. Potwierdza to wnioski z innych badań pokazujące, że sama prezentacja odmiennych poglądów nie wystarcza, by przeciwnik brał je pod uwagę.
Pewien pozytywny skutek miało promowanie postów wysokiej jakości. Zmniejszyło ono zaangażowanie botów po własnej stronie ideologicznej i w niewielkim stopniu zwiększyło zaangażowanie po stronie przeciwnej. Jednocześnie jednak doprowadziło to do zwiększenia nierówności w odbiorze postów - boty zaczęły zwracać uwagę na wysokiej jakości posty tworzone przez „elitę”.
Ukrywanie statystyk postów i statystyk użytkowników skutkowało jedynie nieznacznym wzrostem uwagi w kierunku mniej popularnych postów i użytkowników. Jednostronne zaangażowanie ideologiczne nie uległo zmianie.
Symulacja pokazała, że nawet bez skomplikowanych algorytmów optymalizujących zaangażowanie, podstawowe mechanizmy działania mediów społecznościowych mogą prowadzić do tych samych patologii, co w prawdziwych serwisach. Kluczowy okazał się mechanizm sprzężenia zwrotnego między emocjonalnie nacechowanym zaangażowaniem a wzrostem sieci kontaktów.
Udostępnienia treści nie tylko zwiększały zasięg sieci danego użytkownika, ale też przyciągały nowych obserwujących, co w kolejnych iteracjach wzmacniało widoczność podobnych treści i użytkowników. W ten sposób utrwalała się polaryzacja, nierówny rozkład uwagi i przewaga głosów skrajnych.
Badania sugerują, że popularne wyjaśnienie problemów mediów społecznościowych poprzez „winę algorytmów” jest uproszczone. Algorytmy mogą pogłębiać zjawiska, ale ich źródła tkwią głębiej — w sposobie, w jaki platformy są zaprojektowane do nagradzania i reprodukowania emocjonalnych interakcji. To oznacza, że kosmetyczne zmiany w logice rekomendacji czy układzie interfejsu prawdopodobnie nie wystarczą. Jeśli celem jest stworzenie przestrzeni sprzyjającej konstruktywnej wymianie poglądów, konieczne może być gruntowne przeprojektowanie mechaniki widoczności i interakcji, nawet kosztem spadku zaangażowania czy liczby aktywnych użytkowników.
Autorzy podkreślają, że ich symulacja ma charakter wstępny i nie uwzględnia czynników takich jak doświadczenie użytkownika czy biznesowa opłacalność platform. Niemniej metoda generatywnej symulacji społecznej otwiera nowe możliwości testowania hipotetycznych scenariuszy w kontrolowanych warunkach. Choć wiąże się to z wyzwaniami — od kalibracji wyników po ryzyko stronniczości modeli — może być cennym narzędziem do badania tego, co naprawdę napędza dynamikę życia społecznego w sieci.
Rozwiązanie problemów polaryzacji napędzanej przez platformy społecznościowe może wymagać odważnych, strukturalnych reform. Nie chodzi tylko o naprawianie algorytmów, ale o zmianę samej logiki, według której platformy społecznościowe kształtują i nagradzają ludzkie interakcje. To być może jedyne rozwiązanie, które daje realną szansę na poprawę jakości debaty publicznej online.
Wyniki badań zostały opublikowane w serwisie arXiv.
Komentarze (4)
gorzynsk, wczoraj, 12:35
Naprawdę ktoś robił badania dotyczące emocji i zmian postaw na...podstawie botów? Serio? LLMy przewidują jedno słowo po drugim na postawie tego jakie słowa i w jakiej kolejności występowały w tym tekście, którym uczono owy model językowy. LLMy nie myślą, nie analizują znaczenia słów, a już na pewno nie mają emocji. Mogą jedynie odtwarzać coś co już się działo czyli jakoś tam uwzględniać emocje, które były wyrażane w tekstach użytych do uczenia.
Mariusz Błoński, wczoraj, 13:51
Skoro eksperymenty na botach skutkowały tymi samymi zjawiskami, co działania ludzkie, to może ich wykorzystanie jest uprawnione? Może nie jesteśmy ani tak wyjątkowi, ani tak skomplikowani, jak chcielibyśmy o sobie myśleć.
Ergo Sum, 12 godz. temu
Ciekawe użycie nieuprawnionego argumentu "ad hominem" do bota AI
W moim odczuciu eksperyment ujawnił podstawowe mechanizmy uzależnienia. Mechanizmy tak podstawowe, że można je odnaleźć nawet w przyrodzie nieożywionej. Żeby pozbawić platformy takich zjawisk trzeba by zmienić naturę ludzką. Ale jeśli to faktycznie ten powód - sprawa jest prosta. Zaangażować, albo płacić ekspertom działającym jak dziennikarze, tworzący alternatywne ciekawe materiały, z tematów zupełnie nie przylegających do powszechnej dyskusji.
gorzynsk, 2 godz. temu
Nie bardzo rozumiem gdzie tu argument ad hominem? Obraziłem bota?
Dla mnie to nie jest eksperyment tylko analiza uśrednionych zachowań ludzi, których wypowiedzi w internecie zostały użyte do uczenia modelu. Nie da się w ten sposób przetestować czegoś co wcześniej nie miało miejsca i nie zostało przedstawione modelowi w procesie uczenia. Model tylko szuka w sobie odpowiedzi na pytanie "co człowiek kiedyś napisał na tak zadanie pytanie". To "myślenie" AI, którym tak się chwalą firmy AI to też zadawanie kolejnych pytań o to jaka była statystycznie najczęstsza odpowiedź na kolejne i kolejne pytanie. A jak odpowiedzi nie było w zbiorze do nauki to LLM coś zmyśli co nazywa się halucynacjami. LLMy nie myślą, nie mają wyobraźni, nie mają emocji. To nie jest jeszcze ten rodzaj AI, który opisywała fantastyka.