Zdjęcia wygenerowane przez AI zalewają Internet i szerzą dezinformację

geralt, CC (Pixabay)

Papież Franciszek paradujący po Watykanie w białej, puchowej kurtce od Balenciagi, Donald Trump uciekający przed policją, Władimir Putin za kratkami. To tylko kilka z licznych przykładów zdjęć, które obiegły Internet w ciągu ostatnich miesięcy. Wszystkie mają jedną cechę wspólną – przedstawiają wydarzenia, które nigdy nie miały miejsca.

Internet, jaki znamy, czeka rewolucja, a być może już jesteśmy jej naocznymi świadkami. Rozwój technologii chyba jeszcze nigdy nie wiązał się ze zmianami na taką skalę. Mowa o sztucznej inteligencji, czyli AI, która już teraz budzi zarówno fascynację, jak i niepokój.

Spreparowane zdjęcia znanych osób obiegają sieć

Generatywne narzędzia oparte na sztucznej inteligencji rozwinęły się w ostatnich miesiącach tak bardzo, że mówi się o przełomie. Prawdopodobnie każdy choć raz słyszał takie nazwy jak ChatGPT, Midjourney, DALL-E czy Stable Diffusion. To tylko wierzchołek góry lodowej, bo szum związany z AI jest na tyle duży, że zarówno małe, jak i wielkie przedsiębiorstwa poddają się modzie (i obietnicy zysków), wypuszczając własne aplikacje.

Coraz więcej ekspertów zwraca jednak uwagę na to, jak niebezpieczna staje się moda na AI. Już teraz możemy zaobserwować jej wpływ na to, jak postrzegamy rzeczywistość.

Przykładowo, poniższe „zdjęcie” zostało wygenerowane za pomocą narzędzia Midjourney i umieszczone na platformie Reddit:

r/midjourney, Reddit

Grafika została prędko pochwycona i podbiła wszystkie media społecznościowe. I choć od początku było wiadomo, że została wygenerowana przez AI, to wiele osób zapomniało wspomnieć o tym fakcie, udostępniając ją dalej. Tak narodził się Balenciaga Pope, w którego prawdziwość uwierzyła duża część internautów.

Papież Franciszek w kurtce Balenciagi jest bardziej zabawny niż szkodliwy, ale nie jest jedynym przykładem viralowego zdjęcia, na które nabrało się wiele osób, a które zostało najzwyczajniej w świecie spreparowane. Podobny los podzieliły między innymi obrazy przedstawiające Donalda Trumpa w pomarańczowym kombinezonie więziennym czy Władimira Putina klękającego przed Xi Jinpingiem, przewodniczącym Chińskiej Republiki Ludowej.

Dlaczego problem dezinformacji staje się tak poważny?

Spreparowane obrazy przedstawiające twarze znanych osób nie są niczym nowym w Internecie. Przerabianie zdjęć stało się możliwe już wtedy, gdy powstały narzędzia do obróbki graficznej (z Adobe Photoshopem na czele).

Jest jednak różnica między standardowym przerabianiem zdjęć a generowaniem ich za pomocą AI. O ile obsługa programów graficznych (z zadowalającymi rezultatami) wymaga posiadania pewnych umiejętności, o tyle generowanie zdjęć i obrazów za pomocą AI jest darmowe oraz banalnie łatwe. Narzędzia korzystają z promptów, czyli tekstowych podpowiedzi. Wystarczy więc odpowiednio opisać to, co chce się uzyskać, a sztuczna inteligencja wygeneruje obraz na podstawie zapytania.

Sprawia to, że właściwie każdy jest dziś w stanie generować treści, które są realistyczne, a jednocześnie nie mają nic wspólnego z rzeczywistością. Sianie dezinformacji, propagandy i rozpowszechnianie kłamstw nigdy nie było tak łatwe, a z drugiej strony – w przyszłości możemy mieć też problem z wiarą we wszystkie wiadomości ze względu na wyuczoną nieufność w stosunku do treści generowanych przez AI.

Warto zaznaczyć, że nie tylko sfalsyfikowane zdjęcia stanowią niebezpieczeństwo związane z szerzeniem dezinformacji i „fake newsów”. Rozwój AI dotyka każdego medium. W przyszłości prawdopodobnie trzeba będzie zastanawiać się dwa razy nie tylko nad autentycznością zdjęć, ale i filmów oraz ludzkich głosów.

Już teraz możliwe jest wkładanie w usta znanych osób wypowiedzi, które nigdy nie padły. Brzmi to dystopijnie, ale trzeba przyznać jedno – internauci nigdy nie zawodzą, a memy z prezydentami kłócącymi się przy grach wideo to prawdopodobnie najśmieszniejsze, co wynikło z całej tej sytuacji.

Moda na AI groźna także z innych powodów

Łatwość, z jaką będzie można tworzyć i rozprzestrzeniać materiały propagandowe i dezinformację, to z pewnością jeden z najważniejszych problemów, z którymi będą musieli zmierzyć się wszyscy ludzie korzystający z sieci. AI stanowi jednak również inne zagrożenia.

W sklepach Play czy App Store znajdziemy masę aplikacji mobilnych używających sztucznej inteligencji: wirtualnych asystentów, czatboty, filtry upiększające albo zmieniające twarze.

Aplikacje te są teraz szczególnie rozchwytywane, ponieważ „boom” na AI trwa w najlepsze. Wiele z nich to jednak w rzeczywistości tylko fasady udające autentyczne narzędzia. Moda na AI ułatwia bowiem oszustom i przestępcom rozprzestrzenianie złośliwego oprogramowania, dlatego dziś czujność jest szczególnie ważna.

Warto pamiętać, by uważnie czytać opinie i komentarze na temat każdej aplikacji, którą planujemy pobrać na swoje urządzenie. Dobrze też podjąć dodatkowe środki ostrożności. Tani VPN niestety nie zapewni nam wystarczającej ochrony i nie uchroni przed pobraniem szkodliwego oprogramowania, dlatego rozsądniej jest zainwestować z porządną wirtualną sieć prywatną.

Wśród „AI-sceptyków” niepokój budzi również etyka związana z ulepszaniem tej technologii, a właściwie jej brak, gdy mowa na przykład o trenowaniu sieci neuronowych. Narzędzia takie jak ChatGPT czy Midjourney nie tworzą treści z powietrza – zanim zostały wypuszczone na rynek, trenowano je na tysiącach gigabajtów materiałów umieszczonych w Internecie.

Obecnie trwa spór o to, czy takie praktyki powinny być w ogóle legalne, jako że twórcy tych materiałów (w tym graficy, pisarze i inni artyści) nigdy nie wyrazili zgody na użyczenie wyników swojej pracy do trenowania systemów mogących ich w przyszłości nawet zastąpić.

Jak na razie pewne jest jedno: musimy nauczyć się poważnie zastanawiać nad tym, czy to, co widzimy, na pewno jest autentyczne.

dezinformacja zdjęcia AI