ChatGPT może służyć do fałszowania danych z badań medycznych

| Technologia
Xu Haiwei, Unsplash

Truizmem jest stwierdzenie, że ChatGPT może być wykorzystywany zarówno do działań pożytecznych, jak i szkodliwych lub takich, które potępiamy. Studenci używają go, by pisał za nich prace, co może skończyć się obniżeniem oceny. Dla firmy prawniczej, która wykorzystała ChatGPT do sporządzenia opinii przedłożonej przed sądem, skończyło się to grzywną, gdyż opinia pełna była fałszywych cytatów z rzekomych wyroków sądowych. To jednak tylko drobne nieprzyjemności. Włoscy naukowcy dowiedli, że ChatGPT może być naprawdę niebezpieczny.

Andrea Taloni, Vincenzo Scorcia i Giuseppe Giannaccare wykazali, że narzędzie to można wykorzystać do błyskawicznego stworzenie zastawu przekonujących danych dotyczących wyników badań klinicznych. Danych, które mogą wpłynąć na nauczanie w akademiach medycznych czy na procedury medyczne.

Jedną rzeczą jest wykorzystanie sztucznej inteligencji do stworzenia tekstu, który nie wzbudzi zastrzeżeń oprogramowania do wykrywania plagiatów. Jednak możliwość tworzenia zestawów fałszywych realistycznych danych to zupełnie inny problem. Dowolny naukowiec czy grupa naukowa może błyskawicznie utworzyć dane medyczne nieistniejących pacjentów, wypełniać kwestionariusze czy zbudować wielką bazę danych z rzekomych eksperymentów na zwierzętach.

Włoscy naukowcy przetestowali ChatGPT-4 właśnie pod kątem możliwości sfabrykowania takich informacji. Najpierw algorytmowi dostarczono dane na temat chorób oczu, informacje statystyczne oraz zasady dochodzenia do konkluzji w badaniach. A następnie poproszono go, by na tej podstawie dostarczył danych, które będą faworyzowały jedną z procedur medycznych, wykazując jej przewagę nad drugą.

ChatGPT świetnie wywiązał się z zadania. Opierając się na fałszywych informacjach dostarczył przekonującego opisu dowodzącego, że jedna z procedur daje wyraźnie lepsze wyniki. W rzeczywistości pomiędzy nimi nie ma żadnych znaczących różnic.

Okazało się, że ChatGPT potrafi szybko stworzyć zestawy danych, które na pierwszy rzut oka wyglądają przekonująco. Celem badań było rzucenie światła na możliwość wykorzystania podobnych narzędzi do fabrykowania danych. Włoscy naukowcy mówią, że takie dane, stworzone przez sztuczną inteligencję, mogą z czasem stać się problemem. Na razie bliższa analiza informacji wytworzonych przez ChatGPT pokazuje, że mogło dojść do fałszowania. Jednym z sygnałów takich niedociągnięć jest np. zaskakująca liczba „badanych osób”, których wiek kończy się cyfrą 7 lub 8. Jednak do wyłapania tego typu błędów potrzebne są wiedza i doświadczenie. Lub sztuczna inteligencja, która - zdaniem badaczy - może w przyszłości stać się narzędziem wykrywającym tego typu fałszerstwa.

ChatGPT może służyć do fałszowania danych z badań medycznych