ChatGPT może służyć do fałszowania danych z badań medycznych
Truizmem jest stwierdzenie, że ChatGPT może być wykorzystywany zarówno do działań pożytecznych, jak i szkodliwych lub takich, które potępiamy. Studenci używają go, by pisał za nich prace, co może skończyć się obniżeniem oceny. Dla firmy prawniczej, która wykorzystała ChatGPT do sporządzenia opinii przedłożonej przed sądem, skończyło się to grzywną, gdyż opinia pełna była fałszywych cytatów z rzekomych wyroków sądowych. To jednak tylko drobne nieprzyjemności. Włoscy naukowcy dowiedli, że ChatGPT może być naprawdę niebezpieczny.
Andrea Taloni, Vincenzo Scorcia i Giuseppe Giannaccare wykazali, że narzędzie to można wykorzystać do błyskawicznego stworzenie zastawu przekonujących danych dotyczących wyników badań klinicznych. Danych, które mogą wpłynąć na nauczanie w akademiach medycznych czy na procedury medyczne.
Jedną rzeczą jest wykorzystanie sztucznej inteligencji do stworzenia tekstu, który nie wzbudzi zastrzeżeń oprogramowania do wykrywania plagiatów. Jednak możliwość tworzenia zestawów fałszywych realistycznych danych to zupełnie inny problem. Dowolny naukowiec czy grupa naukowa może błyskawicznie utworzyć dane medyczne nieistniejących pacjentów, wypełniać kwestionariusze czy zbudować wielką bazę danych z rzekomych eksperymentów na zwierzętach.
Włoscy naukowcy przetestowali ChatGPT-4 właśnie pod kątem możliwości sfabrykowania takich informacji. Najpierw algorytmowi dostarczono dane na temat chorób oczu, informacje statystyczne oraz zasady dochodzenia do konkluzji w badaniach. A następnie poproszono go, by na tej podstawie dostarczył danych, które będą faworyzowały jedną z procedur medycznych, wykazując jej przewagę nad drugą.
ChatGPT świetnie wywiązał się z zadania. Opierając się na fałszywych informacjach dostarczył przekonującego opisu dowodzącego, że jedna z procedur daje wyraźnie lepsze wyniki. W rzeczywistości pomiędzy nimi nie ma żadnych znaczących różnic.
Okazało się, że ChatGPT potrafi szybko stworzyć zestawy danych, które na pierwszy rzut oka wyglądają przekonująco. Celem badań było rzucenie światła na możliwość wykorzystania podobnych narzędzi do fabrykowania danych. Włoscy naukowcy mówią, że takie dane, stworzone przez sztuczną inteligencję, mogą z czasem stać się problemem. Na razie bliższa analiza informacji wytworzonych przez ChatGPT pokazuje, że mogło dojść do fałszowania. Jednym z sygnałów takich niedociągnięć jest np. zaskakująca liczba „badanych osób”, których wiek kończy się cyfrą 7 lub 8. Jednak do wyłapania tego typu błędów potrzebne są wiedza i doświadczenie. Lub sztuczna inteligencja, która - zdaniem badaczy - może w przyszłości stać się narzędziem wykrywającym tego typu fałszerstwa.
Komentarze (1)
czernm20, 3 grudnia 2023, 08:15
Zagrożenia jest realne, jednak o wielu rzeczach się nie mówi głośno.
Autor opracowania dostępując transcendencji tak samo jest winień nie zmieniać opublikowanego tekstu i go poprawiać bądź zmieniać wedle własnej woli a jednak to ma miejsce. To jak opatentować utwór dzieła, aby później się zarzekać: tak, opatentowałem właśnie ten utwór a nie inny.
Bądź to jak z wynikami Google, sprzed 5 lat: tak, szukałem informacji na ten temat, znalazłem stronę X a dzisiaj wyskakują mi treści o innych wnioskach, o innych informacjach gdzie Pan Y wcale nie skończył szkoły Z a szkołę V. Chociaż tamta strona podawała inaczej, szkoda, że tej strony już nie ma. Teraz informacje tu zawarte są kontrfaktyczne.
Więc podsumowując, to zagrożenie jest od dawna. Grupa ludzi może bez problemu wprowadzić na rynek informacje sprzeczne z prawdą, utwierdzając innych o tym, że prawdziwe tezy są niewiarygodne. Przykład z mojego podwórka:
— Erystyka Schopenhauera jest jego dziełem i nawiązuje do filozofii kłótliwości. To wynik popularyzacji Erystyki jako zerwanie z dialektyka jako taką. Potwierdzają to wykłady w Oxfordzie oraz w polskich wydaniach nazwisko prof. Kotarbińskiego, znanego sympatyka PRL.
W rzeczywistości jest to manuskrypt, autor nie życzyłby sobie aby to dzieło publikować a jego wizja zakładała 5cioksiag, gdzie tego dzieła nie brano pod uwagę. Pieczołowicie przykładał on starania do każdego przecinka, do każdego wydania i miał na to fundusze. Gdyby chciał to jeszcze pod koniec życia umieściłby ten manuskrypt w swoich Parergach i Paralipomenach.
Przykład drugi:
— Schopenhauer został okrzyknięty przez memiarzy filozofem, który życzy każdemu śmierci. W rzeczywistości jego ojciec popełnił samobójstwo, sam w swoim dziele odradza samobójstwo i twierdzi, że takie jest sprzeczne z ideami zawartymi w jego filozofii.
Pod koniec życia cały majątek oddał inwalidom wojennym z armi pruskiej. Gdyby sobie życzył czyjejś śmierci to nie postępowałby w ten sposób jako altruista, jako filantrop.
Tak samo bot, może utworzyć tysiąc wyników w Google: które będą prawdziwe? A co z Dworcami PKP, placówkami medycznymi, które korzystają z tego czatu? W ciągu kilku chwil przychodzień może zostać poddany terroryzmowi graniczącemu temu z obozów w Auschwitz, z powodu rzekomej niesubordynacji czy dyskryminacji. Odcięty od informacji z zewnątrz będzie zmuszony uwierzyć, że każdy w ten sam sposób jest traktowany.