Chatbot Google'a stawia diagnozy lepiej niż lekarze i jest bardziej empatyczny

| Technologia
Irwan @blogcious, Unsplash

Google twierdzi, że opracowało system sztucznej inteligencji oparty na dużym modelu językowym, który dokładniej niż lekarz podstawowej opieki zdrowotnej diagnozuje choroby układu oddechowego i krążenia. Podczas konwersacji z pacjentem model zebrał podobną ilość informacji, co lekarz, a lepiej wypadł w kwestii okazywania empatii. Artykuł opisujący system oraz jego osiągnięcia opublikowano w arXiv i nie został on jeszcze zrecenzowany.

Chatbot Articulate Medical Intelligence Explorer (AMIE) to wciąż system eksperymentalny. Nie testowano go na prawdziwych pacjentach, a na aktorach udających osoby z konkretnymi schorzeniami. Chcemy, by z ostrożnością podchodzić do wyników naszych testów, mówi naukowiec z Google Health, Alan Karthikesalingam.

Podstawą medycyny jest dialog pomiędzy lekarzem a pacjentem. W jego trakcie odpowiednie zebranie informacji otwiera drogę do dokładnej diagnozy, efektywnego zarządzania i wzajemnego zaufania. Systemy sztucznej inteligencji zdolne do prowadzenia dialogu w celu postawienia diagnozy mogą zwiększyć dostępność i jakość opieki zdrowotnej. Jednak nawet zbliżenie się do doświadczenia lekarzy to poważne wyzwanie. Dlatego też przedstawiamy AMIE (Articulate Medical Intelligence Explorer), oparty na dużym modelu językowym system sztucznej inteligencji zoptymalizowany pod kątem zbierania informacji diagnostycznych, czytamy w artykule Towards Conversational Diagnostic AI.

Vivek Natarajan, jeden z twórców AMIE, mówi, że poważnym problemem była niewielka liczba prawdziwych rozmów pomiędzy lekarzami a pacjentami, na podstawie których można by uczyć model. Dlatego badacze opracowali system, w ramach którego – po dostarczeniu AMIE danych klinicznych oraz dostępnych transkrypcji rozmów lekarzy i pacjentów – system „dyskutował” sam ze sobą, odgrywając rolę i lekarza, i pacjenta. Później przed AMIE postawiono dodatkowe zadanie. Miał odegrać rolę osoby oceniającej sposób interakcji lekarza z pacjentem. W ten sposób uczono go, jak udoskonalić tę interakcję i jak ważna jest empatia.

Później przystąpiono do testów AMIE. Wzięło w nich udział 20 aktorów, którzy odgrywali łącznie 149 scenariuszy, udając pacjentów z różnymi schorzeniami. Aktorzy nie wiedzieli, czy prowadzą dialog z maszyną, czy z jednym z 20 lekarzy biorących udział w testach. Po rozmowie mieli ocenić przebieg rozmowy. Ponadto interakcje te były analizowane przez grupę specjalistów, którzy oceniali jak sprawował się AMIE, a jak lekarze biorący udział w testach.

Analizy pokazały, że AMIE postawił diagnozę dokładniejszą niż lekarze we wszystkich 6 testowanych specjalnościach. Chatbot został też lepiej niż lekarze oceniony w 24 z 26 kryteriów prowadzenia rozmowy. Kryteria te obejmowały takie zagadnienia jak kultura osobista, wyjaśnienie choroby i sposobów leczenia, empatia, szczerość, troska i zaangażowanie.

Autorzy chatbota podkreślają, że wyniki testów nie oznaczają, iż lepiej wypada on w rzeczywistych warunkach klinicznych. Przypominają też, że dla lekarzy prowadzenie dialogu z pacjentem za pomocą komputera było czymś nowym, więc mogło to wpłynąć na ich pracę. Ponadto chatbot jest lepszy od ludzi w szybkim konstruowaniu dużych wypowiedzi na piśmie i nie męczy się przy tym. Maszyna miała więc tutaj przewagę.

W najbliższym czasie Google będzie chciał przeprowadzić znacznie szerzej zakrojone testy, tym razem z osobami rzeczywiści chorymi i o różnorodnym statusie społecznym.

Chatbot Google'a stawia diagnozy lepiej niż lekarze i jest bardziej empatyczny