Algorytmy sztucznej inteligencji pomogą lekarzom, ale ich nie zastąpią
Dr inż. Marcin Sieniek jest absolwentem Akademii Górniczo-Hutniczej w Krakowie i tamtejszego Uniwersytetu Ekonomicznego. Na AGH otrzymał również doktorat z informatyki za badania w dziedzinie nauk obliczeniowych. W Google Health zajmuje się pracą nad zastosowaniem sztucznej inteligencji w diagnozie raka piersi. Oprócz Google pracował w zespole Autopilota Tesli oraz prowadził w Polsce startup z dziedziny social learning. Prywatnie gra w zespole rockowym i prowadzi bloga expat-pozytywnie.pl.
Jak trafia się do Google Health i dlaczego właśnie tam? To dość niszowa działka w działalności Google'a czy Alphabetu i wymagająca chyba szczególnych umiejętności?
W Google Health pomocne są przede wszystkim różnorodne umiejętności i doświadczenia. W Google pracuję od ponad 5 lat, początkowo jako inżynier oprogramowania w polskim biurze firmy. Jednak już od samego początku pracowałem nad wykorzystywaniem sztucznej inteligencji, a konkretniej określonych technik - tzw. uczenia maszynowego. Później kontynuowałem pracę nad moimi projektami w amerykańskich biurach Google. Dopiero wtedy, szukając ciekawych wyzwań wewnątrz firmy, znalazłem możliwość dołączenia do Google Research - działu firmy skupiającego się na badaniach nad rozwojem sztucznej inteligencji i jej wykorzystaniem w różnych dziedzinach życia.
Tam powstawał właśnie mały zespół badawczy zajmujący się zastosowaniem głębokiego uczenia maszynowego właśnie w radiologii. Proces selekcji do zespołu był wymagający - sprawdzano m.in. znajomość technik sztucznej inteligencji oraz udokumentowane doświadczenie w badaniach biotechnologicznych co akurat zupełnie przypadkiem było przedmiotem jednej z moich prac na studiach doktoranckich.
Pod koniec 2018 roku mój zespół stał się częścią nowego działu Google Health - łączącego w sobie nie tylko inżynierów oprogramowania, ale także doświadczenie i wiedzę lekarzy, prawników, etyków i specjalistów od procedur medycznych.
Jest Pan jednym ze współtwórców algorytmu, który lepiej diagnozuje raka piersi niż lekarze. Jak powstaje i działa taki algorytm?
Algorytm taki powstaje podobnie jak np. technologia która pozwala rozpoznawać co znajduje się na zdjęciu. Algorytm sztucznej inteligencji jest „szkolony” na istniejącym zbiorze danych, gdzie obrazom (w tym wypadku medycznym, czyli zdjęciom z mammografii) towarzyszą oznaczenia (w tym wypadku: czy wykryto nowotwór złośliwy i ewentualna informacja o jego umiejscowieniu). Takie zbiory danych powstają w ramach normalnej praktyki w szpitalach i centrach programów przesiewowych, jednak często na tym ich zastosowanie się kończy.
Takie algorytmy działają na bazie mechanizmu zwanego „sieciami neuronowymi”. Ich struktura inspirowana jest tym w jaki sposób informacje przetwarza ludzki mózg. Proces nauki przypomina w istocie proces w którym człowiek uczy się rozróżniać obrazy (np. dziecko rozpoznawać koty i psy, a radiolog rozpoznawać groźne guzy od nieszkodliwych zmian). W odróżnieniu jednak od radiologa, który w toku treningu może zobaczyć kilkadziesiąt-kilkaset nowotworów, komputer jest w stanie przetworzyć dziesiątki tysięcy przykładów w przeciągu jedynie kilku godzin.
Taki „wytrenowany” algorytm stosuje się następnie do oceny osobnego, nowego zbioru danych. Następnie inżynierowie mogą wprowadzić poprawki w procesie uczenia się albo w budowie modelu i powtórzyć testy. Dopiero gdy wyniki działania modelu zadowalają jego twórców, sprawdza się go na kolejnym zbiorze danych, np. pochodzących z innej instytucji lub z innego źródła.
Na tym właśnie etapie postanowiliśmy opublikować nasz artykuł w Nature.
Na tym jednak nie kończymy pracy. Zanim taki model znajdzie praktyczne zastosowanie w szpitalach na całym świecie, muszą zostać przeprowadzone próby kliniczne i o na różnych populacjach pacjentów, musimy także ocenić skuteczność modelu na danych pochodzących z innych aparatów mammograficznych.
Niejednokrotnie informowaliśmy o systemach SI radzących sobie w pewnych zadaniach lepiej od lekarzy. Skąd się bierze ta przewaga sztucznej inteligencji?
Warto powiedzieć, że to „potencjalna” przewaga. Raczej patrzymy na to jako na wsparcie i usprawnienie procesów diagnostycznych lekarzy. To potencjalne usprawnienie bierze się kilku źródeł: po pierwsze, w procesie uczenia się algorytm może przeanalizować dużo więcej przypadków niż pojedynczy lekarz w procesie nauki (z drugiej strony ludzie wyciągają wnioski szybciej – maszyna potrzebuje więcej przykładów). Co więcej automat nie ma skłonności do zaspokojenia swoich poszukiwań jednym „znaleziskiem” i jest mniejsze ryzyko, że umknie mu inne, często ważniejsze. Wreszcie, system sztucznej inteligencji pozwala na „nastrojenie” go na pożądany przez daną placówkę medyczną poziom czułości i swoistości.
Komentarze (9)
peceed, 18 lutego 2020, 12:47
Z inteligencji.
Po co ich zawczasu stresować.
Warai Otoko, 20 lutego 2020, 15:52
A moim zdaniem zdecydowanie nie wiadomo. Może się równie dobrze okazać że nastąpi to za 30 lat.
"Korelowanie zmiennych klinicznych z obrazami" to jest dość ogólne stwierdzenie i na dodatek algorytmy robią to lepiej niż ludzie, kwestia tylko odpowiedniej dostępności do danych.
Zrozumienie kontekstu pacjenta i te konferencje to faktycznie może być trudne do zastąpienia ale takie sytuacje są rzadkie - lekarz określa jednostke chorobową na podstawie kryteriów diagnostycznych a ten proces można spokojnie zautomatyzować. poza tym co oni robią na tych konferencjach przedoperacyjnych? Dyskutują nad taktyką , a nie nad tym jaka jest diagoza czy wynik obrazowania, także szkolenie radiologia tylko po to aby się wypowiedział na temat taktyki prowadzenia operacji jest chyba troszkę nad wyrost. Co do interwencji operacyjnych pod kontrolą radiologiczną - to też nie widzę problemy aby inne SI się tym zajmowało - kwestia odpowiedniej mocy obliczeniowej do analizy obrazu na bieżąco etc. więc człowiek może być przez długi czas tańszy. Natomiast jeśli chodzi o samą diagnostykę - czyli główne zajęcie radiologa, to będzie to jedna z pierwszych specjalizacji które staną się zbędne. Chirurg wytrzyma najdłużej bo będzie tańszy niż robot + SI. Wydaje mi się że specjalizacje lekarskie się połączą i będą lekarze nadzorujący pewne procesy etc. ale poszczególne specjalne zadania jak opis wyników radiologii, EKG, diagnozowanie chorób i dopasowywanie leków etc. będą robić SI i to już niedługo (10 lat temu w ogóle temat SI nie istniał w mainstremie). Lekarze przyszłości wejdą bardziej na metapoziom w stosunku do tego co jest teraz (czyli przestaną być radiologami, kardiologiami etc.). Obecnie ten metapoziom jest nie obsadzony dlatego nie ma żadnej nawigacji medycznej etc.
dexx, 20 lutego 2020, 16:01
Może algorytmy nie zastąpią wysokiej klasy specjalistów ale 90% lekarzy których spotkałem można spokojnie zastąpić algorytmem napisanym w Microsoft Basicu na commodore c64.
peceed, 22 lutego 2020, 09:48
To jest coś coś z czym SI poradzi sobie wielokrotnie lepiej i taniej, lekarze niedomagają najbardziej właśnie na takim metapoziomie.
To brzmi jak żart. Zakładając że to cytat z tego wywiadu, to jest to żart podwójny.
Wzór do naśladowania to nie jest. Następna taka bohaterka zerwie kulkę.
Warai Otoko, 24 lutego 2020, 10:18
Owszem, ale właśnie nie od razu poradzi sobie taniej i lepiej. Najpierw powstaną i powstają już SI specjalizowane, dopiero później powstaną meta-SI potrafiące żonglować tymi "wąskimi". Dlatego lekarze zostaną "zepchnięci" na ten metapoziom, bo nie będzie jeszcze SI które lepiej i taniej to zrobią (podejrzewam, ze głównym problemem będzie agregacja danych). Co nie znaczy że w dalszej przyszłości SI nie zastąpi lekarzy (i nie tylko) całkowicie. Opisuje pewne etapy procesu zmian.
Informacja dla innych użytkowników - ja tego nie napisałem, jest to cytat z cytatu
peceed, 24 lutego 2020, 11:39
Tutaj widzę echa jakiegoś przekonania, że obcowanie z wiedzą medyczną wymaga specjalnego namaszczenia. Tymczasem to wiedza jak każda inna.
AI mogące działać na poziomie meta już są. Wystarczy zobaczyć co się dzieje z branżą call-center.
Aby być zepchniętym trzeba mieć kwalifikacje, co w przypadku lekarzy wymagałoby zrobienia nowej specjalizacji.
AI jest już tańsza od zwykłego pracownika w call center.
Jasne, bo pan lekarz szybciej ogarnie w głowie "papierki" dotyczące określonego pacjenta od SI. Chyba tylko jak będzie je miał w komputerze w specjalnej aplikacji.
Warai Otoko, 24 lutego 2020, 11:46
Absolutnie nie trafiony domysł.
No i tak to własnie widzę. Będą się przekwalifikowywać powoli.
oczywiście że nie, chodzi o to że "Pan lekarz" ma dostęp do wielu różnych danych z różnych źródeł - ich agregacja będzie wymagała sporo zachodu i środków, dlatego taki widzę okres przejściowy. Stworzyć model to pikuś w porównaniu do stworzenia systemu akwizycji i agregacji odpowiednich danych, mówię o kwestiach jakościowych. Dużo łatwiej jest to zrobić gdzie mamy jasne źródło danych - sygnał EKG, EEG, obraz MRI etc. natomiast co do "metadanych" należałoby najpierw stworzyć i przetestować system który odpowiednio repreznetowałby wszelkie potrzebne informacje kliniczne i inne i dopiero z takiego systemu można by pobierać dane z których można by takie modele budować. Nie wspomnę o zmianie infrastrukty informatycznej która by była do tego potrzebna + procedury medyczne.
peceed, 24 lutego 2020, 12:01
W medycynie obieg informacji opiera się na dokumentach. Wypisy, opisy, diagnozy, itd. AI łyka to w ułamki sekund.
Nie potrzeba ręcznego budowania, formatów danych itd. Jesteśmy już na innym poziomie.
Dowolna komercyjna chmura. Odpowiedni software jest gotowy w tym sensie, że wymaga tylko konfiguracji.
Nie zdążą. Konie też nie wygrały z silnikiem spalinowym
Warai Otoko, 24 lutego 2020, 12:37
Owszem, ale AI nie wie co jest czym i do czego w jakim stopniu jest potrzebne. Dla AI to tylko dane.
nie chodzi mi o system przetwarzania danych i przetsrzeń obliczeniową tylko o system wprowadzania tych danych i procedury żeby odpowiedneio to robić.
nie mówię że przyszłości lekarze nie skończą jak te "konie pociągowe" ale proces zmian może nie być tak gwałtowny jak sugerujesz.