Czy jeste?my gotowi na wykorzystanie sztucznej inteligencji w ochronie zdrowia?

Newsroom BrandsIT
6 Min
E-zdrowie medycyna

Ogromne inwestycje w sztuczn? inteligencj? nie dziwi?, gdy? korzy?ci wynikaj?ce z tej technologii s? nie do przecenienia. Jednak pojawia si? wiele pyta? dotycz?cych zagro?e? wynikaj?cych z jej niew?a?ciwego – celowego lub nieumy?lnego – wykorzystania. Coraz g?o?niej mówi si? o etycznym aspekcie u?ywania AI.

Innowacje oczekiwane przez pacjentów i lekarzy

Ju? w 2018 roku uczestnicy badania przeprowadzonego przez SAS entuzjastycznie wypowiadali si? na temat wykorzystania sztucznej inteligencji w ochronie zdrowia. Co ciekawe znacznie wi?cej obaw wi?za?o si? z implementacj? tej technologii w bankowo?ci czy handlu. Respondenci pozytywnie odnie?li si? do przyk?adów wykorzystania AI do wsparcia lekarzy w opiece nad pacjentami. A? 47 proc. badanych stwierdzi?o, ?e czu?oby si? komfortowo w asy?cie AI nawet podczas operacji. Tak pozytywne podej?cie do sztucznej inteligencji ?wiadczy o tym, ?e oczekujemy namacalnych korzy?ci wynikaj?cych z zastosowania tej technologii. Sektor ochrony zdrowia mierzy si? z wieloma wyzwaniami, które pandemia COVID-19 dodatkowo spot?gowa?a. W?ród nich m.in. rosn?ce koszty, braki personelu i coraz wi?ksze zapotrzebowanie na us?ugi. Specjali?ci SAS s? zdania, ?e bran?y mo?e pomóc wykorzystanie zalet technologii AI. Twierdz?, ?e sztuczna inteligencja odegra istotn? rol? w przekszta?caniu bran?y opieki zdrowotnej, któr? znamy.

Bezpiecze?stwo danych przede wszystkim

AI i zaawansowana analityka maj? bardzo szerokie zastosowanie w sektorze opieki zdrowotnej. Mog? istotnie wp?ywa? na popraw? efektywno?ci ca?ego systemu. Zapewni? lepsze zrozumienie potrzeb i stanu zdrowia pacjentów, odci??enie lekarzy oraz personelu medycznego w zakresie zada? administracyjnych czy wsparcie procesów diagnostyki i leczenia chorych. Jednak mamy tu do czynienia z bardzo wra?liwymi informacjami. Mo?na wyrz?dzi? pacjentowi realn? szkod?, gdyby jego dane osobowe i medyczne zosta?y b??dnie zanalizowane lub dosta?y si? w niepowo?ane r?ce.

– Maj?c na uwadze wykorzystanie danych medycznych, nale?y zadba? o w?a?ciwe ?rodki zarz?dzania, nadzoru i bezpiecze?stwa. Mie? pewno??, ?e s? u?ywane w uzgodnionym zakresie, dost?p do nich maj? upowa?nieni pracownicy i autoryzowane algorytmy. Upewni? si?, ?e ka?de wykorzystanie danych przechodzi weryfikacj? w celu sprawdzenia, czy przynosi korzy?? i wyklucza mo?liwo?? wyrz?dzenia szkody. Z jednej strony powinni?my chroni? prywatno??, ale z drugiej – umo?liwia? post?p naukowy w medycynie – mówi Piotr Kramek, Lider Praktyki Public Sector & Health Care w SAS Polska.

Ad imageAd image

Czy sztuczna inteligencja jest obiektywna

Techniki machine learning mog? by? skuteczne na tyle, na ile pozwala jako??, ilo?? oraz reprezentatywno?? danych u?ywanych do treningu modeli. Jednym z wyzwa? jest niedostateczna reprezentacja pewnych grup populacji w wykorzystywanych danych. Przek?ada si? ona na stronniczo?? algorytmów AI (ang. algorythmic bias). W efekcie model sztucznej inteligencji mo?e generowa? gorsze wyniki dla mniej reprezentowanych grup.

– Dane, które nie s? zrównowa?one np. w zakresie p?ci, mog? wp?ywa? na ni?sz? dok?adno?? modeli dla niedostatecznie reprezentowanej p?ci. Modele wykrywania raka skóry, które „ucz? si?” g?ównie na pacjentach o jasnej karnacji, mog? dzia?a? gorzej na osobach z ciemniejsz? karnacj?. W przypadku opieki zdrowotnej s?abe wyniki modelu dla okre?lonej grupy mog? dostarczy? niewiarygodnych informacji, prowadz?c do niew?a?ciwej diagnozy lub nieprawid?owego leczenia – podkre?la Piotr Kramek.

Zasilanie modeli AI zaburzonymi danymi mo?e z kolei prowadzi? do uzyskania nieobiektywnych rezultatów. To wa?ne, bior?c pod uwag? potencjalny efekt wykorzystania sztucznej inteligencji w opiece zdrowotnej.

Jak zrozumie? algorytm

Niektóre z algorytmów zwykle u?ywanych w systemach AI (takich jak sieci neuronowe) s? uwa?ane za „czarne skrzynki”. Dostarcza si? algorytmowi dane treningowe i prosi, aby nauczy? si? rozpoznawa? okre?lone wzorce na podstawie tych danych. Mo?na parametryzowa? algorytmy oraz zmienia? dane wej?ciowe przez dodawanie nowych charakterystyk. Nie ma jednak bezpo?redniego wgl?du w przyczyn?, dla której algorytmy zaklasyfikowa?y dan? obserwacj? w okre?lony sposób. W rezultacie mo?na mie? bardzo dok?adny model, który czasem daje nieoczekiwane wyniki. W przypadku ochrony zdrowia b??dna klasyfikacja ze strony modelu i brak dodatkowego wyja?nienia czy interpretacji ze strony algorytmu ogranicza mo?liwo?? weryfikacji wyniku po stronie lekarza. Mo?e mie? ona negatywne konsekwencje dla zdrowia pacjenta. Dlatego bardzo wa?ne jest, aby z jednej strony zrozumie? i zweryfikowa? aspekty danych, z których korzystaj? algorytmy. Z drugiej za? strony zapewni? interpretowalno?? wyników modeli sztucznej inteligencji, co pozwoli na weryfikacj? poprawno?ci ich dzia?ania.

– Czasami u?ycie mniej z?o?onych modeli mo?e zapewni? lepsze zrozumienie zasad dzia?ania algorytmu. Regresja liniowa lub drzewa decyzyjne zapewni? wystarczaj?c? dok?adno?? oraz dobr? widoczno?? zmiennych i kluczowych czynników. Kiedy wykorzystuje si? bardziej z?o?ony model, warto u?y? narz?dzi wspieraj?cych wyja?nialno?? algorytmów AI. Eksperci zajmuj?cy si? tym procesem powinni w obu przypadkach zweryfikowa? wyja?nienie, szukaj?c potencjalnych b??dów i w?tpliwo?ci w doborze zmiennych oraz charakterystyk, które wykorzystuje model – dodaje Piotr Kramek.

AI potrzebuje cz?owieka

Jedn? z barier hamuj?cych realizacj? projektów AI jest brak odpowiednich kompetencji. Dlatego tak wa?ne jest kszta?cenie kadr oraz zapewnienie odpowiednich regulacji prawnych gwarantuj?cych, ?e sztuczna inteligencja b?dzie wykorzystywana w sposób etycz­ny, z poszanowaniem prawa do zachowania prywatno?ci.

Udostępnij