Ogromne inwestycje w sztuczn? inteligencj? nie dziwi?, gdy? korzy?ci wynikaj?ce z tej technologii s? nie do przecenienia. Jednak pojawia si? wiele pyta? dotycz?cych zagro?e? wynikaj?cych z jej niew?a?ciwego – celowego lub nieumy?lnego – wykorzystania. Coraz g?o?niej mówi si? o etycznym aspekcie u?ywania AI.
Innowacje oczekiwane przez pacjentów i lekarzy
Ju? w 2018 roku uczestnicy badania przeprowadzonego przez SAS entuzjastycznie wypowiadali si? na temat wykorzystania sztucznej inteligencji w ochronie zdrowia. Co ciekawe znacznie wi?cej obaw wi?za?o si? z implementacj? tej technologii w bankowo?ci czy handlu. Respondenci pozytywnie odnie?li si? do przyk?adów wykorzystania AI do wsparcia lekarzy w opiece nad pacjentami. A? 47 proc. badanych stwierdzi?o, ?e czu?oby si? komfortowo w asy?cie AI nawet podczas operacji. Tak pozytywne podej?cie do sztucznej inteligencji ?wiadczy o tym, ?e oczekujemy namacalnych korzy?ci wynikaj?cych z zastosowania tej technologii. Sektor ochrony zdrowia mierzy si? z wieloma wyzwaniami, które pandemia COVID-19 dodatkowo spot?gowa?a. W?ród nich m.in. rosn?ce koszty, braki personelu i coraz wi?ksze zapotrzebowanie na us?ugi. Specjali?ci SAS s? zdania, ?e bran?y mo?e pomóc wykorzystanie zalet technologii AI. Twierdz?, ?e sztuczna inteligencja odegra istotn? rol? w przekszta?caniu bran?y opieki zdrowotnej, któr? znamy.
Bezpiecze?stwo danych przede wszystkim
AI i zaawansowana analityka maj? bardzo szerokie zastosowanie w sektorze opieki zdrowotnej. Mog? istotnie wp?ywa? na popraw? efektywno?ci ca?ego systemu. Zapewni? lepsze zrozumienie potrzeb i stanu zdrowia pacjentów, odci??enie lekarzy oraz personelu medycznego w zakresie zada? administracyjnych czy wsparcie procesów diagnostyki i leczenia chorych. Jednak mamy tu do czynienia z bardzo wra?liwymi informacjami. Mo?na wyrz?dzi? pacjentowi realn? szkod?, gdyby jego dane osobowe i medyczne zosta?y b??dnie zanalizowane lub dosta?y si? w niepowo?ane r?ce.
– Maj?c na uwadze wykorzystanie danych medycznych, nale?y zadba? o w?a?ciwe ?rodki zarz?dzania, nadzoru i bezpiecze?stwa. Mie? pewno??, ?e s? u?ywane w uzgodnionym zakresie, dost?p do nich maj? upowa?nieni pracownicy i autoryzowane algorytmy. Upewni? si?, ?e ka?de wykorzystanie danych przechodzi weryfikacj? w celu sprawdzenia, czy przynosi korzy?? i wyklucza mo?liwo?? wyrz?dzenia szkody. Z jednej strony powinni?my chroni? prywatno??, ale z drugiej – umo?liwia? post?p naukowy w medycynie – mówi Piotr Kramek, Lider Praktyki Public Sector & Health Care w SAS Polska.
Czy sztuczna inteligencja jest obiektywna
Techniki machine learning mog? by? skuteczne na tyle, na ile pozwala jako??, ilo?? oraz reprezentatywno?? danych u?ywanych do treningu modeli. Jednym z wyzwa? jest niedostateczna reprezentacja pewnych grup populacji w wykorzystywanych danych. Przek?ada si? ona na stronniczo?? algorytmów AI (ang. algorythmic bias). W efekcie model sztucznej inteligencji mo?e generowa? gorsze wyniki dla mniej reprezentowanych grup.
– Dane, które nie s? zrównowa?one np. w zakresie p?ci, mog? wp?ywa? na ni?sz? dok?adno?? modeli dla niedostatecznie reprezentowanej p?ci. Modele wykrywania raka skóry, które „ucz? si?” g?ównie na pacjentach o jasnej karnacji, mog? dzia?a? gorzej na osobach z ciemniejsz? karnacj?. W przypadku opieki zdrowotnej s?abe wyniki modelu dla okre?lonej grupy mog? dostarczy? niewiarygodnych informacji, prowadz?c do niew?a?ciwej diagnozy lub nieprawid?owego leczenia – podkre?la Piotr Kramek.
Zasilanie modeli AI zaburzonymi danymi mo?e z kolei prowadzi? do uzyskania nieobiektywnych rezultatów. To wa?ne, bior?c pod uwag? potencjalny efekt wykorzystania sztucznej inteligencji w opiece zdrowotnej.
Jak zrozumie? algorytm
Niektóre z algorytmów zwykle u?ywanych w systemach AI (takich jak sieci neuronowe) s? uwa?ane za „czarne skrzynki”. Dostarcza si? algorytmowi dane treningowe i prosi, aby nauczy? si? rozpoznawa? okre?lone wzorce na podstawie tych danych. Mo?na parametryzowa? algorytmy oraz zmienia? dane wej?ciowe przez dodawanie nowych charakterystyk. Nie ma jednak bezpo?redniego wgl?du w przyczyn?, dla której algorytmy zaklasyfikowa?y dan? obserwacj? w okre?lony sposób. W rezultacie mo?na mie? bardzo dok?adny model, który czasem daje nieoczekiwane wyniki. W przypadku ochrony zdrowia b??dna klasyfikacja ze strony modelu i brak dodatkowego wyja?nienia czy interpretacji ze strony algorytmu ogranicza mo?liwo?? weryfikacji wyniku po stronie lekarza. Mo?e mie? ona negatywne konsekwencje dla zdrowia pacjenta. Dlatego bardzo wa?ne jest, aby z jednej strony zrozumie? i zweryfikowa? aspekty danych, z których korzystaj? algorytmy. Z drugiej za? strony zapewni? interpretowalno?? wyników modeli sztucznej inteligencji, co pozwoli na weryfikacj? poprawno?ci ich dzia?ania.
– Czasami u?ycie mniej z?o?onych modeli mo?e zapewni? lepsze zrozumienie zasad dzia?ania algorytmu. Regresja liniowa lub drzewa decyzyjne zapewni? wystarczaj?c? dok?adno?? oraz dobr? widoczno?? zmiennych i kluczowych czynników. Kiedy wykorzystuje si? bardziej z?o?ony model, warto u?y? narz?dzi wspieraj?cych wyja?nialno?? algorytmów AI. Eksperci zajmuj?cy si? tym procesem powinni w obu przypadkach zweryfikowa? wyja?nienie, szukaj?c potencjalnych b??dów i w?tpliwo?ci w doborze zmiennych oraz charakterystyk, które wykorzystuje model – dodaje Piotr Kramek.
AI potrzebuje cz?owieka
Jedn? z barier hamuj?cych realizacj? projektów AI jest brak odpowiednich kompetencji. Dlatego tak wa?ne jest kszta?cenie kadr oraz zapewnienie odpowiednich regulacji prawnych gwarantuj?cych, ?e sztuczna inteligencja b?dzie wykorzystywana w sposób etyczÂny, z poszanowaniem prawa do zachowania prywatno?ci.