Modele sztucznej inteligencji mogą pomóc w przewidywaniu i zapobieganiu chorobom. Jednak najnowsze badania wskazują na wyzwania, jakie stoją przed nimi, jeśli chodzi o dostarczanie wiedzy przydatnej dla wszystkich.
Medycyna, AI i uprzedzenia: Czy złe dane osłabią dobrą technologię?
Natalie Sabin
18 maja 2022 C Wyobraź sobie, że wchodzisz do Biblioteki Kongresu, w której znajdują się miliony książek, i stawiasz sobie za cel przeczytanie ich wszystkich. Niemożliwe, prawda? Nawet gdybyś był w stanie przeczytać każde słowo z każdego dzieła, nie byłbyś w stanie zapamiętać ani zrozumieć wszystkiego, nawet gdybyś próbował przez całe życie.
Załóżmy, że masz superpotężny mózg, który potrafi przeczytać i zrozumieć wszystkie te informacje. Nadal miałbyś problem: nie wiedziałbyś, o czym nie było mowy w tych książkach, na jakie pytania nie udzielono odpowiedzi, czyje doświadczenia pominięto.
Podobnie dzisiejsi badacze mają do przebrnięcia oszałamiającą ilość danych. Wszystkie recenzowane badania na świecie zawierają ponad 34 miliony cytowań. Miliony innych zestawów danych badają, jak badania krwi, historia choroby i rodziny, genetyka oraz cechy społeczne i ekonomiczne wpływają na wyniki leczenia pacjentów.
Sztuczna inteligencja pozwala nam wykorzystać więcej tych materiałów niż kiedykolwiek wcześniej. Powstające modele mogą szybko i precyzyjnie porządkować ogromne ilości danych, przewidywać potencjalne wyniki leczenia pacjentów i pomagać lekarzom w podejmowaniu decyzji dotyczących leczenia lub opieki profilaktycznej.
Duże nadzieje wiąże się z zaawansowaną matematyką. Niektóre algorytmy C instrukcje rozwiązywania problemów C potrafią zdiagnozować raka piersi z większą dokładnością niż patolodzy. Inne narzędzia sztucznej inteligencji są już wykorzystywane w medycynie, umożliwiając lekarzom szybsze sprawdzanie historii chorób pacjentów lub zwiększając ich zdolność do analizowania obrazów radiologicznych.
Jednak niektórzy eksperci w dziedzinie sztucznej inteligencji w medycynie sugerują, że choć korzyści wydają się oczywiste, to mniej zauważalne uprzedzenia mogą osłabić te technologie. Ostrzegają oni, że mogą one prowadzić do podejmowania nieskutecznych, a nawet szkodliwych decyzji w opiece nad pacjentem.
Nowe narzędzia, te same uprzedzenia?
Choć wiele osób kojarzy uprzedzenia z uprzedzeniami osobistymi, etnicznymi lub rasowymi, to w szerokim rozumieniu uprzedzenie to tendencja do skłaniania się w określonym kierunku, na korzyść lub niekorzyść danej rzeczy.
W sensie statystycznym stronniczość występuje wtedy, gdy dane nie reprezentują w pełni lub dokładnie populacji, którą mają modelować. Może to wynikać z posiadania słabych danych na początku lub z omyłkowego zastosowania danych z jednej populacji do innej.
W literaturze medycznej występują oba rodzaje uprzedzeń - statystyczne i rasowe/etniczne. Niektóre populacje były badane w większym stopniu, podczas gdy inne są niedostatecznie reprezentowane. W związku z tym nasuwa się pytanie: Czy budując modele sztucznej inteligencji na podstawie istniejących informacji, nie przekazujemy starych problemów nowej technologii?
Cóż, jest to niewątpliwie powód do niepokoju - mówi dr David M. Kent, dyrektor Predictive Analytics and Comparative Effectiveness Center w Tufts Medical Center.
W nowym badaniu Kent i zespół badaczy przeanalizowali 104 modele przewidywania chorób serca C, które mają pomagać lekarzom w podejmowaniu decyzji o tym, jak zapobiegać tym schorzeniom. Badacze chcieli wiedzieć, czy modele, które wcześniej sprawdzały się bardzo dobrze, będą równie dobre, gdy zostaną przetestowane na nowej grupie pacjentów.
Jakie są ich wnioski?
Jak twierdzi Kent, modele wypadły gorzej, niż można się było spodziewać.
Nie zawsze były w stanie odróżnić pacjentów wysokiego ryzyka od pacjentów niskiego ryzyka. Niekiedy narzędzia te zawyżały lub zaniżały ryzyko zachorowania pacjenta. Co niepokojące, większość modeli może potencjalnie zaszkodzić, jeśli zostaną zastosowane w rzeczywistych warunkach klinicznych.
Dlaczego wyniki modeli uzyskane podczas pierwotnych testów były tak różne od obecnych? Błąd statystyczny.
Modele predykcyjne nie generalizują tak dobrze, jak się to ludziom wydaje" - mówi Kent.
Kiedy przenosisz model z jednej bazy danych do drugiej lub kiedy rzeczy zmieniają się w czasie (z jednej dekady na drugą) lub w przestrzeni (z jednego miasta do drugiego), model nie jest w stanie uchwycić tych różnic.
Prowadzi to do powstania błędu statystycznego. W rezultacie model nie reprezentuje już nowej populacji pacjentów i może nie działać tak dobrze.
Nie oznacza to, że SI nie powinna być stosowana w opiece zdrowotnej - mówi Kent. Pokazuje to jednak, dlaczego tak ważny jest ludzki nadzór.
Badanie nie pokazuje, że te modele są szczególnie złe. Podkreśla ono ogólną słabość modeli próbujących przewidzieć bezwzględne ryzyko. Pokazuje, że konieczny jest lepszy audyt i aktualizacja modeli.
Ale nawet nadzór ludzki ma swoje ograniczenia, jak ostrzegają badacze w nowym artykule, w którym opowiadają się za standaryzacją procesu. Zauważają, że bez takiego systemu możemy znaleźć tylko te błędy, które wydaje nam się, że powinniśmy szukać. Ponownie, nie wiemy, czego nie wiemy.
Stronniczość w czarnej skrzynce
Rasa to połączenie cech fizycznych, behawioralnych i kulturowych. Jest istotną zmienną w opiece zdrowotnej. Jednak rasa jest pojęciem skomplikowanym, a przy jej wykorzystaniu w algorytmach predykcyjnych mogą pojawić się problemy. Chociaż istnieją różnice zdrowotne między grupami rasowymi, nie można zakładać, że wszystkie osoby w danej grupie będą miały takie same wyniki zdrowotne.
David S. Jones, MD, PhD, profesor kultury i medycyny na Uniwersytecie Harvarda i współautor książki Hidden in Plain Sight C Reconsidering the Use of Race Correction in Algorithms, twierdzi, że wiele z tych narzędzi [algorytmów analogowych] wydaje się kierować zasoby opieki zdrowotnej w stronę białych ludzi.
Mniej więcej w tym samym czasie badacze Ziad Obermeyer i Eric Topol zidentyfikowali podobne uprzedzenia w narzędziach sztucznej inteligencji.
Brak różnorodności w badaniach klinicznych, które mają wpływ na opiekę nad pacjentami, od dawna jest powodem do niepokoju. Jones twierdzi, że obecnie niepokojące jest to, że wykorzystywanie tych badań do tworzenia modeli predykcyjnych nie tylko przenosi te uprzedzenia, ale także sprawia, że stają się one bardziej ukryte i trudniejsze do wykrycia.
Przed pojawieniem się sztucznej inteligencji jedyną opcją kliniczną były analogowe algorytmy. Tego typu modele predykcyjne są obliczane ręcznie, a nie automatycznie.
W przypadku modelu analogowego, jak mówi Jones, osoba może łatwo przejrzeć informacje i dokładnie wiedzieć, jakie informacje o pacjencie, takie jak rasa, zostały uwzględnione lub nie.
Obecnie, w przypadku narzędzi uczenia maszynowego, algorytm może być zastrzeżony, co oznacza, że dane są ukryte przed użytkownikiem i nie można ich zmienić. Jest to czarna skrzynka. Stanowi to problem, ponieważ użytkownik, czyli osoba świadcząca usługi medyczne, może nie wiedzieć, jakie informacje o pacjencie zostały uwzględnione i jak te informacje mogą wpłynąć na zalecenia SI.
Jeśli mamy wykorzystywać wyścigi w medycynie, musi to być całkowicie przejrzyste, abyśmy mogli zrozumieć i podjąć uzasadnioną decyzję, czy ich wykorzystanie jest właściwe" - mówi Jones. Pytania, na które należy odpowiedzieć, to: Jak i gdzie stosować oznaczenia rasowe, aby przynosiły korzyści, a jednocześnie nie szkodziły.
Czy należy obawiać się AI w opiece klinicznej?
Pomimo zalewu badań nad sztuczną inteligencją większość modeli klinicznych nie została jeszcze zaadaptowana do rzeczywistej opieki. Jeśli jednak masz obawy co do wykorzystania technologii lub wyścigów przez twojego świadczeniodawcę, Jones sugeruje, aby działać proaktywnie. Można zapytać świadczeniodawcę: Czy sposób, w jaki mnie traktuje, wynika z tego, jak rozumie moją rasę lub pochodzenie etniczne? Może to otworzyć dialog na temat decyzji podejmowanych przez świadczeniodawcę.
Tymczasem eksperci są zgodni co do tego, że problemy związane z uprzedzeniami statystycznymi i rasowymi w sztucznej inteligencji w medycynie istnieją i należy się nimi zająć, zanim narzędzia te zostaną wprowadzone do powszechnego użytku.
Prawdziwym zagrożeniem są tony pieniędzy przeznaczane na nowe firmy tworzące modele predykcyjne, które są pod presją uzyskania dobrego [zwrotu z inwestycji] - mówi Kent. Może to powodować konflikty związane z rozpowszechnianiem modeli, które mogą nie być gotowe lub wystarczająco przetestowane, co może pogorszyć jakość opieki zdrowotnej zamiast ją poprawić.