Dvidešimt penktasis antradienio eksperimentas: dirbtinis intelektas ir medicina

Šis Antradienio eksperimentas panašus į ėjimą grybauti: nežinojau, ko tikėtis, ir nelabai turėjau tvirtesnių spėjimų, koks rezultatas galėtų gautis.

Nutariau žvilgtelėti į temą, kuri ilgainiui susilauks vis daugiau dėmesio – dirbtinio intelekto naudojimą medicinoje, ir kaip tai galėtų veikti gydytojų atsakomybės klausimus. Galbūt atsisakiusių dirbtinio intelekto rekomendacijos gydytojų sprendimai bus vertinami daug griežčiau?

Tyrimo dalyviams pateikiau supaprastintą jau dabar naudojamos klinikinių sprendimų onkologijoje palaikymo sistemos IBM Watson for Oncology aprašymą:

Jau keletas metų kai kuriose pasaulio ligoninėse naudojama dirbtinio intelekto sistema „IBM Watson for Oncology“. Jos paskirtis – identifikuoti tinkamiausią gydymą, asmeniškai pritaikytą konkrečiam plaučių vėžiu sergančiam pacientui.

Sistema išanalizuoja paciento sveikatos duomenis ir ligos istoriją ir atsižvelgdama į turimus medicinos mokslo duomenis (jos duomenų bazėje yra medicininių žurnalų straipsniai, žinynai, vadovėliai, geros praktikos rekomendacijos) pateikia potencialių gydymo būdų sąrašą. Aukščiausiai sąraše atsiduria ta rekomendacija, kurią sistema laiko patikimiausiai ir geriausiai pagrįsta turimais duomenimis. Sistemos siūlymai yra vien rekomendacinio pobūdžio – tiek gydytojas, tiek pacientas gali jais nesivadovauti.

Įsivaizduokite situaciją, kurioje gydytojas turi parinkti gydymą pacientui. „IBM Watson for Oncology“ pasiūlo gydymo planą A. Pats gydytojas mano, kad gydymo planas B yra perspektyvesnis.

Tada viena grupė gavo istorijos pabaigą, kurioje gydytojas vadovaujasi sistemos rekomendacija:

Visgi gydytojas nutaria vadovautis sistemos pasiūlyta rekomendacija ir paskiria pacientui gydymo planą A. Deja, dėl gydymo plano A pacientui po kelių savaičių atsiranda sunkios komplikacijos ir jis yra išgabenamas į kitą ligoninę.

O kita grupė – kurioje gydytojas pasiūlyta rekomendacija nesivadovauja:

Visgi gydytojas nutaria nesivadovauti sistemos pasiūlyta rekomendacija ir paskiria pacientui gydymo planą B. Deja, dėl gydymo plano B pacientui po kelių savaičių atsiranda sunkios komplikacijos ir jis yra išgabenamas į kitą ligoninę.

Kaip matote, baigtis pacientui abiem atvejais yra tokia pati, tad vienintelis skirtumas tas, ar gydytojas nusprendė vadovautis sistemos rekomendacija, ar ne.

Tada tyrimo dalyviai buvo paprašyti skalėje nuo 1 (visiškai nesutinku) iki 7 (visiškai sutinku) įvertinti keturis atsitiktine tvarka pateiktus teiginius:

Gydytojas yra smerktinas dėl paciento komplikacijų

Gydytojo veiksmai yra paciento komplikacijų priežastis

Gydytojas dėl paciento komplikacijų nusipelno nuobaudos

Gydytojas paskirdamas komplikacijas sukėlusį gydymą pasielgė nemoraliai

Rezultatai paveikslėlyje:

Kaip matyti, dalyviai buvo linkę stipriai nesutikti, kad gydytojas yra smerktinas, baustinas ar pasielgęs nemoraliai (na ir kiek silpniau nusiteikę nesutikti – bet visgi nesutikti – kad gydytojo veiksmai buvo paciento komplikacijų priežastis). Čia veikiausiai nėra nieko keisto ar netikėto.

Kiek labiau netikėta tai, kad vertinimai nepriklausė nuo to, ar gydytojas vadovavosi, ar nesivadovavo dirbtinio intelekto pateikta rekomendacija. [Tik smerktinumo klausimu iš akies matosi šiokia tokia tendencija rekomendacija nesivadovavusį gydytoją smerkti labiau – galbūt su didesne imtimi kas nors ir išryškėtų.]

Apibendrinant, iš šito labai preliminaraus tyrimo nepasimatė, kad dirbtinio intelekto taikymas medicinoje ką nors iš esmės keistų vertinant gydytojų atsakomybę už savo sprendimus ir veiksmus.

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *