Nepakankamas algoritmų ugdymas yra labai svarbi problema; kai dirbtinis intelektas atspindi šiuos algoritmus sukūrusių žmonių nesąmoningas mintis, rasizmą ir šališkumą, tai gali sukelti didelę žalą. Pavyzdžiui, kompiuterinės programos neteisingai pažymėjo, kad juodaodžiai kaltinamieji turi dvigubai didesnę tikimybę pakartotinai nusikalsti nei baltaodžiai. Kai dirbtinis intelektas naudojo išlaidas kaip sveikatos poreikių rodiklį, jis klaidingai įvardijo juodaodžius pacientus kaip sveikesnius už tokius pat sergančius baltaodžius, nes jiems buvo išleista mažiau pinigų. Netgi pjesei rašyti naudotas dirbtinis intelektinis kompiuteris rėmėsi žalingais stereotipais atrankai.
Atrodo, kad jautrių požymių pašalinimas iš duomenų yra perspektyvus patobulinimas. Tačiau kas nutinka, kai to nepakanka?
Natūralios kalbos apdorojimo šališkumo pavyzdžių yra begalė – tačiau MIT mokslininkai ištyrė dar vieną svarbų, iš esmės netyrinėtą modalumą: medicininius vaizdus. Naudodama privačius ir viešus duomenų rinkinius, komanda nustatė, kad dirbtinis intelektas gali tiksliai nuspėti pacientų pačių nurodytą rasę vien iš medicininių vaizdų. Naudodama krūtinės ląstos rentgeno nuotraukų, galūnių rentgeno nuotraukų, krūtinės ląstos kompiuterinės tomografijos ir mamogramų vaizdų duomenis, komanda išmoko gilaus mokymosi modelį nustatyti rasę kaip baltąją, juodaodę arba azijietišką – net jei pačiuose vaizduose nebuvo aiškiai paminėta paciento rasė. To nesugeba padaryti net labiausiai patyrę gydytojai, todėl neaišku, kaip modeliui pavyko tai padaryti.
Siekdami išsiaiškinti ir suprasti mįslingą „kaip“, mokslininkai atliko daugybę eksperimentų. Siekdami ištirti galimus rasės nustatymo mechanizmus, jie nagrinėjo tokius kintamuosius kaip anatomijos skirtumai, kaulų tankis, vaizdų skiriamoji geba – ir daugelį kitų, ir modeliai vis tiek nugalėjo, pasižymėdami dideliu gebėjimu nustatyti rasę iš krūtinės ląstos rentgeno nuotraukų. „Iš pradžių šie rezultatai buvo klaidinantys, nes mūsų tyrėjų grupės nariai niekaip negalėjo priartėti prie gero šios užduoties atstovo nustatymo“, – sako straipsnio bendraautorė Marzyeh Ghassemi, MIT Elektros inžinerijos ir kompiuterių mokslo departamento bei Medicinos inžinerijos ir mokslo instituto (IMES) docentė, Kompiuterių mokslo ir dirbtinio intelekto laboratorijos (CSAIL) ir MIT Jameel klinikos asistentė. „Net ir filtruojant medicininius vaizdus praeityje, kai vaizdai apskritai atpažįstami kaip medicininiai vaizdai, gilieji modeliai išlaiko labai aukštą našumą. Tai kelia nerimą, nes antžmogiškus gebėjimus paprastai yra daug sunkiau kontroliuoti, reguliuoti ir neleisti pakenkti žmonėms.“
Klinikinėje aplinkoje algoritmai gali padėti pasakyti, ar pacientas tinka chemoterapijai, padiktuoti pacientų rūšiavimą arba nuspręsti, ar būtina perkelti į intensyviosios terapijos skyrių. „Manome, kad algoritmai žiūri tik į gyvybinius požymius ar laboratorinius tyrimus, tačiau gali būti, kad jie taip pat žiūri į jūsų rasę, etninę priklausomybę, lytį, ar esate įkalintas, ar ne – net jei visa ši informacija yra paslėpta“, – sako straipsnio bendraautorius Leo Anthony Celi, MIT IMES vyriausiasis mokslininkas ir Harvardo medicinos mokyklos medicinos docentas. „Tai, kad algoritmuose yra įvairių grupių atstovų, dar negarantuoja, kad tai nepadidins ar nepadidins esamų skirtumų ir nelygybės. Algoritmų maitinimas didesniu duomenų kiekiu su atstovavimu nėra panacėja. Šis dokumentas turėtų priversti mus stabtelėti ir iš tiesų persvarstyti, ar esame pasirengę perkelti dirbtinį intelektą prie lovos.“
Tyrimas „AI recognition of patient race in medical imaging: a modeling study“ (liet. „Pacientų rasės atpažinimas naudojant dirbtinį intelektą medicininiuose vaizduose: modeliavimo tyrimas“) buvo paskelbtas Lancet Digital Health gegužės 11. Celi ir Ghassemi straipsnį parašė kartu su 20 kitais autoriais iš keturių šalių.
Norėdami atlikti bandymus, mokslininkai pirmiausia parodė, kad modeliai geba nuspėti rasę įvairiuose vaizdavimo būduose, įvairiuose duomenų rinkiniuose ir įvairiose klinikinėse užduotyse, taip pat įvairiuose akademiniuose centruose ir pacientų grupėse Jungtinėse Amerikos Valstijose. Jie naudojo tris didelius krūtinės ląstos rentgeno nuotraukų duomenų rinkinius ir išbandė modelį su nematytu duomenų rinkinio, naudoto modeliui apmokyti, ir visiškai kitokio duomenų rinkinio poaibiu. Toliau jie mokė rasinio tapatumo nustatymo modelius ne krūtinės ląstos rentgeno nuotraukoms iš įvairių kūno vietų, įskaitant skaitmeninę rentgenografiją, mamografiją, šonines kaklinės stuburo dalies rentgenogramas ir krūtinės ląstos kompiuterinę tomografiją, kad išsiaiškintų, ar modelio veikimas apsiriboja tik krūtinės ląstos rentgeno nuotraukomis.
Bandydama paaiškinti modelio elgseną, komanda aprėpė daugybę aspektų: skirtingų rasinių grupių fizinių savybių skirtumus (kūno habitus, krūtų tankis), ligų pasiskirstymą (ankstesni tyrimai parodė, kad juodaodžiai pacientai dažniau serga tokiomis sveikatos problemomis kaip širdies ligos), vietai ar audiniams būdingus skirtumus, visuomenės šališkumo ir aplinkos streso poveikį, gilaus mokymosi sistemų gebėjimą nustatyti rasę, kai derinami keli demografiniai ir pacientų veiksniai, ir tai, ar konkretūs vaizdo regionai prisideda prie rasės atpažinimo.
Tai, kas paaiškėjo, buvo išties stulbinama: Modelių gebėjimas nuspėti rasę vien iš diagnostinių etikečių buvo daug mažesnis nei krūtinės ląstos rentgeno nuotraukomis pagrįstų modelių.
Pavyzdžiui, atliekant kaulų tankio tyrimą buvo naudojami vaizdai, kuriuose storesnė kaulo dalis atrodė balta, o plonesnė – pilkesnė arba permatoma. Mokslininkai darė prielaidą, kad, kadangi juodaodžių žmonių kaulų mineralinis tankis paprastai būna didesnis, spalvų skirtumai padėjo dirbtinio intelekto modeliams nustatyti rasę. Norėdami tai nutraukti, jie vaizdus apkarpė filtru, kad modelis negalėtų nustatyti spalvinių skirtumų. Paaiškėjo, kad spalvų tiekimo nukirpimas modelio nesužlugdė – jis vis tiek galėjo tiksliai nuspėti rases. (Plotas po kreive, t. y. kiekybinio diagnostinio testo tikslumo matas, buvo 0.94-0.96). Taigi paaiškėjo, kad išmoktos modelio savybės rėmėsi visais vaizdo regionais, o tai reiškia, kad tokio pobūdžio algoritminio elgesio kontrolė yra netvarkinga ir sudėtinga problema.
Mokslininkai pripažįsta, kad rasinės tapatybės etikečių prieinamumas buvo ribotas, todėl jie daugiausia dėmesio skyrė azijiečių, juodaodžių ir baltaodžių populiacijoms, ir kad jų pagrindinė tiesa buvo pačių pateikta detalė. Kitame būsimame darbe galbūt bus ieškoma galimybių izoliuoti skirtingus signalus prieš atkuriant vaizdus, nes, kaip ir atliekant kaulų tankio eksperimentus, jie negalėjo atsižvelgti į likutinį kaulinį audinį, kuris buvo vaizduose.
Pažymėtina, kad kitas Ghassemi ir Celi darbas, kuriam vadovavo MIT studentas Hammaadas Adamas, parodė, kad modeliai taip pat gali identifikuoti paciento savarankiškai nurodytą rasę iš klinikinių užrašų, net jei šiuose užrašuose nėra aiškių rasės rodiklių. Kaip ir šiame darbe, žmonių ekspertai negali tiksliai nuspėti paciento rasės iš tų pačių redaguotų klinikinių užrašų.
„Turime įtraukti socialinius mokslininkus. Domeno ekspertų, kuriais paprastai būna gydytojai, visuomenės sveikatos specialistai, kompiuterių mokslininkai ir inžinieriai, nepakanka. Sveikatos priežiūra yra socialinė-kultūrinė problema lygiai taip pat, kaip ir medicininė. Mums reikia dar vienos ekspertų grupės, kuri įvertintų ir pateiktų savo nuomonę bei atsiliepimus apie tai, kaip projektuojame, kuriame, diegiame ir vertiname šiuos algoritmus“, – sako Celi. „Prieš pradėdami tyrinėti duomenis, duomenų mokslininkų taip pat turime paklausti: ar yra skirtumų? Kurios pacientų grupės yra marginalizuotos? Kokie yra tų skirtumų veiksniai? Ar tai yra galimybė gauti sveikatos priežiūros paslaugas? Ar tai lemia priežiūros paslaugų teikėjų subjektyvumas? Jei to nesuprasime, neturėsime galimybių nustatyti nenumatytų algoritmų pasekmių ir niekaip negalėsime apsaugoti algoritmų nuo šališkumo įtvirtinimo.“
„Tai, kad algoritmai „mato“ rasę, kaip įtikinamai dokumentuoja autoriai, gali būti pavojinga. Tačiau svarbus ir su tuo susijęs faktas yra tai, kad, kai algoritmai naudojami atsargiai, jie taip pat gali veikti prieš šališkumą“, – sako Kalifornijos universiteto Berklyje docentas Ziadas Obermejeris (Ziad Obermeyer), kurio moksliniai tyrimai skirti dirbtinio intelekto taikymui sveikatos srityje. „Savo darbe, kuriam vadovauja Kornelio universiteto kompiuterių mokslininkė Emma Pierson, parodėme, kad algoritmai, kurie mokosi iš pacientų skausmo patirties, gali rasti naujus kelio skausmo šaltinius rentgeno nuotraukose, kurie neproporcingai dažnai pasireiškia juodaodžiams pacientams – ir kuriuos radiologai neproporcingai dažnai praleidžia. Taigi, kaip ir bet kuris kitas įrankis, algoritmai gali būti blogio arba gėrio jėga – tai, kuris iš jų bus, priklauso nuo mūsų ir nuo pasirinkimų, kuriuos darome kurdami algoritmus.“
Darbą iš dalies remia Nacionalinis sveikatos institutas