Ne paslaptis, kad žmonės turi šališkumą – kai kurie galbūt nesąmoningi, o kiti skausmingai atviri. Paprastas žmogus gali manyti, kad kompiuteriai – mašinos, paprastai pagamintos iš plastiko, plieno, stiklo, silicio ir įvairių metalų – yra be išankstinių nusistatymų. Nors ši prielaida gali būti taikoma ir kompiuterių aparatinei įrangai, tai ne visada galioja kompiuterių programinei įrangai, kurią programuoja klaidingi žmonės ir kuri gali būti tiekiama duomenimis, kurie tam tikrais atžvilgiais yra pažeisti.
Dirbtinio intelekto (AI) sistemos, visų pirma pagrįstos mašininiu mokymusi, medicinoje vis dažniau naudojamos diagnozuojant konkrečias ligas, pavyzdžiui, ar vertinant rentgeno spindulius. Šiomis sistemomis taip pat remiamasi priimant sprendimus kitose sveikatos priežiūros srityse. Tačiau naujausi tyrimai parodė, kad mašininio mokymosi modeliai gali užkoduoti šališkumą mažumų pogrupių atžvilgiu, todėl jų pateikiamos rekomendacijos gali atspindėti tuos pačius paklaidas.
Naujas MIT kompiuterių mokslo ir dirbtinio intelekto laboratorijos (CSAIL) ir MIT Jameel klinikos mokslininkų tyrimas, kuris buvo paskelbtas praėjusį mėnesį Ryšių medicina, įvertina diskriminacinių AI modelių poveikį, ypač sistemoms, kurios skirtos patarimams skubiais atvejais. „Mes nustatėme, kad patarimo formulavimo būdas gali turėti reikšmingų pasekmių“, – aiškina pagrindinis šio straipsnio autorius Hammaad Adam, MIT Duomenų sistemų ir visuomenės instituto doktorantas. „Laimei, šališkų modelių daroma žala gali būti apribota (nors nebūtinai pašalinta), kai patarimai pateikiami kitaip. Kiti šio straipsnio bendraautoriai yra Aparna Balagopalan ir Emily Alsentzer, abu doktorantai, ir profesoriai Fotini Christia ir Marzyeh Ghassemi.
Medicinoje naudojami dirbtinio intelekto modeliai gali nukentėti dėl netikslumų ir neatitikimų, iš dalies dėl to, kad modeliams parengti naudojami duomenys dažnai neatspindi tikrojo pasaulio nustatymų. Pavyzdžiui, įvairių tipų rentgeno aparatai gali įrašyti dalykus skirtingai ir todėl duoti skirtingus rezultatus. Be to, modeliai, treniruojami daugiausia baltiesiems žmonėms, gali būti ne tokie tikslūs, kai jie taikomi kitoms grupėms. The Ryšių medicina Straipsnyje daugiausia dėmesio neskiriama tokio pobūdžio problemoms, o sprendžiamos problemos, kylančios dėl šališkumo, ir būdai, kaip sušvelninti neigiamas pasekmes.
954 žmonių grupė (438 gydytojai ir 516 neekspertų) dalyvavo eksperimente, kurio tikslas buvo išsiaiškinti, kaip dirbtinio intelekto šališkumas gali paveikti sprendimų priėmimą. Dalyviams buvo pateiktos skambučių iš fiktyvios krizių linijos santraukos, kurių kiekvienoje dalyvavo vyras, patyręs psichikos sveikatos krizę. Santraukose buvo pateikta informacija apie tai, ar asmuo yra baltaodžių, ar afroamerikietis, taip pat buvo paminėta jo religija, jei jis būtų musulmonas. Tipiška skambučio santrauka gali apibūdinti aplinkybę, kai afroamerikietis buvo rastas namuose slogios būsenos, o tai rodo, kad „jis nevartojo jokių narkotikų ar alkoholio, nes yra praktikuojantis musulmonas“. Tyrimo dalyviams buvo nurodyta iškviesti policiją, jei mano, kad pacientas gali pradėti smurtauti; kitu atveju jie buvo skatinami kreiptis medicininės pagalbos.
Dalyviai buvo atsitiktinai suskirstyti į kontrolinę arba „bazinę“ grupę ir keturias kitas grupes, skirtas atsakymams išbandyti šiek tiek skirtingomis sąlygomis. „Norime suprasti, kaip šališki modeliai gali turėti įtakos sprendimams, bet pirmiausia turime suprasti, kaip žmogaus šališkumas gali paveikti sprendimų priėmimo procesą“, – pažymi Adomas. Tai, ką jie rado atlikdami pradinės grupės analizę, buvo gana stebina: „Toje aplinkoje, kurią svarstėme, žmonės neparodė jokių šališkumo. Tai nereiškia, kad žmonės nėra šališki, bet tai, kaip mes perdavėme informaciją apie asmens rasę ir religiją, akivaizdžiai nebuvo pakankamai stiprūs, kad išryškintų jų šališkumą.
Kitoms keturioms eksperimento grupėms buvo duoti patarimai, kurie buvo gauti iš šališko arba nešališko modelio, ir tie patarimai buvo pateikti „rekomenduojamąja“ arba „aprašomąja“ forma. Šališkas modelis labiau rekomenduotų policijos pagalbą situacijose, kuriose dalyvauja afroamerikietis ar musulmonas, nei nešališkas modelis. Tačiau tyrimo dalyviai nežinojo, iš kokio modelio buvo gautas jų patarimas, ar net, kad patarimus teikiantys modeliai apskritai gali būti šališki. Rekomenduojamuose patarimuose nedviprasmiškai nurodoma, ką dalyvis turėtų daryti, vienu atveju jis turėtų kviesti policiją arba kitu atveju kreiptis medicininės pagalbos. Aprašomasis patarimas yra ne toks tiesioginis: rodoma vėliavėlė, rodanti, kad AI sistema suvokia smurto riziką, susijusią su konkrečiu skambučiu; vėliava nerodoma, jei smurto grėsmė yra nedidelė.
Pagrindinis eksperimento bruožas yra tai, kad dalyviams „didelę įtaką padarė šališkos AI sistemos rekomendacijos“, rašė autoriai. Tačiau jie taip pat nustatė, kad „naudojant aprašomąsias, o ne įsakmias rekomendacijas dalyviai galėjo išlaikyti savo pirminį, nešališką sprendimų priėmimą“. Kitaip tariant, į AI modelį įtrauktą šališkumą galima sumažinti tinkamai suformulavus pateiktą patarimą. Kodėl skirtingi rezultatai, atsižvelgiant į tai, kaip pateikiami patarimai? Kai kam nors liepiama ką nors padaryti, pavyzdžiui, iškviesti policiją, abejonėms lieka mažai vietos, aiškina Adomas. Tačiau, kai situacija tik aprašoma – klasifikuojama su vėliava ar be jos – „tai palieka vietos pačiam dalyviui interpretuoti; tai leidžia jiems būti lankstesniems ir patiems apsvarstyti situaciją“.
Antra, mokslininkai nustatė, kad kalbos modeliai, kurie paprastai naudojami patarimams teikti, yra lengvai pakreipti. Kalbos modeliai yra mašininio mokymosi sistemų klasė, kuri yra apmokyta naudoti tekstą, pvz., visą Vikipedijos turinį ir kitą žiniatinklio medžiagą. Kai šie modeliai yra „tiksliai suderinami“, mokymo tikslais pasikliaujant daug mažesniu duomenų poaibiu – vos 2000 sakinių, o ne 8 milijonai tinklalapių – gaunami modeliai gali būti lengvai šališki.
Trečia, MIT komanda išsiaiškino, kad sprendimų priėmėjus, kurie patys yra nešališki, vis tiek gali būti suklaidinti šališkų modelių pateiktų rekomendacijų. Medicininis mokymas (arba jo nebuvimas) nepakeitė atsakymų pastebimai. „Klinicistai buvo paveikti šališkų modelių, kaip ir neekspertų“, – teigė autoriai.
„Šios išvados gali būti taikomos kitoms aplinkybėms“, – sako Adamas ir nebūtinai apsiriboja sveikatos priežiūros situacijomis. Kai reikia nuspręsti, kurie žmonės turėtų dalyvauti darbo pokalbyje, šališkas modelis gali labiau atmesti juodaodžius kandidatus. Tačiau rezultatai gali būti kitokie, jei vietoj to, kad darbdaviui būtų aiškiai (ir įsakmiai) liepta „atmesti šį kandidatą“, prie bylos pridedama aprašomoji vėliavėlė, nurodanti „galimą pareiškėjo patirties trūkumą“.
Šio darbo pasekmės yra platesnės nei tik supratimas, kaip elgtis su asmenimis psichikos sveikatos krizių įkarštyje, teigia Adam. „Mūsų pagrindinis tikslas yra užtikrinti, kad mašininio mokymosi modeliai būtų naudojami sąžiningai, saugiai ir patikimai.

