Kreditas: Unsplash/CC0 viešasis domenas Dirbtinis intelektas (AI) sparčiai vystosi ir taps svarbia klinikinės priežiūros priemone. Tyrimai rodo, kad AI algoritmai gali tiksliai aptikti melanomą ir numatyti būsimą krūties vėžį.
Tačiau prieš pradedant dirbtinį intelektą integruoti į įprastinį klinikinį naudojimą, turime išspręsti algoritminio šališkumo iššūkį. AI algoritmai gali turėti būdingų šališkumo, dėl kurių gali kilti diskriminacijos ir privatumo problemų. AI sistemos taip pat gali priimti sprendimus be reikiamos priežiūros ar žmogaus indėlio.
Galimai žalingo dirbtinio intelekto poveikio pavyzdys yra tarptautinis projektas, kurio tikslas – panaudoti dirbtinį intelektą gyvybėms išgelbėti kuriant pažangius medicininius gydymo būdus. Eksperimento metu komanda pakeitė savo „gerą“ AI modelį, kad sukurtų galimybes naujam AI modeliui padaryti „žalos“.
Per mažiau nei šešias treniruočių valandas atvirkštinis AI algoritmas sukūrė dešimtis tūkstančių potencialių cheminių medžiagų, kurios buvo daug pavojingesnės nei dabartinės. Tai kraštutinis pavyzdys, susijęs su cheminiais junginiais, tačiau jis yra pažadinimo skambutis, norint įvertinti žinomas ir neįsivaizduojamas etines AI pasekmes.
AI klinikinėje priežiūroje
Medicinoje mes susiduriame su privačiais žmonių duomenimis ir dažnai gyvenimą keičiančiais sprendimais. Tvirtos AI etikos sistemos yra būtinos.
Australijos epilepsijos projektu siekiama pagerinti žmonių gyvenimą ir padaryti klinikinę priežiūrą plačiau prieinamą. Remdamiesi pažangiu smegenų vaizdavimu, genetine ir pažinimo informacija, gauta iš tūkstančių epilepsija sergančių žmonių, planuojame naudoti dirbtinį intelektą, kad atsakytume į šiuo metu neatsakomus klausimus.
Ar šio žmogaus priepuoliai tęsis? Kuris vaistas yra efektyviausias? Ar smegenų chirurgija yra perspektyvus gydymo būdas? Tai yra pagrindiniai klausimai, kuriuos šiuolaikinė medicina stengiasi išspręsti.
Man, kaip šio projekto vadovui, dirbtinis intelektas, rūpi tai, kad dirbtinis intelektas sparčiai juda, o reguliavimo priežiūra yra minimali. Dėl šių problemų neseniai sukūrėme etinę AI kaip klinikinės pagalbos priemonės naudojimo sistemą. Šia sistema siekiama užtikrinti, kad mūsų dirbtinio intelekto technologijos būtų atviros, saugios ir patikimos, kartu skatinant klinikinės priežiūros įtrauktį ir teisingumą.
Taigi, kaip įgyvendinti dirbtinio intelekto etiką medicinoje, kad sumažintume šališkumą ir išlaikytume algoritmų kontrolę? Kompiuterių mokslo principas „šiukšles įnešti, šiukšlės išvežti“ galioja dirbtiniam intelektui. Tarkime, kad renkame šališkus duomenis iš mažų imčių. Tikėtina, kad mūsų AI algoritmai bus šališki ir nebus atkartojami kitoje klinikinėje aplinkoje.
Šiuolaikiniuose AI modeliuose nėra sunku rasti šališkumo pavyzdžių. Populiarūs didelių kalbų modeliai (pavyzdžiui, „ChatGPT“) ir latentinės sklaidos modeliai (DALL-E ir „Stable Diffusion“) rodo, kaip gali atsirasti aiškus šališkumas dėl lyties, etninės priklausomybės ir socialinio ir ekonominio statuso.
Tyrėjai išsiaiškino, kad paprasti vartotojo raginimai sukuria vaizdus, įamžinančius etninius, lyties ir klasių stereotipus. Pavyzdžiui, raginimas kreiptis į gydytoją dažniausiai sukuria vyrų gydytojų įvaizdžius, o tai neatitinka tikrovės, nes maždaug pusė visų gydytojų EBPO šalyse yra moterys.
Saugus medicininio AI įgyvendinimas
Šališkumo ir diskriminacijos prevencijos sprendimas nėra trivialus. Sveikatos lygybės suteikimas ir įtraukimo į klinikinius tyrimus skatinimas greičiausiai yra vienas iš pagrindinių sprendimų kovojant su šališkumu medicinos AI srityje.
Džiugina tai, kad JAV maisto ir vaistų administracija neseniai pasiūlė klinikinių tyrimų įvairovę padaryti privalomą. Šis pasiūlymas reiškia žingsnį link mažiau šališkų ir bendruomenės pagrindu atliekamų klinikinių tyrimų.
Kita pažangos kliūtis yra ribotas mokslinių tyrimų finansavimas. AI algoritmams paprastai reikia daug duomenų, o tai gali būti brangu. Labai svarbu sukurti patobulintus finansavimo mechanizmus, kurie suteiktų tyrėjams reikiamų išteklių kliniškai svarbiems DI taikomiems duomenims rinkti.
Taip pat teigiame, kad visada turėtume žinoti vidinį AI algoritmų veikimą ir suprasti, kaip jie daro išvadas ir rekomendacijas. Ši sąvoka AI dažnai vadinama „paaiškinamumu“. Tai susiję su idėja, kad žmonės ir mašinos turi dirbti kartu, kad pasiektų optimalius rezultatus.
Mes labiau vertiname prognozių įgyvendinimą modeliuose kaip „papildytą“, o ne „dirbtinį“ intelektą – algoritmai turėtų būti proceso dalis, o medikų profesijos turi ir toliau kontroliuoti sprendimų priėmimą.
Mes ne tik skatiname naudoti paaiškinamus algoritmus, bet ir palaikome skaidrų ir atvirą mokslą. Mokslininkai turėtų paskelbti išsamią informaciją apie AI modelius ir jų metodiką, kad padidintų skaidrumą ir atkuriamumą.
Ko mums reikia Aotearoa Naujojoje Zelandijoje, kad būtų užtikrintas saugus AI įgyvendinimas medicinos priežiūroje? Dirbtinio intelekto etikos problemoms pirmiausia vadovauja šios srities ekspertai. Tačiau buvo pasiūlytos tikslinės dirbtinio intelekto taisyklės, pvz., ES pagrįstas Dirbtinio intelekto įstatymas, siekiant atsižvelgti į šiuos etinius sumetimus.
Europos dirbtinio intelekto įstatymas yra sveikintinas ir apsaugo žmones, dirbančius „saugiame AI“. JK vyriausybė neseniai paskelbė savo iniciatyvų požiūrį į DI reguliavimą, kuris yra kitų vyriausybės atsakymų į DI saugą planas.
Aotearoa mes pasisakome už aktyvų, o ne reaguojantį požiūrį į AI saugą. Juo bus sukurta etinė AI naudojimo klinikinėje slaugoje ir kitose srityse sistema, užtikrinanti aiškinamąjį, saugų ir nešališką DI. Todėl mūsų pasitikėjimas augs, kad ši galinga technologija naudinga visuomenei, kartu apsaugodama ją nuo žalos.
Šis straipsnis iš naujo paskelbtas iš The Conversation pagal Creative Commons licenciją. Skaitykite originalų straipsnį.
Citata: AI gali pakeisti sveikatos priežiūrą, bet pirmiausia turime susidoroti su algoritminio šališkumo rizika (2023 m. gegužės 4 d.), gauta 2023 m. gegužės 4 d. iš https://techxplore.com/news/2023-05-ai-potential-revolutionise- Health-carebut.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

