Maždaug prieš dešimtmetį giliai besimokantys modeliai pradėjo pasiekti antžmogiškų rezultatų atliekant įvairias užduotis – nuo pasaulio čempionų stalo žaidimų žaidėjų įveikimo iki krūties vėžio diagnozavimo gydytojų pranašumų.
Šie galingi gilaus mokymosi modeliai paprastai yra pagrįsti dirbtiniais neuroniniais tinklais, kurie pirmą kartą buvo pasiūlyti 1940 ir tapo populiariu tipu. mašininio mokymosi. Kompiuteris išmoksta apdoroti duomenis naudodamas tarpusavyje sujungtų mazgų arba neuronų sluoksnius, kurie imituoja žmogaus smegenis.
Plečiantis mašininio mokymosi sričiai, kartu augo ir dirbtiniai neuroniniai tinklai.
Gilaus mokymosi modelius dabar dažnai sudaro milijonai arba milijardai tarpusavyje sujungtų mazgų daugelyje sluoksnių, kurie yra išmokyti atlikti aptikimo ar klasifikavimo užduotis naudojant didžiulius duomenų kiekius. Tačiau kadangi modeliai yra tokie nepaprastai sudėtingi, net juos kuriantys mokslininkai visiškai nesupranta, kaip jie veikia. Dėl to sunku žinoti, ar jie veikia tinkamai.
Pavyzdžiui, modelis, sukurtas padėti gydytojams teisingai diagnozuoti pacientus, numatė, kad odos pažeidimas yra vėžinis, bet tai padarė sutelkiant dėmesį. ant nesusijusio ženklo, kuris dažnai atsiranda, kai nuotraukoje yra vėžinio audinio, o ne ant paties vėžinio audinio. Tai žinoma kaip netikra koreliacija. Modelis teisingai prognozuoja, bet tai daro dėl netinkamos priežasties. Tikroje klinikinėje aplinkoje, kai žymė neatsiranda ant vaizdų, kuriuose teigiamas vėžys, gali būti nenustatytos diagnozės.
Aplink šias vadinamąsias „juodąsias dėžes“ sukasi tiek daug netikrumo. modelių, kaip galima išnarplioti, kas vyksta dėžutės viduje?
Šis galvosūkis atvedė prie naujos ir sparčiai augančios studijų srities, kurioje mokslininkai kuria ir išbando paaiškinimo metodus (dar vadinamus interpretavimo metodais). ), kuriais siekiama paaiškinti, kaip juodosios dėžės mašininio mokymosi modeliai daro prognozes.
Kokie yra paaiškinimo metodai?
Paprasčiausiu lygiu paaiškinimo metodai yra globalūs arba vietiniai. Vietinis paaiškinimo metodas yra skirtas paaiškinti, kaip modelis padarė vieną konkrečią prognozę, o visuotiniais paaiškinimais siekiama apibūdinti bendrą viso modelio elgesį. Tai dažnai daroma kuriant atskirą, paprastesnį (ir, tikiuosi, suprantamą) modelį, kuris imituoja didesnį juodosios dėžės modelį.
Tačiau kadangi gilaus mokymosi modeliai veikia iš esmės sudėtingais ir netiesiniais būdais, sukurti veiksmingą visuotinio paaiškinimo modelį yra ypač sudėtinga. Dėl to mokslininkai pastaruoju metu daug dėmesio skyrė vietiniams paaiškinimo metodams, aiškina Yilun Zhou, Kompiuterių mokslo ir dirbtinio intelekto laboratorijos (CSAIL) Interaktyviosios robotikos grupės absolventas, tyrinėjantis modelius, algoritmus ir interpretuojamus vertinimus. mašininis mokymasis.
Populiariausi vietinio paaiškinimo metodai skirstomi į tris plačias kategorijas.
Pirmasis ir plačiausiai naudojamas paaiškinimo metodas yra žinomas kaip funkcijų priskyrimas. Funkcijų priskyrimo metodai parodo, kurios savybės buvo svarbiausios modeliui priėmus konkretų sprendimą.
Funkcijos yra įvesties kintamieji, kurie pateikiami mašininio mokymosi modeliui ir naudojami jo numatymui. Kai duomenys pateikiami lentelėse, iš duomenų rinkinio stulpelių nubrėžiamos funkcijos (jie transformuojami naudojant įvairius metodus, kad modelis galėtų apdoroti neapdorotus duomenis). Kita vertus, atliekant vaizdo apdorojimo užduotis, kiekvienas vaizdo pikselis yra funkcija. Jei modelis numato, kad, pavyzdžiui, rentgeno vaizdas rodo vėžį, funkcijų priskyrimo metodas išryškintų tos konkrečios rentgeno nuotraukos pikselius, kurie buvo svarbiausi modelio prognozei.
Iš esmės funkcijų priskyrimo metodai parodo, į ką modelis atkreipia daugiausiai dėmesio, kai prognozuoja.
„Naudodami šį funkcijų priskyrimo paaiškinimą galite patikrinti, ar klaidinga koreliacija nekelia susirūpinimo. . Pavyzdžiui, jis parodys, ar vandens ženklo pikseliai yra paryškinti, ar paryškinti tikrojo naviko pikseliai“, – sako Zhou.
Antrojo tipo paaiškinimo metodas yra žinomas kaip prieštaringas paaiškinimas. Atsižvelgiant į įvestį ir modelio prognozę, šie metodai parodo, kaip pakeisti tą įvestį, kad ji patektų į kitą klasę. Pavyzdžiui, jei mašininio mokymosi modelis numato, kad skolininkui bus atsisakyta suteikti paskolą, priešingos padėties paaiškinimas parodo, kokius veiksnius reikia pakeisti, kad jos paraiška paskolai būtų priimta. Galbūt jos kredito balas arba pajamos, abi modelio prognozėje naudojamos savybės, turi būti didesnės, kad ji būtų patvirtinta.
„Geras šio paaiškinimo metodo dalykas yra tai, kad jis tiksliai nurodo, kaip turite pakeisti įvestį, kad pakeistumėte sprendimą, o tai gali būti naudinga. Žmogui, kuris kreipiasi dėl būsto paskolos ir jos negavo, šis paaiškinimas pasakytų, ką reikia daryti, kad pasiektų norimą rezultatą“, – sako jis.
Trečioji paskolos kategorija. paaiškinimo metodai yra žinomi kaip pavyzdiniai svarbos paaiškinimai. Skirtingai nuo kitų, šiam metodui reikalinga prieiga prie duomenų, kurie buvo naudojami modeliui mokyti.
Pavyzdinis svarbos paaiškinimas parodys, kuriuo mokymo pavyzdžiu modelis rėmėsi labiausiai, kai padarė konkrečią prognozę. ; idealiu atveju tai yra labiausiai panašus į įvesties duomenis pavyzdys. Toks paaiškinimas yra ypač naudingas, jei stebimas iš pažiūros neracionalus numatymas. Gali būti, kad įvyko duomenų įvedimo klaida, kuri paveikė tam tikrą pavyzdį, kuris buvo naudojamas modeliui mokyti. Turint šias žinias, būtų galima pataisyti tą pavyzdį ir perkvalifikuoti modelį, kad būtų pagerintas jo tikslumas.
Kaip naudojami paaiškinimo metodai?
Viena iš motyvų rengti šiuos paaiškinimus yra kokybės užtikrinimas ir modelio derinimas. Pavyzdžiui, geriau suprasdami, kaip funkcijos turi įtakos modelio sprendimui, galima nustatyti, kad modelis veikia netinkamai, ir įsikišti, kad išspręstų problemą, arba išmesti modelį ir pradėti iš naujo.
Kita, naujesnė, tyrimų sritis tiria mašininio mokymosi modelių naudojimą, siekiant atrasti mokslinius modelius, kurių žmonės anksčiau neatskleidė. Pavyzdžiui, vėžio diagnozavimo modelis, kuris pranoksta gydytojus, gali būti klaidingas arba iš tikrųjų gali užfiksuoti kai kuriuos paslėptus rentgeno vaizdų modelius, vaizduojančius ankstyvą patologinį vėžio kelią, kuris buvo arba nežinomas žmonių gydytojams. Nesvarbu, sako Zhou.
Vis dėlto dar labai ankstyvos šios srities tyrimų dienos.
Įspėjamieji žodžiai
Nors paaiškinimo metodai kartais gali būti naudingi mašininio mokymosi praktikams, kai jie bando sugauti savo modelių klaidas arba suprasti vidinį sistemos veikimą. , galutiniai naudotojai turėtų elgtis atsargiai, bandydami jas naudoti praktiškai, sako Marzyehas Ghassemi, docentas ir Sveikos ML grupės vadovas CSAIL.
Kadangi buvo priimtas mašininis mokymasis daugiau disciplinų, nuo sveikatos priežiūros iki švietimo, naudojami paaiškinimo metodai, padedantys sprendimus priimantiems asmenims geriau suprasti modelio prognozes, kad jie žinotų, kada pasitikėti. modelį ir panaudoti jo nurodymus praktikoje. Tačiau Ghassemi įspėja nenaudoti šių metodų tokiu būdu.
„Mes nustatėme, kad paaiškinimai priverčia žmones, tiek ekspertus, tiek neekspertus, pernelyg pasitikėti konkrečios rekomendacijų sistemos gebėjimais ar patarimais. Manau, kad žmonėms labai svarbu neišjungti tos vidinės grandinės, kuri klausia: „Leiskite man suabejoti man duotais patarimais“ . sako.
Mokslininkai žino paaiškinimai verčia žmones pernelyg pasitikėti savimi, remiantis kitais naujausiais darbais, Ji priduria, remdamasi kai kuriais naujausiais „Microsoft“ tyrėjų tyrimais.
Toli gražu ne sidabrinė kulka, paaiškinimo metodai turi tam tikrų problemų. Pirma, naujausias Ghassemi tyrimas parodė, kad paaiškinimo metodai gali išlaikyti šališkumą ir sukelti blogesnių rezultatų žmonėms iš nepalankioje padėtyje esančių grupių.
Kita aiškinimo metodų spąsta yra ta, kad dažnai neįmanoma pasakyti, ar paaiškinimo metodas visų pirma yra teisingas. Reikėtų palyginti paaiškinimus su tikruoju modeliu, bet kadangi vartotojas nežino, kaip modelis veikia, tai yra apskrita logika, sako Zhou.
Jis ir kiti tyrinėtojai dirba. dėl paaiškinimo metodų tobulinimo, kad jie labiau atitiktų tikrojo modelio prognozes, tačiau Zhou perspėja, kad net ir geriausią paaiškinimą reikėtų vertinti su druska.
„Be to, žmonės paprastai suvokiame, kad šie modeliai yra į žmones panašūs sprendimų priėmėjai, ir mes esame linkę per daug apibendrinti. Turime nuraminti žmones ir juos sulaikyti, kad iš tikrųjų įsitikintume, jog bendras modelio supratimas, kurį jie kuria remiantis šiais vietiniais paaiškinimais, yra subalansuotas“, – priduria jis.
Naujausias Zhou tyrimas siekia padaryti. tik tai.
Kas bus toliau naudojant mašininio mokymosi paaiškinimo metodus?
Greičiau Ghassemi teigia, kad mokslinių tyrimų bendruomenė turi dėti daugiau pastangų, kad ištirtų, kaip informacija pateikiama sprendimus priimantiems asmenims, kad jie ją suprastų, ir reikia priimti daugiau reguliavimo, kad būtų užtikrintas mašininio mokymosi modelių naudojimas. atsakingai praktikoje. Vien tik geresni paaiškinimo metodai nėra atsakymas.
„Džiaugiuosi matydamas, kad net pramonėje daug daugiau pripažįstama, kad negalime tiesiog priimti šios informacijos ir sukurti gražų prietaisų skydelį ir manyti, kad žmonės su tuo geriau veiks. Turite atlikti išmatuojamus patobulinimus, ir tikiuosi, kad tai padės sukurti realias gaires, kaip pagerinti informacijos pateikimą šiose labai techninėse srityse, pavyzdžiui, medicinoje“, – sako ji.
Be naujo darbo, skirto paaiškinimų gerinimui, Zhou tikisi pamatyti daugiau tyrimų, susijusių su paaiškinimo metodais konkrečiais naudojimo atvejais, pvz., modelio derinimas, moksliniai atradimai, sąžiningumo auditas ir saugos užtikrinimas. Nustatydami smulkias paaiškinimo metodų ypatybes ir skirtingų naudojimo atvejų reikalavimus, mokslininkai galėtų sukurti teoriją, kuri paaiškinimus atitiktų konkrečiais scenarijais, o tai padėtų įveikti kai kuriuos spąstus, kylančius naudojant juos realaus pasaulio scenarijuose.

