Siekiant pagerinti sąžiningumą arba sumažinti atsilikimų skaičių, mašininio mokymosi modeliai kartais kuriami taip, kad imituotų žmogaus sprendimų priėmimą, pvz., nuspręstų, ar socialinės žiniasklaidos įrašai pažeidžia toksiško turinio politiką.
Tačiau MIT ir kitų šalių mokslininkai nustatė, kad šie modeliai dažnai neatkartoja žmogaus sprendimų dėl taisyklių pažeidimų. Jei modeliai nėra mokomi naudojant reikiamus duomenis, jie greičiausiai priims kitokius, dažnai griežtesnius sprendimus nei žmonės.
Šiuo atveju „teisingi“ duomenys yra tie, kuriuos pažymėjo žmonės, kurių buvo aiškiai paklausta, ar daiktai nepaiso tam tikros taisyklės. Mokymas apima milijonų šių „norminių duomenų“ pavyzdžių demonstravimą mašininio mokymosi modeliui, kad jis galėtų išmokti užduotį.
Tačiau duomenys, naudojami mašininio mokymosi modeliams mokyti, paprastai žymimi aprašomuoju būdu – tai reiškia, kad žmonių prašoma nustatyti faktines ypatybes, pvz., kepto maisto buvimą nuotraukoje. Jei „aprašomieji duomenys“ naudojami modeliams, kurie vertina taisyklių pažeidimus, pvz., ar maistas pažeidžia mokyklos politiką, draudžiančią keptą maistą, mokyti, modeliai linkę per daug nuspėti taisyklių pažeidimus.
Šis tikslumo sumažėjimas gali turėti rimtų pasekmių realiame pasaulyje. Pavyzdžiui, jei aprašomasis modelis naudojamas priimant sprendimus dėl to, ar asmuo gali pakartotinai nusikalsti, tyrėjų išvados rodo, kad jis gali priimti griežtesnius sprendimus nei žmogus, o tai gali lemti didesnes užstato sumas arba ilgesnes baudžiamąsias bausmes.
„Manau, kad dauguma dirbtinio intelekto / mašininio mokymosi tyrėjų daro prielaidą, kad žmonių sprendimai dėl duomenų ir etikečių yra šališki, tačiau šis rezultatas sako ką nors blogiau. Šie modeliai net neatkuria jau šališkų žmonių sprendimų, nes duomenys, kuriais jie mokomi, turi trūkumų: žmonės skirtingai pažymėtų vaizdų ir teksto ypatybes, jei žinotų, kad šios savybės bus naudojamos priimant sprendimą. Tai turi didžiulių padarinių mašininio mokymosi sistemoms žmogaus procesuose“, – sako Marzyehas Ghassemi, Kompiuterių mokslo ir dirbtinio intelekto laboratorijos (CSAIL) docentas ir sveikos ML grupės vadovas.
Ghassemi yra vyresnysis naujo dokumento, kuriame išsamiai aprašomos šios išvados, autorius, kuris buvo paskelbtas šiandien Mokslo pažanga. Prie jos prisijungia pagrindinė autorė Aparna Balagopalan, elektros inžinerijos ir informatikos magistrantė; Davidas Madrasas, Toronto universiteto magistrantas; Davidas H. Yangas, buvęs magistrantūros studentas, kuris dabar yra vienas iš „ML Estimation“ įkūrėjų; Dylanas Hadfieldas-Menellas, MIT docentas; ir Gillian K. Hadfield, Schwartz Reisman technologijos ir visuomenės katedros katedra bei Toronto universiteto teisės profesorė.
Ženklinimo neatitikimas
Šis tyrimas išaugo iš kito projekto, kuriame buvo tiriama, kaip mašininio mokymosi modelis gali pateisinti savo prognozes. Rinkdami duomenis šiam tyrimui, mokslininkai pastebėjo, kad žmonės kartais pateikia skirtingus atsakymus, jei jų prašoma pateikti aprašomąsias ar normatyvines etiketes apie tuos pačius duomenis.
Norėdami surinkti aprašomąsias etiketes, tyrėjai prašo etikečių kūrėjų nustatyti faktines ypatybes – ar šiame tekste yra nepadorios kalbos? Norėdami surinkti normatyvines etiketes, mokslininkai pateikia žymenims taisyklę ir klausia, ar duomenys pažeidžia šią taisyklę – ar šis tekstas pažeidžia platformos aiškią kalbos politiką?
Nustebę šios išvados, mokslininkai pradėjo naudotojų tyrimą, kad galėtų pasigilinti. Jie surinko keturis duomenų rinkinius, kad imituotų skirtingas politikos kryptis, pavyzdžiui, šunų vaizdų duomenų rinkinį, kuris gali pažeisti buto taisyklę prieš agresyvias veisles. Tada jie paprašė dalyvių grupių pateikti aprašomąsias arba normatyvines etiketes.
Kiekvienu atveju aprašomųjų etikečių kūrėjų buvo paprašyta nurodyti, ar paveikslėlyje ar tekste yra trys faktinės savybės, pavyzdžiui, ar šuo atrodo agresyvus. Tada jų atsakymai buvo naudojami priimant sprendimus. (Jei vartotojas pasakė, kad nuotraukoje yra agresyvus šuo, politika buvo pažeista.) Etikečių klijuotojai nežinojo apie augintinių politiką. Kita vertus, normatyviniams ženklintojams buvo pateikta politika, draudžianti agresyvius šunis, o tada paklausta, ar kiekvienas vaizdas ją pažeidė ir kodėl.
Tyrėjai nustatė, kad žmonės žymiai labiau linkę įvardinti objektą kaip pažeidimą aprašomojoje aplinkoje. Skirtumas, kurį jie apskaičiavo naudodami absoliutų etikečių skirtumą, svyravo nuo 8 procentų vaizdų, naudojamų aprangos kodo pažeidimams įvertinti, duomenų rinkinyje iki 20 procentų šunų atvaizdų.
„Nors mes aiškiai netikrinome, kodėl taip nutinka, viena hipotezė yra ta, kad galbūt tai, kaip žmonės galvoja apie taisyklių pažeidimus, skiriasi nuo to, kaip jie galvoja apie aprašomuosius duomenis. Paprastai norminiai sprendimai yra švelnesni“, – sako Balagopalanas.
Tačiau duomenys paprastai renkami naudojant aprašomąsias etiketes, kad būtų parengtas modelis konkrečiai mašininio mokymosi užduočiai. Šie duomenys vėliau dažnai panaudojami norint parengti skirtingus modelius, kurie atlieka norminius sprendimus, pvz., taisyklių pažeidimus.
Treniruočių bėdos
Norėdami ištirti galimą aprašomųjų duomenų panaudojimo poveikį, mokslininkai parengė du modelius, kad nustatytų taisyklių pažeidimus naudodami vieną iš keturių duomenų nustatymų. Jie apmokė vieną modelį naudodami aprašomuosius duomenis, o kitą – norminius duomenis, tada palygino jų našumą.
Jie nustatė, kad jei modeliui parengti naudojami aprašomieji duomenys, jis bus prastesnis nei modelis, išmokytas atlikti tuos pačius sprendimus naudojant norminius duomenis. Tiksliau, aprašomasis modelis labiau tikėtina, kad klaidingai klasifikuos įvestis, klaidingai numatant taisyklių pažeidimą. Ir aprašomojo modelio tikslumas buvo dar mažesnis klasifikuojant objektus, dėl kurių žmonių ženklintojai nesutiko.
„Tai rodo, kad duomenys tikrai svarbūs. Svarbu suderinti mokymo kontekstą su diegimo kontekstu, jei treniruojate modelius, kad nustatytumėte, ar taisyklė buvo pažeista“, – sako Balagopalanas.
Vartotojams gali būti labai sunku nustatyti, kaip buvo renkami duomenys; Ghassemi sako, kad ši informacija gali būti palaidota tyrimo dokumento priede arba neatskleista privačios įmonės.
Duomenų rinkinio skaidrumo gerinimas yra vienas iš būdų, kaip sumažinti šią problemą. Jei mokslininkai žino, kaip buvo renkami duomenys, jie žino, kaip tie duomenys turėtų būti naudojami. Kita galima strategija yra tiksliai sureguliuoti aprašomąjį modelį naudojant nedidelį norminių duomenų kiekį. Šią idėją, žinomą kaip mokymosi perkėlimas, mokslininkai nori ištirti būsimame darbe.
Jie taip pat nori atlikti panašų tyrimą su ekspertais etikečių kūrėjais, pavyzdžiui, gydytojais ar teisininkais, kad sužinotų, ar dėl to neatsiras tas pats etikečių skirtumas.
„Būdas tai išspręsti yra skaidriai pripažinti, kad jei norime atkurti žmogaus sprendimą, turime naudoti tik tuos duomenis, kurie buvo surinkti toje aplinkoje. Priešingu atveju susidursime su sistemomis, kurių režimas bus ypač griežtas, daug griežtesnis nei tai, ką darytų žmonės. Žmonės pamatytų niuansus arba padarytų kitą skirtumą, o šie modeliai – ne“, – sako Ghassemi.
Šį tyrimą iš dalies finansavo Schwartz Reismano technologijos ir visuomenės institutas, „Microsoft Research“, „Vector Institute“ ir Kanados tyrimų tarybos grandinė.

