Teikdamas išteklius JAV politikos formuotojams, MIT lyderių ir mokslininkų komitetas išleido politikos apžvalgų rinkinį, kuriame aprašoma dirbtinio intelekto valdymo sistema. Šis metodas apima dabartinių reguliavimo ir atsakomybės metodų išplėtimą, siekiant praktinio DI priežiūros būdo.
Straipsnių tikslas – padėti sustiprinti JAV lyderystę dirbtinio intelekto srityje, tuo pačiu apribojant žalą, kurią gali sukelti naujos technologijos, ir skatinant tyrinėti, kaip dirbtinio intelekto diegimas galėtų būti naudingas visuomenei.
Pagrindiniame politikos dokumente „JAV AI valdymo sistema: saugaus ir klestinčio AI sektoriaus kūrimas“ teigiama, kad AI įrankius dažnai gali reguliuoti esami JAV vyriausybės subjektai, jau prižiūrintys atitinkamas sritis. Rekomendacijose taip pat pabrėžiama, kaip svarbu nustatyti AI įrankių paskirtį, kuri leistų reglamentus pritaikyti šioms programoms.
„Kaip šalis, mes jau reguliuojame daug santykinai didelės rizikos dalykų ir užtikriname joje valdymą“, – sako Danas Huttenlocheris, MIT Schwarzman College of Computing dekanas, padėjęs vadovauti projektui, kuris kilo iš reklamos. hoc MIT komitetas. „Mes nesakome, kad to pakanka, bet pradėkime nuo dalykų, kuriuose žmogaus veikla jau yra reguliuojama, o visuomenė laikui bėgant nusprendė, kad tai yra didelė rizika. Taip žiūrėti į AI yra praktinis požiūris.
„Mūsų sudaryta sistema suteikia konkretų mąstymo apie šiuos dalykus būdą“, – sako Asu Ozdaglar, MIT Schwarzmano skaičiavimo koledžo akademikų dekano pavaduotojas ir MIT Elektros inžinerijos ir kompiuterių mokslo (EECS) katedros vadovas. padėjo prižiūrėti pastangas.
Į projektą įtraukti keli papildomi politikos dokumentai, ir per praėjusius metus išaugo susidomėjimas dirbtiniu intelektu bei didelės naujos pramonės investicijos į šią sritį. Šiuo metu Europos Sąjunga bando užbaigti dirbtinio intelekto reglamentus, naudodama savo metodą, pagal kurį tam tikrų tipų programoms priskiriamas platus rizikos lygis. Šiame procese bendros paskirties AI technologijos, pvz., kalbų modeliai, tapo nauju kliūtimi. Bet kokios valdymo pastangos susiduria su iššūkiais, susijusiais su bendrųjų ir konkrečių AI įrankių reguliavimu, taip pat su daugybe galimų problemų, įskaitant dezinformaciją, klastotes, stebėjimą ir kt.
„Mums buvo svarbu, kad MIT įsitrauktų į tai, nes turime patirties“, – sako Davidas Goldstonas, MIT Vašingtono biuro direktorius. „MIT yra vienas iš AI tyrimų lyderių, viena iš vietų, kur AI pirmą kartą pradėjo veikti. Kadangi esame tarp tų, kurie kuria technologijas, kurios kelia šias svarbias problemas, jaučiame pareigą padėti jas spręsti.
Tikslas, ketinimas ir apsauginiai turėklai
Pagrindinėje politikos santraukoje aprašoma, kaip dabartinė politika galėtų būti išplėsta, kad apimtų dirbtinį intelektą, naudojant esamas reguliavimo agentūras ir teisinės atsakomybės sistemas, jei įmanoma. Pavyzdžiui, JAV galioja griežti licencijavimo įstatymai medicinos srityje. Apsimesti gydytoju jau yra neteisėta; jei dirbtinis intelektas būtų naudojamas skiriant vaistus arba diagnozuojant diagnozę prisidengiant gydytoju, turėtų būti aišku, kad tai pažeistų įstatymą taip pat, kaip griežtai padarytų žmogaus piktnaudžiavimą. Kaip pažymima politikos santraukoje, tai nėra tik teorinis požiūris; autonominės transporto priemonės, kuriose įdiegtos AI sistemos, yra reguliuojamos taip pat, kaip ir kitos transporto priemonės.
Svarbus žingsnis kuriant šiuos reguliavimo ir atsakomybės režimus, pabrėžiama politikos santraukoje, yra tai, kad AI teikėjai iš anksto apibrėžtų AI programų tikslą ir ketinimą. Šiuo pagrindu išnagrinėjus naujas technologijas būtų aišku, kurie esami reglamentų rinkiniai ir reguliatoriai yra tinkami bet kuriam AI įrankiui.
Tačiau taip pat gali būti, kad dirbtinio intelekto sistemos gali egzistuoti keliais lygmenimis, o tai technologai vadina sistemų, kurios kartu teikia tam tikrą paslaugą, „krūva“. Pavyzdžiui, bendrosios paskirties kalbos modelis gali būti konkrečios naujos priemonės pagrindas. Apskritai, trumpai pažymima, konkrečios paslaugos teikėjas gali būti pirmiausia atsakingas už su ja susijusias problemas. Tačiau „kai kamino komponentų sistema neveikia taip, kaip žadėta, to komponento tiekėjui gali būti tikslinga pasidalyti atsakomybe“, kaip teigiama pirmoje santraukoje. Bendrosios paskirties įrankių gamintojai taip pat turėtų būti atsakingi, jei jų technologijos būtų susijusios su konkrečiomis problemomis.
„Dėl to valdymas tampa sudėtingesnis, tačiau pagrindų modeliai neturėtų būti visiškai nepaminėti“, – sako Ozdaglar. „Daugeliu atvejų modeliai yra iš tiekėjų, o jūs kuriate programą viršuje, tačiau jie yra paketo dalis. Kokia ten atsakomybė? Jei sistemos nėra viršuje, tai nereiškia, kad į jas nereikėtų atsižvelgti.
Jei dirbtinio intelekto paslaugų teikėjai aiškiai apibrėžia AI įrankių paskirtį ir paskirtį, taip pat reikalavimas apsauginių turėklų, kad būtų išvengta piktnaudžiavimo, taip pat būtų galima nustatyti, kiek įmonės ar galutiniai vartotojai yra atsakingi už konkrečias problemas. Politikos santraukoje teigiama, kad geras reguliavimo režimas turėtų sugebėti nustatyti, ką ji vadina „skrudintuvo šakute“ – kai galutinis vartotojas gali būti pagrįstai laikomas atsakingas už tai, kad žino apie problemas, kurias gali sukelti netinkamas įrankio naudojimas.
Atsakingas ir lankstus
Nors politikos sistema apima esamas agentūras, ji taip pat apima kai kuriuos naujus priežiūros pajėgumus. Viena vertus, politikos santraukoje reikalaujama pažangos atliekant naujų AI įrankių auditą, kuris galėtų judėti į priekį įvairiais būdais, nesvarbu, ar tai būtų vyriausybės iniciatyva, ar naudotojų, ar dėl teisinės atsakomybės procedūrų. Reikės viešųjų audito standartų, pažymima popieriuje, nesvarbu, ar juos nustato ne pelno siekianti organizacija, panaši į Viešosios įmonės apskaitos priežiūros valdybą (PCAOB), ar per federalinį subjektą, panašų į Nacionalinį standartų ir technologijų institutą (NIST). ).
Be to, dokumente raginama apsvarstyti galimybę sukurti naują, vyriausybės patvirtintą „savireguliacijos organizaciją“ (SRO) pagal FINRA, vyriausybės sukurtos finansų pramonės reguliavimo institucijos, funkcines linijas. Tokia agentūra, orientuota į DI, galėtų kaupti konkrečioms sritims būdingų žinių, kurios leistų reaguoti ir būti lanksčiai bendradarbiaujant su greitai kintančia AI pramone.
„Šie dalykai yra labai sudėtingi, žmonių ir mašinų sąveika, todėl jums reikia reagavimo”, – sako Huttenlocheris, kuris taip pat yra EECS kompiuterių mokslo ir dirbtinio intelekto bei sprendimų priėmimo profesorius Henry Ellis Warren. „Manome, kad jei vyriausybė svarsto naujas agentūras, ji tikrai turėtų pažvelgti į šią SRO struktūrą. Jie neperduoda parduotuvės raktų, nes tai vis dar yra vyriausybės užsakytas ir prižiūrimas dalykas.
Kaip aiškiai nurodyta politikos dokumentuose, yra keletas papildomų konkrečių teisinių klausimų, kuriuos reikės spręsti AI srityje. Autorių teisės ir kiti intelektinės nuosavybės klausimai, susiję su AI, paprastai jau yra bylinėjimosi objektas.
Ir tada yra tai, ką Ozdaglar vadina „žmogaus plius“ teisiniais klausimais, kai dirbtinio intelekto pajėgumai viršija tai, ką gali padaryti žmonės. Tai apima tokius dalykus kaip masinio stebėjimo įrankiai, ir komitetas pripažįsta, kad jiems gali prireikti ypatingo teisinio svarstymo.
„AI įgalina dalykus, kurių žmonės negali padaryti, pavyzdžiui, stebėjimą ar netikras naujienas dideliu mastu, o tai gali prireikti ypatingo dėmesio, išskyrus tai, kas taikoma žmonėms“, – sako Ozdaglaras. „Tačiau mūsų atspirties taškas vis tiek leidžia pagalvoti apie riziką ir tada, kaip ši rizika padidėja dėl įrankių.
Politikos dokumentų rinkinyje išsamiai nagrinėjami keli reguliavimo klausimai. Pavyzdžiui, vienas dokumentas „AI generuoto turinio žymėjimas: pažadai, pavojai ir ateities kryptys“, kurį parašė Chloe Wittenberg, Ziv Epstein, Adam J. Berinsky ir David G. Rand, remiasi ankstesniais žiniasklaidos ir auditorijos įtraukimo tyrimų eksperimentais. įvertinti konkrečius metodus, kaip žymėti AI pagamintą medžiagą. Kitame dokumente „Didieji kalbų modeliai“, kurį parašė Yoon Kim, Jacobas Andreasas ir Dylanas Hadfieldas-Menell, nagrinėjamos bendrosios paskirties kalbomis pagrįstos AI naujovės.
„Dalis to darant tinkamai“
Kaip aiškiai matyti iš politikos trumpų dokumentų, kitas veiksmingo vyriausybės dalyvavimo šiuo klausimu elementas yra skatinti daugiau tyrimų, kaip padaryti dirbtinį intelektą naudingu visuomenei apskritai.
Pavyzdžiui, politikos dokumentas „Ar galime turėti Pro-Worker AI? Daronas Acemoglu, Davidas Autorius ir Simonas Johnsonas renkasi mašinų kelią, kad galėtų padėti darbuotojams, o ne panaudoti juos pakeisti – scenarijus, kuris užtikrintų geresnį ilgalaikį gyvenimą. ekonomikos augimas paskirstytas visoje visuomenėje.
Šią analizių įvairovę iš įvairių disciplinų perspektyvų ad hoc komitetas norėjo įtraukti į AI reguliavimo klausimą nuo pat pradžių – išplėsti objektyvą, kurį galima įtraukti į politikos formavimą, o ne susiaurinti iki kelių. techninius klausimus.
„Manome, kad akademinės institucijos turi atlikti svarbų vaidmenį tiek žinių apie technologijas, tiek technologijų ir visuomenės sąveikos požiūriu“, – sako Huttenlocher. „Tai atspindi, kas bus svarbu norint gerai valdyti šį klausimą – politikos formuotojus, kurie kartu galvoja apie socialines sistemas ir technologijas. To tautai ir prireiks“.
Iš tiesų, Goldstonas pažymi, komitetas bando užpildyti atotrūkį tarp susijaudinusių ir susirūpinusių dėl AI, siekdamas, kad technologijos pažangą lydėtų tinkamas reguliavimas.
Goldstonas teigia, kad komitetas, skelbiantis šiuos dokumentus, „nėra grupė, kuri yra antitechnologinė ar bandanti užgniaužti dirbtinį intelektą. Tačiau tai yra grupė, kuri sako, kad dirbtiniam intelektui reikia valdymo ir priežiūros. Tai dalis to, kaip tinkamai tai padaryti. Tai žmonės, kurie išmano šią technologiją ir sako, kad dirbtinį intelektą reikia prižiūrėti.
Huttenlocher priduria: „Darbas tautos ir pasaulio labui yra tai, ką MIT rimtai ėmėsi daugelį dešimtmečių. Tai labai svarbus momentas tam“.
Be Huttenlocher, Ozdaglar ir Goldston, ad hoc komiteto nariai yra: Daronas Acemoglu, instituto profesorius ir Elizabeth bei James Killian ekonomikos profesoriai Menų, humanitarinių ir socialinių mokslų mokykloje; Jacob Andreas, EECS docentas; Davidas Autoras, Fordo ekonomikos profesorius; Adam Berinsky, Mitsui politikos mokslų profesorius; Cynthia Breazeal, skaitmeninio mokymosi dekanė ir medijų menų ir mokslų profesorė; Dylanas Hadfieldas-Menellas, Tennenbaumo karjeros plėtros asistentas dirbtinio intelekto ir sprendimų priėmimo klausimais; Simonas Johnsonas, MIT Sloano vadybos mokyklos Kurtz verslumo profesorius; Yoon Kim, NBX karjeros plėtros asistentas EECS srityje; Sendhilas Mullainathanas, Romos šeimos universiteto skaičiavimo ir elgsenos mokslų profesorius Čikagos universiteto Booth verslo mokykloje; Manish Raghavan, MIT Sloan informacinių technologijų docentas; David Rand, Erwin H. Schell profesorius MIT Sloan ir smegenų bei pažinimo mokslų profesorius; Antonio Torralba, „Delta Electronics“ elektros inžinerijos ir kompiuterių mokslo profesorius; ir Luisas Videgaray, MIT Sloan vyresnysis dėstytojas.