Praėjusį mėnesį viešojo, privačiojo ir akademinio sektoriaus atstovai susirinko į antrąjį dirbtinio intelekto politikos forumo simpoziumą, kad išnagrinėtų svarbiausias kryptis ir klausimus, kuriuos kelia dirbtinis intelektas mūsų ekonomikoje ir visuomenėje.
Virtualiame renginyje, kurį surengė AI politikos forumas (AIPF) – MIT Švarcmano kompiuterijos koledžo įmonė, siekianti sujungti aukšto lygio dirbtinio intelekto politikos principus su valdymo praktika ir kompromisais, – dalyvavo daugybė žymių ekspertų, kurie gilinosi į keturias kompleksines temas: teisę, auditą, sveikatos priežiūrą ir mobilumą.
Praėjusiais metais keliose šalyse įvyko esminių pokyčių su dirbtiniu intelektu susijusioje reguliavimo ir politikos srityje – ypač Europoje, kur buvo parengtas Europos Sąjungos dirbtinio intelekto įstatymas – pirmasis didelės reguliavimo institucijos bandymas pasiūlyti dirbtinio intelekto įstatymą. Jungtinėse Amerikos Valstijose sausio mėn. įsigaliojusiu Nacionalinės dirbtinio intelekto iniciatyvos aktu 2020 2021 numatoma visoje federalinėje vyriausybėje koordinuota programa, skirta paspartinti dirbtinio intelekto mokslinius tyrimus ir taikymą siekiant ekonominės gerovės ir saugumo naudos. Galiausiai, Kinija neseniai pati parengė keletą naujų teisės aktų
. Kiekvienas iš šių pokyčių atspindi skirtingą požiūrį į dirbtinio intelekto teisėkūrą, tačiau kas yra geras dirbtinio intelekto įstatymas? Ir kada AI teisės aktai turėtų būti grindžiami privalomomis taisyklėmis su sankcijomis, o kada – savanoriškomis gairėmis?
Džonatanas Zittrainas, Harvardo teisės mokyklos tarptautinės teisės profesorius ir Berkmano Kleino interneto ir visuomenės centro direktorius, sako, kad savireguliacijos metodas, kurio buvo laikomasi interneto plėtros metu, turėjo trūkumų, nes bendrovės stengėsi suderinti savo interesus su pramonės ir visuomenės interesais.
Viena iš pamokų galėtų būti ta, kad iš tikrųjų atstovaujamosios valdžios aktyvus vaidmuo ankstyvoje stadijoje yra gera idėja”, – sako jis. „Tik jiems kyla sunkumų dėl to, kad šioje reguliavimo aplinkoje, atrodo, yra du etapai. Pirma, per anksti ką nors pasakyti, ir antra, per vėlu ką nors daryti. Manau, kad dirbtinio intelekto srityje daugelis žmonių pasakytų, kad vis dar esame „per anksti pasakyti” etape, tačiau atsižvelgiant į tai, kad nėra viduriniosios zonos, kol dar ne per vėlu, vis tiek gali prireikti tam tikro reguliavimo.”
Pirmajame dirbtinio intelekto įstatymų skyrelyje – pokalbyje, kurį moderavo Danas Huttenlocheris, MIT Švarcmano kompiuterijos koledžo dekanas ir dirbtinio intelekto politikos forumo pirmininkas, – ne kartą nuskambėjo pasitikėjimo sąvoka. „Jei nuolat sakytumėte man tiesą, sakyčiau, kad esate sąžiningas žmogus. Jei dirbtinis intelektas galėtų pateikti kažką panašaus, kažką, apie ką galėčiau pasakyti, kad tai yra nuoseklu ir tas pats, tada sakyčiau, kad tai patikimas dirbtinis intelektas”, – sako Bitange Ndemo, Nairobio universiteto verslumo profesorius ir buvęs Kenijos informacijos ir ryšių ministerijos nuolatinis sekretorius.”
Eva Kaili, Europos Parlamento viceprezidentė, priduria: „Europoje, kai ką nors vartojate, pavyzdžiui, bet kokius vaistus, žinote, kad jie buvo patikrinti. Jūs žinote, kad galite juo pasitikėti. Jūs žinote, kad kontrolė yra užtikrinta. Tą patį turime pasiekti ir dirbtinio intelekto srityje.” Kalli taip pat pabrėžia, kad pasitikėjimo dirbtinio intelekto sistemomis didinimas ne tik paskatins žmones saugiai naudotis daugiau taikomųjų programų, bet ir pats dirbtinis intelektas duos naudos, nes dėl to bus gaunami didesni duomenų kiekiai
Sparčiai didėjantis dirbtinio intelekto pritaikomumas įvairiose srityse paskatino poreikį spręsti tiek naujų technologijų galimybes ir iššūkius, tiek jų poveikį socialiniams ir etiniams klausimams, tokiems kaip privatumas, teisingumas, šališkumas, skaidrumas ir atskaitomybė. Pavyzdžiui, sveikatos priežiūros srityje nauji mašininio mokymosi metodai labai perspektyvūs gerinant kokybę ir efektyvumą, tačiau teisingumo, duomenų prieigos ir privatumo, saugumo ir patikimumo, imunologijos ir pasaulinės sveikatos priežiūros klausimai išlieka aktualūs.
MIT Elektros inžinerijos ir informatikos katedros bei Medicinos inžinerijos ir mokslo instituto docentė Marzyeh Ghassemi ir Elektros inžinerijos ir informatikos katedros docentas Davidas Sontagas bendradarbiavo su Kalifornijos universiteto Berklio visuomenės sveikatos mokyklos sveikatos politikos ir vadybos docentu Ziadu Obermeyeriu, organizuodami AIPF „Health Wide Reach” sesijų ciklą, skirtą aptarti dalijimosi duomenimis ir privatumo klinikinėje dirbtinėje medicinoje klausimus. Organizatoriai subūrė AI, politikai ir sveikatai skirtus ekspertus iš viso pasaulio, siekdami suprasti, ką galima padaryti, kad būtų sumažintos kliūtys prieigai prie aukštos kokybės sveikatos duomenų, siekiant pažangesnių, patikimesnių ir įtraukesnių mokslinių tyrimų rezultatų, kartu gerbiant pacientų privatumą
Ciklo metu grupės nariai skaitė pranešimus tam tikra ekspertine tema ir turėjo pasiūlyti konkrečius politinius požiūrius į aptartą iššūkį. Remdamiesi šiais plačiais pokalbiais, dalyviai simpoziumo metu pristatė savo išvadas, apimančias ne pelno siekiančių organizacijų ir vyriausybių sėkmės istorijas bei ribotos prieigos modelius; demonstracinius pavyzdžius, teisines sistemas, reguliavimą ir finansavimą; techninius požiūrius į privatumą; infrastruktūrą ir dalijimąsi duomenimis. Po to grupė aptarė kai kurias rekomendacijas, kurios apibendrintos netrukus pasirodysiančioje ataskaitoje
Vienoje iš išvadų raginama suteikti daugiau duomenų moksliniams tyrimams. Iš šios išvados išplaukiančios rekomendacijos, be kita ko, apima dalijimąsi duomenimis skatinančių teisės aktų atnaujinimą, kad būtų galima lengviau naudotis saugiais uostais, tokiais kaip Sveikatos draudimo perkeliamumo ir atskaitomybės įstatyme (HIPAA) numatytas duomenų tapatybės panaikinimas, taip pat finansavimo privačioms sveikatos priežiūros įstaigoms kuruoti duomenų rinkinius didinimą. Kita išvada – pašalinti kliūtis, trukdančias mokslininkams naudotis duomenimis, – patvirtina rekomendaciją mažinti kliūtis, trukdančias atlikti mokslinius tyrimus ir plėtoti federaliniu lygmeniu sukurtus sveikatos duomenis. „Jei tai yra duomenys, kurie turėtų būti prieinami, nes juos finansuoja koks nors federalinis subjektas, turėtume lengvai nustatyti žingsnius, kurie bus prieigos prie jų dalis, kad tai būtų labiau įtraukiantis ir teisingesnis mokslinių tyrimų galimybių rinkinys visiems”, – sako Ghassemi. Grupė taip pat rekomenduoja atidžiai išnagrinėti etikos principus, kuriais reglamentuojamas dalijimasis duomenimis. Nors jau yra pasiūlyta daug su tuo susijusių principų, Ghassemi sako, kad „akivaizdu, kad negalima patenkinti visų svertų ar mygtukų vienu metu, tačiau manome, kad tai yra kompromisas, kurį labai svarbu protingai apgalvoti.”
Be teisės ir sveikatos priežiūros, renginio metu nagrinėti ir kiti AI politikos aspektai: AI sistemų auditas ir stebėsena dideliu mastu, AI vaidmuo mobilumo srityje ir įvairūs techniniai, verslo ir politiniai iššūkiai, ypač susiję su autonominėmis transporto priemonėmis
AI politikos forumo simpoziume stengtasi suburti praktikų bendruomenes, kurių bendras tikslas – sukurti kitą AI skyrių. Baigiamosiose kalbose Aleksandras Madry, MIT „Cadence Designs Systems” kompiuterijos profesorius ir vienas iš dirbtinio intelekto politikos forumo vadovų, pabrėžė bendradarbiavimo svarbą ir būtinybę skirtingoms bendruomenėms bendrauti tarpusavyje, kad dirbtinio intelekto politikos srityje būtų padarytas tikras poveikis.
„Svajonė yra ta, kad mes visi – tyrėjai, pramonės atstovai, politikos formuotojai ir kitos suinteresuotosios šalys – galėtume susitikti ir iš tikrųjų kalbėtis vieni su kitais, suprasti vieni kitų problemas ir kartu galvoti apie sprendimus”, – sakė A. Madry. „Tokia yra dirbtinio intelekto politikos forumo misija, ir tai mes norime padaryti.”