Viešojo sektoriaus, privataus sektoriaus ir akademinės bendruomenės nariai praėjusį mėnesį susirinko į antrąjį AI politikos forumo simpoziumą, kad išnagrinėtų svarbiausias dirbtinio intelekto mūsų ekonomikose ir visuomenėse keliamas kryptis ir klausimus.
Virtualus renginys, organizuojamas AI politikos forumo (AIPF) – MIT Schwarzman College of Computing įsipareigojimas sujungti aukšto lygio AI politikos principus su praktika ir kompromisais. valdymas – subūrė daugybę žinomų komisijos narių, kad jie įsigilintų į keturias kompleksines temas: teisę, auditą, sveikatos priežiūrą ir mobilumą.
Per pastaruosius metus įvyko esminių pokyčių Reguliavimo ir politikos aplinka, susijusi su dirbtiniu intelektu keliose šalyse, ypač Europoje, kai buvo parengtas Europos Sąjungos dirbtinio intelekto įstatymas – pirmasis pagrindinės reguliavimo institucijos bandymas pasiūlyti dirbtinio intelekto įstatymą. Jungtinėse Amerikos Valstijose Nacionalinis dirbtinio intelekto iniciatyvos aktas 2020, kuris tapo įstatymu 2021 sausio mėn. ekonominės gerovės ir saugumo laimėjimų. Galiausiai Kinija neseniai pateikė keletą naujų reglamentų.
Kiekvienas iš šių pokyčių atspindi skirtingą požiūrį į dirbtinio intelekto įstatymą, bet kas yra geras AI įstatymas? Ir kada dirbtinio intelekto teisės aktai turėtų būti pagrįsti privalomomis taisyklėmis su nuobaudomis, o ne savanoriškų gairių nustatymu?
Jonathanas Zittrainas, Harvardo teisės mokyklos tarptautinės teisės profesorius ir Berkmano Kleino interneto ir visuomenės centro direktorius , sakoma, kad plečiantis internetui taikomas savireguliavimo metodas turėjo savo apribojimų, nes įmonės stengėsi suderinti savo interesus su pramonės ir visuomenės interesais.
„Viena pamoka gali būti ta, kad Iš tikrųjų, kad atstovaujamoji vyriausybė anksti imtųsi aktyvaus vaidmens, yra gera idėja“, – sako jis. „Tiesiog jiems meta iššūkį tai, kad atrodo, kad šioje reguliavimo aplinkoje yra du etapai. Vienas – per anksti pasakyti, o du – per vėlu ką nors daryti. Manau, kad dirbtinio intelekto srityje daugelis žmonių sakytų, kad mes vis dar esame „per anksti pasakyti“, bet atsižvelgiant į tai, kad nėra vidurinės zonos, kol dar ne per vėlu, vis tiek gali prireikti tam tikro reguliavimo. Tema, kuri pakartotinai iškilo per pirmąją AI įstatymų grupę – pokalbį, kurį moderavo Danas Huttenlocheris, MIT Schwarzman College of Computing dekanas ir AI politikos forumo pirmininkas, buvo pasitikėjimo sąvoka. „Jei man nuosekliai sakytumėte tiesą, sakyčiau, kad esate sąžiningas žmogus. Jei dirbtinis intelektas galėtų pateikti kažką panašaus, ką galiu pasakyti, kad yra nuoseklus ir tas pats, tada sakyčiau, kad tai yra patikimas AI“, – sako Bitange Ndemo, Nairobio universiteto verslumo profesorius ir buvęs nuolatinis Kenijos informacijos ministerijos sekretorius. ir komunikacija.
Eva Kaili, Europos Parlamento viceprezidentė, priduria, kad „Europoje, kai vartojate ką nors, kaip ir bet kokį vaistą, žinote, kad jis buvo patikrintas. Jūs žinote, kad galite tuo pasitikėti. Jūs žinote, kad yra valdikliai. To paties turime pasiekti ir su AI. Kalli taip pat pabrėžia, kad sukūrus pasitikėjimą dirbtinio intelekto sistemomis, žmonės ne tik saugiai naudos daugiau taikomųjų programų, bet ir pats AI gaus naudos, nes dėl to bus generuojami didesni duomenų kiekiai.
Sparčiai didėjantis AI pritaikymas įvairiose srityse paskatino atsižvelgti į naujų technologijų teikiamas galimybes ir iššūkius bei į jų poveikį socialinėms ir etinėms problemoms, tokioms kaip privatumas, sąžiningumas, šališkumas, skaidrumas ir atskaitomybė. Pavyzdžiui, sveikatos priežiūros srityje nauji mašininio mokymosi metodai davė didžiulį pažadą gerinti kokybę ir efektyvumą, tačiau teisingumo, prieigos prie duomenų ir privatumo, saugos ir patikimumo, imunologijos ir pasaulinės sveikatos priežiūros klausimai išlieka dideli. MIT Marzyehas Ghassemi, Elektros inžinerijos ir informatikos katedros bei Medicinos inžinerijos ir mokslo instituto docentas, ir Davidas Sontagas, elektrotechnikos ir informatikos mokslų docentas, bendradarbiavo su Ziadu Obermeyeriu. , Kalifornijos universiteto Berklio visuomenės sveikatos mokyklos sveikatos politikos ir vadybos docentas, surengęs AIPF Health Wide Reach sesijų ciklą, skirtą aptarti dalijimosi duomenimis ir privatumo klinikiniame AI klausimais. Organizatoriai subūrė dirbtinio intelekto, politikos ir sveikatos ekspertus iš viso pasaulio, siekdami suprasti, ką galima padaryti, kad būtų sumažintos kliūtys gauti aukštos kokybės sveikatos duomenų, kad būtų pasiekti novatoriškesni, patikimesni ir įtraukesni tyrimų rezultatai, kartu pagarbiai vertinant. pacientų privatumą.
Serialo metu grupės nariai pristatė specialią temą ir jiems buvo pavesta pasiūlyti konkrečius politinius požiūrius į aptartą iššūkį. Remdamiesi šiais plataus masto pokalbiais, dalyviai pristatė savo išvadas simpoziumo metu, apimdami ne pelno siekiančias ir vyriausybės sėkmės istorijas ir ribotos prieigos modelius; atvirkštinės demonstracijos; teisinės sistemos, reglamentavimas ir finansavimas; techniniai požiūriai į privatumą; infrastruktūrą ir dalijimąsi duomenimis. Tada grupė aptarė kai kurias savo rekomendacijas, kurios apibendrinamos ataskaitoje, kuri netrukus bus paskelbta.
Vienoje išvadų reikalaujama, kad būtų galima naudoti daugiau duomenų, skirtų moksliniams tyrimams. Rekomendacijos, kylančios iš šios išvados, apima taisyklių atnaujinimą, skatinantį dalijimąsi duomenimis, kad būtų lengviau pasiekti saugius uostus, tokius kaip Sveikatos draudimo perkeliamumo ir atskaitomybės įstatymas (HIPAA) dėl tapatybės panaikinimo, taip pat išplėsti finansavimą privačioms sveikatos įstaigoms, skirtoms duomenų rinkiniams kurti. , be kita ko. Kita išvada, skirta pašalinti kliūtis tyrėjams gauti duomenis, palaiko rekomendaciją sumažinti kliūtis tyrimams ir plėtrai, susijusiai su federaliniu mastu sukurtais sveikatos duomenimis. „Jei tai yra duomenys, kurie turėtų būti prieinami, nes juos finansuoja koks nors federalinis subjektas, turėtume lengvai nustatyti žingsnius, kurie bus dalis, kad gautume prieigą prie jų, kad tai būtų labiau įtraukiantis ir teisingesnis mokslinių tyrimų galimybių rinkinys visiems. sako Ghassemi. Grupė taip pat rekomenduoja atidžiai pažvelgti į etikos principus, kurie reglamentuoja dalijimąsi duomenimis. Nors šiuo klausimu jau yra pasiūlyta daug principų, Ghassemi sako, kad „akivaizdu, kad jūs negalite patenkinti visų svirčių ar mygtukų vienu metu, bet manome, kad tai yra kompromisas, kurį labai svarbu apgalvoti. Be teisės ir sveikatos priežiūros, kiti renginio metu išnagrinėti AI politikos aspektai apėmė AI sistemų auditą ir stebėjimą mastu bei AI vaidmenį mobilumui ir įvairioms techninėms, verslo ir politikos sritims. iššūkius, ypač autonominėms transporto priemonėms.
AI politikos forumo simpoziumas buvo pastangos suburti praktikos bendruomenes, kurių bendras tikslas buvo sukurti kitą AI skyrių. Savo baigiamojoje kalboje Aleksandras Madry, MIT „Cadence Designs Systems“ skaičiavimo profesorius ir vienas iš AI politikos forumo dėstytojų, pabrėžė bendradarbiavimo svarbą ir poreikį skirtingoms bendruomenėms bendrauti tarpusavyje, kad iš tikrųjų būtų poveikis dirbtinio intelekto politikos erdvėje.
„Svajonė čia yra ta, kad mes visi galėtume susitikti kartu – mokslininkai, pramonės atstovai, politikos formuotojai ir kitos suinteresuotosios šalys – ir iš tikrųjų kalbėtis, suprasti vieni kitus susirūpinimą ir kartu pagalvokite apie sprendimus“, – sakė Madry. „Tai yra AI politikos forumo misija ir mes norime tai padaryti.“

