AAš einu į priekį sparčiai, nešdamas potencialiai transformuojančią naudą visuomenei. Pavyzdžiui, su atradimais, tokiais kaip AlphaFold, pradedame gerinti kai kurių ilgai užleistų ligų supratimą, iš karto pasiekiami 200 milijonų baltymų struktūrų – tai žygdarbis, kuriam anksčiau būtų reikėję ketverių metų doktorantūros studijų kiekvienam baltymui. ir pernelyg brangi įranga. Jei dirbtinis intelektas kuriamas atsakingai, jis gali būti galingas įrankis, padedantis sukurti geresnę ir teisingesnę ateitį.
Tačiau AI taip pat kelia iššūkių. Nuo šališkumo mašininio mokymosi, naudojamo bausmių skyrimo algoritmams, iki dezinformacijos, neatsakingas AI sistemų kūrimas ir diegimas kelia didelės žalos riziką. Kaip galime išspręsti šias neįtikėtinai sudėtingas problemas, kad AI technologija tarnautų mūsų visuomenei, o ne atvirkščiai?
Pirma, visi, kurie dalyvauja kuriant AI, turi priimti ir laikytis principų, pagal kuriuos pirmenybė teikiama saugai, kartu plečiant inovacijų ribas. Tačiau tai taip pat reikalauja, kad sukurtume naujas institucijas, turinčias kompetencijos ir įgaliojimus atsakingai valdyti šios technologijos plėtrą.
Technologijų sektorius dažnai mėgsta paprastus sprendimus, o institucijų kūrimas gali atrodyti kaip vienas sunkiausių ir miglotiausių kelių. Tačiau jei mūsų pramonė nori išvengti paviršutiniško etikos plovimo, mums reikia konkrečių sprendimų, kurie atsižvelgtų į problemų, su kuriomis susiduriame, tikrovę ir įtrauktų į pokalbį istoriškai atskirtas bendruomenes.
Siekiant užtikrinti, kad rinka sukurtų atsakingas naujoves, mums reikia, kad laboratorijos, kuriančios novatoriškas dirbtinio intelekto sistemas, nustatytų tinkamus patikrinimus ir balansus, kurie padėtų priimti sprendimus. Kai kalbų modeliai pirmą kartą pasirodė scenoje, „Google DeepMind“ institucinės peržiūros komitetas – tarpdisciplininė vidaus ekspertų grupė, kuriai pavesta atsakingai vadovauti pionieriams – nusprendė atidėti mūsų naujojo dokumento išleidimą, kol galėsime jį susieti su rizikos taksonomija. kurie turėtų būti naudojami modeliams vertinti, nepaisant visos pramonės spaudimo būti „ant naujausių įvykių“.
„DeepMind AlphaFold pradeda gerinti mūsų supratimą apie kai kurias ilgai užleistas ligas“. Nuotrauka: Deepmind AlphaFold / DeepMind.ComTie patys principai turėtų būti taikomi investuotojams, finansuojantiems naujesnius rinkos dalyvius. Užuot bankrutavusios įmones, kurios teikia pirmenybę naujovėms, o ne saugumui ir etikai, rizikos kapitalistai (VC) ir kiti turi skatinti drąsius ir atsakingas produkto kūrimas. Pavyzdžiui, rizikos kapitalo įmonė „Atomico“, kurioje aš esu angelas investuotojas, primygtinai reikalauja įtraukti įvairovės, lygybės ir įtraukties bei aplinkosaugos, socialinio valdymo reikalavimus į kiekvienos investicijos terminų lapus. Tai yra elgesio tipai, kuriuos norime, kad šios srities lyderiai nustatytų.
Taip pat pradedame matyti pramonės konvergenciją, susijusią su svarbia praktika, pvz., poveikio vertinimu ir įvairių bendruomenių įtraukimu į kūrimą, vertinimą ir testavimą. Žinoma, laukia dar ilgas kelias. Kaip spalvota moteris, puikiai suprantu, ką tai reiškia sektoriui, kuriame tokie žmonės kaip aš yra nepakankamai atstovaujami. Tačiau galime pasimokyti iš kibernetinio saugumo bendruomenės.
Prieš kelis dešimtmečius jie pradėjo siūlyti „klaidas“ – finansinį atlygį – tyrėjams, galintiems nustatyti produkto pažeidžiamumą ar „klaidą“. Kai apie tai buvo pranešta, bendrovės susitarė dėl laiko, per kurį jos išspręs klaidą ir viešai ją atskleis, suteikdamos kreditą „galvų medžiotojams“. Laikui bėgant tai tapo pramonės norma, vadinama „atsakingu atskleidimu“. AI laboratorijos dabar skolinasi iš šio vadovo, kad išspręstų duomenų rinkinių ir modelių išvesties šališkumo problemą.
Galiausiai, dirbtinio intelekto pažanga yra iššūkis tarptautiniam valdymui. Rekomendacijos vietos lygmeniu yra viena iš lygties dalių, bet taip pat ir tarptautinės politikos derinimas, atsižvelgiant į tai, kad dirbtinio intelekto galimybės ir rizika neapsiribos bet kuria šalimi. AI platinimas ir piktnaudžiavimas sužadino visus, kad pasaulinis koordinavimas atliks lemiamą vaidmenį užkertant kelią žalai ir užtikrinant bendrą atskaitomybę.
Tačiau įstatymai yra veiksmingi tik tada, kai yra tinkami ateičiai. Štai kodėl reguliavimo institucijoms labai svarbu apsvarstyti ne tik tai, kaip reguliuoti pokalbių robotus šiandien, bet ir kaip puoselėti ekosistemą, kurioje inovacijos ir mokslo spartinimas galėtų būti naudingi žmonėms, suteikdami į rezultatus orientuotas sistemas, kuriose technologijų įmonės galėtų dirbti.
Skirtingai nuo branduolinės energijos, dirbtinis intelektas yra bendresnis ir plačiau taikomas nei kitos technologijos, todėl kuriant institucijas reikės turėti daug įgūdžių, įvairių žinių ir naujų bendradarbiavimo formų, įskaitant mokslines žinias, socialines ir technines žinias ir daugianacionalinę visuomenę. privačios partnerystės. Neseniai priimta Atlanto vandenyno deklaracija tarp JK ir JAV yra daug žadanti pradžia siekiant užtikrinti, kad pramonės standartai būtų įtraukti į tarptautinę teisę.
Pasaulyje, kuriame politinė tendencija linksta į nostalgiją ir izoliacionizmą, daugiasluoksnis požiūris į gerą valdymą, apimantis vyriausybę, technologijų įmones ir pilietinę visuomenę, niekada nebus pagrindinis ar populiarus būdas spręsti AI iššūkius. Tačiau sunkus ir nespalvingas institucijų statybos darbas yra labai svarbus, kad technologai galėtų kartu kurti geresnę ateitį.
- Dorothy Chou yra „Google DeepMind“ viešųjų reikalų vadovė

