RUmman Chowdhury dažnai turi miego problemų, tačiau jai tai nėra problema, kurią reikia išspręsti. Ji turi tai, ką ji vadina „2 nakties smegenimis“, kurios skiriasi nuo kasdienių smegenų, ir tomis, kuriomis ji remiasi iškilus ypač skubioms ar sudėtingoms problemoms. Idėjos, net ir nedidelės, reikalauja kruopštumo ir dėmesio, sako ji, kartu su savotiška alchemine intuicija. „Tai kaip kepimas“, – sako ji. „Jūs negalite to priversti, negalite pakelti temperatūros, negalite pagreitinti. Tai užtruks, kad ir kaip ilgai. O kai baigs kepti, prisistatys“.
Tai buvo Chowdhury smegenys 2 val. ryto, kurios pirmą kartą sukūrė frazę „moralinis išorės paslaugų teikimas“ sąvokai, kuri dabar, kaip viena iš pirmaujančių dirbtinio intelekto mąstytojų, tapo pagrindiniu tašku, kaip ji vertina atskaitomybę ir valdymą, kai kalbama apie galimą revoliucinį poveikį. AI.
Ji sako, kad moralinis užsakomųjų paslaugų teikimas AI pritaiko nuovokumo ir pasirinkimo logiką, leidžiančią technologams efektyviai perskirstyti atsakomybę už produktus, kuriuos jie kuria, patiems produktams – techninė pažanga tampa iš anksto nulemtu augimu, o šališkumas tampa neįveikiamas.
„Niekada nepasakytumėte „mano rasistinis skrudintuvas“ arba „mano seksistinis nešiojamasis kompiuteris“, – sakė ji 2018 m. Ted Talk. „Ir vis dėlto mes naudojame šiuos modifikatorius savo kalboje apie dirbtinį intelektą. Ir tai darydami neprisiimame atsakomybės už savo kuriamus produktus. Išrašydami save iš lygties, atsiranda sistemingas ambivalentiškumas, panašus į tai, ką filosofė Hannah Arendt pavadino „blogio banalumu“ – sąmoningu ir bendradarbiaujančiu nežinojimu, kuris įgalino Holokaustą. „Tai buvo ne tik žmogaus, kuris turėjo tikslą nužudyti tiek daug žmonių, išrinkimas į valdžią“, – sako ji. „Tačiau ištisos žmonių tautos taip pat užėmė darbus ir pareigas ir darė šiuos siaubingus dalykus“.
Chowdhury iš tikrųjų neturi vieno titulo, ji turi dešimtis, tarp jų yra atsakinga dirbtinio intelekto bendradarbė Harvardo universitete, AI pasaulinės politikos konsultantė ir buvusi „Twitter“ meta komandos (Mašinų mokymosi etika, skaidrumas ir atskaitomybė) vadovė. Dirbtinis intelektas jau kurį laiką duoda jai smegenis 2 val. 2018 metais „Forbes“ pavadino ją vienu iš penkių žmonių, „kuriančių mūsų AI ateitį“.
Duomenų mokslininkė pagal profesiją ji visada dirbo šiek tiek neapibrėžtoje, netvarkingoje sferoje, peržengdama socialinių mokslų, teisės, filosofijos ir technologijų sritis, konsultuodama su įmonėmis ir įstatymų leidėjais formuojant politiką ir geriausią praktiką. Kalbant apie dirbtinį intelektą, jos požiūris į reguliavimą yra unikalus savo tvirtu vidutiniškumu – palankiai vertina pažangą ir tvirtai tvirtina, kad „atskaitomybės mechanizmai“ turi egzistuoti.
Šnypščiantis, kantrus ir švelnus Chowdhury klausosi su nuginkluojančiu rūpesčiu. Jai žmonės visada buvo daug įdomesni nei tai, ką jie kuria ar veikia. Prieš tai, kai skepticizmas technologijų atžvilgiu tapo refleksiniu, Chowdhury taip pat bijojo – ne pačios technologijos, o jas kūrusių ir parduodančių korporacijų.
Būdama pasaulinė atsakinga AI įmonės „Accenture“ vadovė, ji vadovavo komandai, kuri sukūrė sąžiningumo vertinimo įrankį, kuris užkirto kelią ir ištaisė algoritminį šališkumą. Ji įkūrė „Parity“ – etikos AI konsultavimo platformą, kuria siekiama sujungti „skirtingas kompetencijos bendruomenes“. Socialiniame tinkle „Twitter“ – prieš tai, kai ji tapo viena pirmųjų komandų, kurios buvo išformuotos vadovaujant Elonui Muskui, – ji pirmą kartą surengė bendrovės algoritminio šališkumo apdovanojimą, pakviesdama išorės programuotojus ir duomenų mokslininkus įvertinti svetainės kodą dėl galimo šališkumo. Pratimas atskleidė daugybę problemų, įskaitant tai, kad svetainės nuotraukų apkarpymo programinė įranga dažniausiai teikia pirmenybę jauniems, moteriškiems ir baltiems veidams.
Tai strategija, žinoma kaip red-teaming, pagal kurią programuotojai ir įsilaužėliai iš išorės yra skatinami bandyti apriboti tam tikras apsaugos priemones, kad technologija „darytų blogus dalykus, kad nustatytų, ką blogo ji gali“, sako Chowdhury. Tokios išorinės kontrolės ir pusiausvyros priemonės technologijų pasaulyje retai taikomos, nes technologai bijo „žmonių liesti savo kūdikį“.
Šiuo metu ji dirba kitame „Def Con“ raudonosios komandos renginyje – suvažiavime, kurį rengia įsilaužėlių organizacija „AI Village“. Šį kartą šimtai įsilaužėlių renkasi išbandyti ChatGPT, bendradarbiaujant su jos įkūrėju OpenAI, kartu su Microsoft, Google ir Bideno administracija. Planuojama, kad „hakatonas“ truks daugiau nei 20 valandų, suteikiant jiems „visiškai precedento neturintį“ duomenų rinkinį“, – sako Chowdhury, renginį organizuojantis kartu su Svenu Cattellu, AI Village įkūrėju ir Austinu Carsonu, atsakingo dirbtinio intelekto prezidentu. ne pelno siekiantis SeedAI.
Chowdhury nuomone, tik per tokį kolektyvizmą gali atsirasti tinkamas reguliavimas ir reguliavimo vykdymas. Be trečiųjų šalių audito, ji taip pat dirba keliose valdybose visoje Europoje ir JAV, padėdama formuoti AI politiką. Ji man sako, kad ji yra atsargi dėl per didelio reguliavimo instinkto, dėl kurio modeliai gali per daug taisytis ir nereaguoti į įsisenėjusias problemas. Pavyzdžiui, paklausus apie gėjų santuokas, „ChatGPT“ ir kiti generatyvūs dirbtinio intelekto įrankiai „visiškai susitraukia“, bandydami kompensuoti žmonių, kurie paskatino modelius sakyti neigiamus dalykus, skaičių. Tačiau nėra lengva, priduria ji, apibrėžti, kas yra toksiška, o kas – neapykanta. „Tai kelionė, kuri niekada nesibaigs“, – sako ji man šypsodamasi. „Bet man tai gerai.”
Anksti, kai ji pirmą kartą pradėjo dirbti technologijų srityje, ji suprato, kad „technologai ne visada supranta žmones, o žmonės ne visada supranta technologijas“, ir siekė užpildyti šią spragą. Plačiausiai aiškindama, ji man sako, kad jos darbas susijęs su žmonių supratimu per duomenis. „Technologijų esmė yra mintis, kad žmonija yra ydinga ir kad technologijos gali mus išgelbėti“, – sako ji, atkreipdama dėmesį į tokias kalbas kaip „kūno įsilaužimai“, reiškiantys tam tikrą optimizavimą, būdingą tik šiam technologijų amžiui. Yra toks aspektas, kad mes norime, kad būtume „atskirti nuo žmonijos“.
Chowdhury visada traukė žmonės, jų netvarkingumas, debesuotumas ir nenuspėjamumas. Studijuodama MIT bakalaurą, ji studijavo politikos mokslus, o vėliau, po kelių nusivylimų ne pelno siekiančių mėnesių, kai „žinojo, kad galime efektyviau panaudoti modelius ir duomenis, bet niekas to nepadarė“, ji išvyko į Kolumbiją magistro studijoms. kiekybinių metodų laipsnis.
praleisti ankstesnę naujienlaiškio reklamąpo naujienlaiškio reklamavimo
Praėjusį mėnesį ji praleido savaitę Ispanijoje, padėdama paskelbti Skaitmeninių paslaugų įstatymą, kitą savaitę San Franciske kibernetinio saugumo konferencijoje, kitą Bostone – savo stipendijai, o kelias dienas Niujorke – dar vienam turui. iš Def Con spaudos. Po trumpo laiko Hiustone, kur ji yra įsikūrusi, Vienoje ir Pitsburge ji surengs derybas atitinkamai dėl AI branduolinės dezinformacijos ir Duolingo.
Iš esmės tai, ką ji nurodo, yra gana paprastas įsakymas: klausykite, bendraukite, bendradarbiaukite. Ir vis dėlto, net kai Samas Altmanas, OpenAI įkūrėjas ir generalinis direktorius, prieš Kongresą liudija, kad yra įsipareigojęs užkirsti kelią AI žalai, ji vis dar mato pažįstamą taktiką. Kai pramonė patiria griežtesnę kontrolę, draudžiančio reguliavimo uždraudimas dažnai reiškia naratyvo kontrolę, ty raginimą reguliuoti, tuo pat metu išleidžiant milijonus lobizmui, siekiant užkirsti kelią reguliavimo įstatymų priėmimui.
Pasak jos, problema yra atskaitomybės trūkumas. Vidinė rizikos analizė įmonėje dažnai yra iškraipoma, nes rizikos valdyme dažnai nesilaikoma moralės. „Tiesiog yra rizika ir tada jūsų noras rizikuoti“, – sako ji. Kai nesėkmės ar žalos reputacijai rizika tampa per didelė, ji pereina į areną, kurioje taisyklės pakrypsta tam tikra kryptimi. Kitaip tariant: „Žaiskime žaidimą, kuriame galiu laimėti, nes turiu visus pinigus“.
Tačiau žmonės, skirtingai nei mašinos, turi neapibrėžtus prioritetus ir motyvus. „Pasaulyje yra labai mažai iš esmės gerų ar blogų aktorių“, – sako ji. „Žmonės tiesiog veikia pagal paskatų struktūras“. O tai savo ruožtu reiškia, kad vienintelis būdas paskatinti pokyčius yra pasinaudoti šiomis struktūromis, pašalinant jas nuo bet kurio energijos šaltinio. Tam tikros problemos gali būti sprendžiamos tik dideliu mastu, bendradarbiaujant ir einant į kompromisus iš daugelio skirtingų galios vektorių, o dirbtinis intelektas yra vienas iš jų.
Tačiau ji lengvai patvirtina, kad yra ribos. Taškai, kuriuose kompromisas nėra išeitis. Jos teigimu, stebėjimo kapitalizmo iškilimas jai kelia didelį nerimą. Tai technologijų naudojimas, kuris iš esmės yra neabejotinai rasistinis ir todėl neturėtų būti linksmas. „Mes negalime tepti kiaulės lūpų dažų“, – sakė ji neseniai Niujorko universiteto Socialinių mokslų mokykloje vykusioje kalboje apie AI ateitį. „Nemanau, kad gali egzistuoti etinė priežiūra“.
Chowdhury neseniai parašė pranešimą „Wired“, kuriame išsamiai išdėstė savo viziją dėl pasaulinės valdymo tarybos. Nesvarbu, ar tai būtų stebėjimo kapitalizmas, ar darbo sutrikimas, ar branduolinė dezinformacija, technologiją valdyti galima tik išorinei žmonių tarybai – tokiai kaip ji, nesusijusiai su jokia institucija, ir tokia, kuri atstovauja visame pasaulyje. Socialiniame tinkle „Twitter“ keli vartotojai jos sistemą pavadino idealistine, vadindami ją „mąstymu apie mėlyną dangų“ arba „neperspektyvią“. Ji man sako, kad tai juokinga, nes šie žmonės „tiesiogine prasme bando sukurti jausmingas mašinas“.
Ji yra susipažinusi su disonansu. „Tai prasminga“, – sako ji. Mus traukia herojų pasakojimai, prielaida, kad vienas asmuo yra ir turi būti atsakingas bet kuriuo metu. Netgi organizuodama „Def Con“ renginį, ji man sako, žmonėms sunku suprasti, kad kiekviename žingsnyje yra žmonių komanda. „Sulaukiame viso šio žiniasklaidos dėmesio, – sako ji, – ir visi tarsi klausia: „Kas atsakingas? Ir tada mes visi tarsi žiūrime vienas į kitą ir sakome: „Am. Visi?'”

