Kreditas: Pixabay / CC0 viešasis domenas 2023 m. kovo 22 d. tūkstančiai tyrėjų ir technologijų lyderių, įskaitant Eloną Muską ir „Apple“ įkūrėją Steve’ą Wozniaką, paskelbė atvirą laišką, raginantį sulėtinti dirbtinio intelekto lenktynes. Konkrečiai, laiške rekomenduojama, kad laboratorijos bent šešiems mėnesiams pristabdytų technologijų, stipresnių nei OpenAI GPT-4, pažangiausios kartos kalbų generuojančių AI sistemų, mokymą.
Pavojaus signalas dėl dirbtinio intelekto keliamos rizikos nėra jokia naujiena – akademikai jau dešimtmečius įspėjo apie superintelektinių mašinų keliamą pavojų. Vis dar nėra sutarimo dėl tikimybės sukurti dirbtinį bendrąjį intelektą, autonomines AI sistemas, kurios atitiktų arba viršytų žmones atliekant ekonomiškai vertingiausias užduotis. Tačiau akivaizdu, kad dabartinės AI sistemos jau kelia daug pavojų – nuo rasinio šališkumo veido atpažinimo technologijoje iki padidėjusios dezinformacijos ir mokinių apgaudinėjimo grėsmės.
Nors laiške pramonės atstovai ir politikos formuotojai raginami bendradarbiauti, šiuo metu nėra mechanizmo, kaip užtikrinti tokią pauzę. Kaip filosofas, studijuojantis technologijų etiką, pastebėjau, kad dirbtinio intelekto tyrimai rodo „nemokamų vairuotojų problemą“. Norėčiau teigti, kad tai turėtų padėti visuomenei reaguoti į riziką – ir gerų ketinimų nepakaks.
Jodinėjimas nemokamai
Laisvas jojimas yra dažna pasekmė to, ką filosofai vadina „kolektyvinio veikimo problemomis“. Tai yra situacijos, kai konkretus veiksmas būtų naudingas visiems, kaip grupei, tačiau kiekvienam nariui būtų naudinga to nedaryti.
Tokios problemos dažniausiai susijusios su viešosiomis gėrybėmis. Pavyzdžiui, tarkime, kad miesto gyventojai yra bendrai suinteresuoti finansuoti metro sistemą, o tai reikalauja, kad kiekvienas iš jų sumokėtų nedidelę sumą per mokesčius ar bilietus. Naudinga būtų visiems, tačiau kiekvienam asmeniškai naudinga sutaupyti pinigų ir nemokėti teisingos dalies. Galų gale, jie vis tiek galės mėgautis metro, jei dauguma kitų žmonių sumokės.
Iš čia kyla „nemokamų vairuotojų“ problema: kai kurie asmenys nepridės savo dalies, bet vis tiek gaus „nemokamą važiavimą“ – tiesiogine prasme, metro atveju. Tačiau jei kiekvienas asmuo nemokėtų, niekas neturės naudos.
Filosofai linkę įrodinėti, kad neetiška „važinėtis nemokamai“, nes laisvai važinėjantys asmenys nesugeba atlyginti kitiems, sumokėjus jiems sąžiningą dalį. Daugelis filosofų taip pat teigia, kad „free riders“ nevykdo savo pareigų, susijusių su socialine sutartimi, kolektyviai sutartais bendradarbiavimo principais, kurie valdo visuomenę. Kitaip tariant, jie nevykdo savo pareigos būti prisidedančiais visuomenės nariais.
Padaryti pauzę ar eiti į priekį?
Kaip ir metro, dirbtinis intelektas yra viešoji gėrybė, nes ji gali atlikti užduotis daug efektyviau nei žmonės operatoriai: nuo pacientų diagnozavimo analizuojant medicininius duomenis iki didelės rizikos darbų kariuomenėje perėmimo ar kasybos saugos gerinimo.
Tačiau jo nauda ir pavojai turės įtakos visiems, net žmonėms, kurie asmeniškai nenaudoja dirbtinio intelekto. Siekiant sumažinti AI riziką, visi yra suinteresuoti, kad pramonės tyrimai būtų atliekami kruopščiai, saugiai ir tinkamai prižiūrint bei skaidriai. Pavyzdžiui, dezinformacija ir netikros naujienos jau kelia rimtą grėsmę demokratijoms, tačiau dirbtinis intelektas gali paaštrinti problemą, nes „netikras naujienas“ skleis greičiau ir efektyviau, nei gali žmonės.
Net jei kai kurios technologijų įmonės savo noru sustabdytų savo eksperimentus, kitos korporacijos būtų suinteresuotos tęsti savo dirbtinio intelekto tyrimus, kad galėtų laimėti AI ginklavimosi lenktynėse. Be to, savanoriškai pristabdžius AI eksperimentus, kitos įmonės galėtų nemokamai važiuoti, galiausiai kartu su likusia visuomene pasinaudodamos saugesnio, skaidresnio AI kūrimo pranašumais.
„OpenAI“ generalinis direktorius Samas Altmanas pripažino, kad bendrovė bijo jos pokalbių roboto sistemos „ChatGPT“ keliamos rizikos. „Čia turime būti atsargūs“, – sakė jis interviu „ABC News“, paminėdamas, kad dirbtinis intelektas gali skleisti dezinformaciją. „Manau, kad žmonės turėtų džiaugtis, kad mes to šiek tiek bijome“.
Laiške, paskelbtame 2023 m. balandžio 5 d., „OpenAI“ teigė, kad bendrovė mano, kad galingoms AI sistemoms reikia reguliavimo, kad būtų užtikrintas išsamus saugos vertinimas, ir kad ji „aktyviai bendradarbiaus su vyriausybėmis dėl geriausios tokio reguliavimo formos“. Nepaisant to, OpenAI tęsia laipsnišką GPT-4 diegimą, o likusi pramonės dalis taip pat toliau kuria ir moko pažangius AI.
Pribrendo reguliavimui
Dešimtmečius socialinių mokslų tyrinėjimai apie kolektyvinių veiksmų problemas parodė, kad ten, kur pasitikėjimo ir geros valios nepakanka, kad būtų išvengta laisvųjų vairuotojų, reguliavimas dažnai yra vienintelė alternatyva. Savanoriškas įsipareigojimų laikymasis yra pagrindinis veiksnys, sukuriantis nemokamo motociklininko scenarijus, o vyriausybės veiksmai kartais yra būdas tai sustabdyti.
Be to, tokios taisyklės turi būti vykdomos. Galų gale, būsimi metro vairuotojai greičiausiai nesumokės bilieto kainos, nebent grėstų bausmė.
Paimkime vieną dramatiškiausių laisvalaikio problemų šiandieniniame pasaulyje: klimato kaitą. Kaip planeta, mes visi esame labai suinteresuoti išlaikyti gyvenamąją aplinką. Tačiau sistemoje, kuri leidžia laisvai važiuoti, bet kuri šalis iš tikrųjų gali laikytis ekologiškesnių gairių yra menka.
Paryžiaus susitarimas, kuris šiuo metu yra labiausiai apimantis pasaulinis susitarimas dėl klimato kaitos, yra savanoriškas, o Jungtinės Tautos neturi jokių galimybių jį įgyvendinti. Net jei Europos Sąjunga ir Kinija savanoriškai apribotų savo emisijas, Jungtinės Valstijos ir Indija galėtų „nemokamai naudotis“ anglies dioksido mažinimu ir toliau išmesti.
Pasaulinis iššūkis
Panašiai „free-rider“ problema pagrindžia argumentus reguliuoti AI plėtrą. Tiesą sakant, klimato kaita yra ypač artima paralelė, nes nei dirbtinio intelekto keliama rizika, nei šiltnamio efektą sukeliančių dujų emisija neapsiriboja programos kilmės šalimi.
Be to, lenktynės sukurti pažangesnį AI yra tarptautinės. Net jei JAV įvestų federalinį dirbtinio intelekto tyrimų ir plėtros reguliavimą, Kinija ir Japonija galėtų laisvai važiuoti ir tęsti savo vietines AI programas.
Veiksmingam dirbtinio intelekto reguliavimui ir vykdymui, kaip ir klimato kaitos atveju, reikės visuotinių kolektyvinių veiksmų ir bendradarbiavimo. JAV norint užtikrinti griežtą vykdymą, reikės federalinės mokslinių tyrimų priežiūros ir galimybės skirti dideles baudas arba nutraukti neatitinkančius dirbtinio intelekto eksperimentus, kad būtų užtikrintas atsakingas vystymasis, nesvarbu, ar tai būtų reguliavimo priežiūros valdybos, informatorių apsauga arba, kraštutiniais atvejais, laboratorijų ar tyrimų uždarymas. ir baudžiamieji kaltinimai.
Tačiau jei nebus imtasi priemonių, bus nemokami vairuotojai, o nemokami vairuotojai reiškia, kad AI grėsmė greitai nesumažės.
Šis straipsnis iš naujo paskelbtas iš The Conversation pagal Creative Commons licenciją. Skaitykite originalų straipsnį.
Citata: AI parodo „free rider“ problemą – štai kodėl tai nurodo reglamentą (2023 m. gegužės 5 d.), gautą 2023 m. gegužės 5 d. iš https://techxplore.com/news/2023-05-ai-exemplifies-free-rider-problemčia .html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

