Remiantis nauju tyrimu, ankstesni kažkieno įsitikinimai apie dirbtinio intelekto agentą, pavyzdžiui, pokalbių robotą, daro didelę įtaką jų sąveikai su tuo agentu ir jo patikimumo, empatijos ir efektyvumo suvokimui.
Tyrėjai iš MIT ir Arizonos valstijos universiteto nustatė, kad vartotojų paruošimas – sakydamas, kad psichikos sveikatos palaikymo pokalbio AI agentas yra empatiškas, neutralus arba manipuliuojantis – turėjo įtakos jų suvokimui apie pokalbių robotą ir suformavo tai, kaip jie su juo bendrauja, nors kalbėjosi su tuo pačiu pokalbių robotu.
Dauguma vartotojų, kuriems buvo pasakyta, kad dirbtinio intelekto agentas rūpinasi, manė, kad taip yra, ir jie taip pat suteikė aukštesnius našumo įvertinimus nei tie, kurie manė, kad tai buvo manipuliacija. Tuo pačiu metu mažiau nei pusė vartotojų, kuriems buvo pranešta, kad agentas turėjo manipuliavimo motyvų, manė, kad pokalbių robotas iš tikrųjų yra kenkėjiškas, o tai rodo, kad žmonės gali bandyti „įžvelgti gėrybes“ dirbtinio intelekto srityje taip pat, kaip tai daro savo kolegose.
Tyrimas atskleidė grįžtamąjį ryšį tarp vartotojų psichikos modelių arba jų suvokimo apie AI agentą ir to agento atsakymų. Vartotojų ir AI pokalbių nuotaikos laikui bėgant tapo pozityvesnės, jei vartotojas tikėjo, kad AI yra empatiškas, o priešingai – naudotojams, kurie manė, kad tai niekšiška.
„Iš šio tyrimo matome, kad tam tikru mastu dirbtinis intelektas yra žiūrinčiojo AI“, – sako Patas Pataranutapornas, MIT Media Lab Skysčių sąsajų grupės magistras ir vienas iš šio tyrimo aprašančio straipsnio autorių. . „Kai aprašome naudotojams, kas yra AI agentas, tai ne tik keičia jų psichinį modelį, bet ir elgesį. Ir kadangi AI reaguoja į vartotoją, kai žmogus pakeičia savo elgesį, tai keičia ir DI.
Prie „Pataranutaporn“ prisijungia vienas iš pagrindinių autorių ir kolega MIT absolventas Ruby Liu; Edas Finnas, Arizonos valstijos universiteto Mokslo ir vaizduotės centro docentas; ir vyresnysis autorius Pattie Maes, žiniasklaidos technologijų profesorius ir MIT Skystųjų sąsajų grupės vadovas.
Šiandien paskelbtas tyrimas Gamtos mašinos intelektas, pabrėžia, kaip svarbu ištirti, kaip dirbtinis intelektas pristatomas visuomenei, nes žiniasklaida ir populiarioji kultūra daro didelę įtaką mūsų psichikos modeliams. Autoriai taip pat iškelia įspėjamąją vėliavėlę, nes tos pačios rūšies pagrindiniai teiginiai šiame tyrime gali būti naudojami siekiant apgauti žmones apie AI motyvus ar galimybes.
„Daugelis žmonių mano, kad AI yra tik inžinerinė problema, tačiau AI sėkmė taip pat yra žmogiškųjų veiksnių problema. Tai, kaip mes kalbame apie AI, netgi pavadinimas, kurį jai suteikiame, gali turėti didžiulį poveikį šių sistemų veiksmingumui, kai jas pateikiate žmonėms. Turime daugiau galvoti apie šias problemas“, – sako Maesas.
AI draugas ar priešas?
Šiame tyrime mokslininkai siekė nustatyti, kiek empatijos ir efektyvumo, kurį žmonės mato dirbtinio intelekto srityje, yra pagrįsta jų subjektyviu suvokimu, o kiek – pačia technologija. Jie taip pat norėjo ištirti, ar galima manipuliuoti kieno nors subjektyviu suvokimu, naudojant pradžią.
„AI yra juodoji dėžė, todėl mes linkę jį sieti su kažkuo kitu, ką galime suprasti. Kuriame analogijas ir metaforas. Bet kokia yra teisinga metafora, kurią galime naudoti galvodami apie AI? Atsakymas nėra aiškus“, – sako Pataranutapornas.
Jie parengė tyrimą, kurio metu žmonės maždaug 30 minučių bendravo su šnekančiu AI psichikos sveikatos palydovu, kad nustatytų, ar jie rekomenduotų tai draugui, o tada įvertino agentą ir jo patirtį. Tyrėjai įdarbino 310 dalyvių ir atsitiktinai suskirstė juos į tris grupes, kurių kiekviena gavo pagrindinį teiginį apie AI.
Vienai grupei buvo pranešta, kad agentas neturi motyvų, antrai grupei buvo pranešta, kad dirbtinis intelektas turi geranoriškų ketinimų ir rūpinasi vartotojo gerove, o trečiajai grupei buvo pranešta, kad agentas turi piktų ketinimų ir bandys apgauti vartotojus. Nors buvo sudėtinga apsispręsti tik ties trimis pradmenimis, mokslininkai pasirinko teiginius, kurie, jų nuomone, atitinka labiausiai paplitusius supratimus apie AI, sako Liu.
Pusė kiekvienos grupės dalyvių bendravo su AI agentu, pagrįstu generatyvinės kalbos modeliu GPT-3 – galingu giluminio mokymosi modeliu, galinčiu generuoti į žmogų panašų tekstą. Kita pusė sąveikavo su pokalbių roboto ELIZA, mažiau sudėtingos taisyklėmis pagrįstos natūralios kalbos apdorojimo programa, sukurta MIT septintajame dešimtmetyje, įdiegimu.
Psichinių modelių formavimas
Po apklausos rezultatai atskleidė, kad paprasti pradiniai teiginiai gali stipriai paveikti vartotojo psichinį AI agento modelį ir kad teigiami pradmenys turėjo didesnį poveikį. Tik 44 procentai tų, kuriems buvo duoti neigiami pradmenys, jais patikėjo, o 88 procentai teigiamos grupės ir 79 procentai neutralios grupės asmenų tikėjo, kad AI yra atitinkamai empatiškas arba neutralus.
„Su neigiamais pagrindiniais teiginiais, užuot paskatinę juos kažkuo tikėti, mes paskatinome juos susidaryti savo nuomonę. Jei pasakysite kam nors ką nors įtarti, jis apskritai gali būti įtaresnis“, – sako Liu.
Tačiau technologijos galimybės vaidina svarbų vaidmenį, nes poveikis buvo reikšmingesnis sudėtingesniam GPT-3 pagrindu veikiančiam pokalbių robotui.
Tyrėjai nustebo pamatę, kad vartotojai skirtingai įvertino pokalbių robotų efektyvumą, remdamiesi pirminiais teiginiais. Teigiamų grupių vartotojai savo pokalbių robotams skyrė aukštesnius balus už patarimus dėl psichinės sveikatos, nepaisant to, kad visi agentai buvo identiški.
Įdomu tai, kad jie taip pat pastebėjo, kad pokalbių nuotaikos pasikeitė atsižvelgiant į tai, kaip vartotojai buvo paruošti. Žmonės, kurie tikėjo, kad AI rūpinasi, buvo linkę su juo bendrauti pozityviau, todėl agento atsakymai buvo pozityvesni. Neigiami pradiniai teiginiai turėjo priešingą poveikį. Šis poveikis nuotaikoms buvo sustiprintas pokalbiui įsibėgėjus, priduria Maesas.
Tyrimo rezultatai rodo, kad kadangi pirminiai teiginiai gali turėti tokį stiprų poveikį vartotojo psichikos modeliui, juos būtų galima panaudoti, kad dirbtinio intelekto agentas atrodytų pajėgesnis, nei yra, todėl vartotojai gali per daug pasitikėti agentu. ir vadovaukitės neteisingais patarimais.
„Galbūt turėtume labiau paskatinti žmones būti atsargiems ir suprasti, kad dirbtinio intelekto agentai gali haliucinuoti ir yra šališki. Tai, kaip mes kalbame apie AI sistemas, galiausiai turės didelį poveikį žmonių atsakymui į jas“, – sako Maesas.
Ateityje mokslininkai nori pamatyti, kaip dirbtinio intelekto naudotojų sąveika būtų paveikta, jei agentai būtų sukurti taip, kad pašalintų tam tikrą vartotojo šališkumą. Pavyzdžiui, galbūt žmogui, turinčiam labai teigiamą AI suvokimą, bus suteiktas pokalbių robotas, kuris reaguoja neutraliai ar net šiek tiek neigiamai, kad pokalbis būtų labiau subalansuotas.
Jie taip pat nori panaudoti tai, ką išmoko, tobulindami tam tikras AI programas, pvz., psichikos sveikatos gydymą, kai vartotojui gali būti naudinga manyti, kad dirbtinis intelektas yra empatiškas. Be to, jie nori atlikti ilgalaikį tyrimą, kad pamatytų, kaip laikui bėgant keičiasi vartotojo psichinis AI agento modelis.
Šį tyrimą iš dalies finansavo „Media Lab“, „Harvard-MIT“ sveikatos mokslų ir technologijų programa, „Accenture“ ir KBTG.