Kreditas: Shutterstock Dirbtiniu intelektu varomi (DI) pokalbių robotai tampa vis labiau panašūs į žmones, todėl kai kuriems iš mūsų gali būti sunku atskirti žmogų nuo mašinos.
Šią savaitę „Snapchat“ „My AI“ pokalbių robotas sugedo ir paskelbė istoriją apie tai, kas atrodė kaip siena ir lubos, kol nustojo reaguoti į vartotojus. Natūralu, kad internetas pradėjo abejoti, ar „ChatGPT“ veikiantis pokalbių robotas įgijo supratimą.
Greitasis AI raštingumo kursas galėjo numalšinti šią painiavą. Be to, šis incidentas mums primena, kad dirbtinio intelekto pokalbių robotai tampa vis labiau panašūs į žmones, todėl jų įsisavinimo valdymas taps tik sudėtingesnis ir dar svarbesnis.
Nuo taisyklėmis pagrįstų iki prisitaikančių pokalbių robotų
Praėjusių metų pabaigoje po to, kai mūsų ekranuose pasirodė „ChatGPT“, daugelis skaitmeninių platformų integravo dirbtinį intelektą į savo paslaugas. Net kai aš rengiu šį straipsnį apie „Microsoft Word“, programinės įrangos nuspėjamoji AI galimybė siūlo galimus sakinio užbaigimus.
Šis santykinai naujas AI tipas, žinomas kaip generacinis DI, skiriasi nuo savo pirmtakų gebėjimu generuoti naują turinį, kuris būtų tikslus, panašus į žmogų ir iš pažiūros prasmingas.
Generatyvieji AI įrankiai, įskaitant AI vaizdų generatorius ir pokalbių robotus, yra sukurti naudojant didelių kalbų modelius (LLM). Šie skaičiavimo modeliai analizuoja asociacijas tarp milijardų žodžių, sakinių ir pastraipų, kad nuspėtų, kas turėtų būti toliau pateiktame tekste. Kaip sako OpenAI vienas iš įkūrėjų Ilja Sutskeveris, LLM yra „[…] tiesiog tikrai labai geras kito žodžio pranašas.
Pažangūs LLM taip pat yra suderinti su žmonių atsiliepimais. Šis mokymas, dažnai vykstantis per daugybę valandų pigios žmogiškosios darbo jėgos, yra priežastis, dėl kurios dirbtinio intelekto pokalbių robotai dabar gali bendrauti, atrodytų, panašius į žmones.
OpenAI ChatGPT vis dar yra pavyzdinis generacinis AI modelis. Jo išleidimas žymėjo didelį šuolį nuo paprastesnių „taisyklėmis pagrįstų“ pokalbių robotų, tokių kaip tie, kurie naudojami internetinėje klientų aptarnavimo srityje.
Į žmones panašūs pokalbių robotai, kurie kalba į vartotojas, o ne adresu jie buvo susieti su aukštesniu įsitraukimo lygiu. Vienas tyrimas parodė, kad pokalbių robotų personifikacija padidina įsitraukimą, kuris laikui bėgant gali virsti psichologine priklausomybe. Kitame tyrime, kuriame dalyvavo streso patiriantys dalyviai, nustatyta, kad į žmogų panašus pokalbių robotas buvo labiau suvokiamas kaip kompetentingas, todėl labiau tikėtina, kad jis padės sumažinti dalyvių stresą.
Šie pokalbių robotai taip pat buvo veiksmingi įgyvendinant organizacinius tikslus įvairiose aplinkose, įskaitant mažmeninę prekybą, švietimą, darbo vietą ir sveikatos priežiūrą.
„Google“ naudoja generatyvųjį dirbtinį intelektą, kad sukurtų „asmeninio gyvenimo trenerį“, kuris tariamai padės žmonėms atlikti įvairias asmenines ir profesines užduotis, įskaitant patarimus apie gyvenimą ir atsakymą į intymius klausimus.
Taip yra nepaisant to, kad „Google“ dirbtinio intelekto saugos ekspertai perspėja, kad vartotojai gali tapti pernelyg priklausomi nuo dirbtinio intelekto ir gali patirti „susilpnėjusią sveikatą ir gerovę“ bei „agentūros praradimą“, jei pasinaudos jos gyvenimo patarimais.
Draugas ar priešas – ar tik botas?
Neseniai įvykusio „Snapchat“ incidento metu bendrovė viską privertė „laikinai sustabdyti“. Mes galime niekada nežinoti, kas iš tikrųjų atsitiko; tai gali būti dar vienas AI „haliucinacijos“ pavyzdys arba kibernetinės atakos rezultatas ar net tiesiog veiklos klaida.
Bet kuriuo atveju greitis, kuriuo kai kurie vartotojai manė, kad pokalbių robotas susitvarkė, rodo, kad mes matome precedento neturintį AI antropomorfizmą. Tai apsunkina kūrėjų skaidrumo trūkumas ir visuomenės supratimo trūkumas.
Neturėtume nuvertinti, kaip asmenys gali būti suklaidinti dėl akivaizdaus į žmones panašių pokalbių robotų autentiškumo.
Anksčiau šiais metais belgo vyro savižudybė buvo siejama su jo pokalbiais su pokalbių robotu apie klimato neveiklumą ir planetos ateitį. Kitame pavyzdyje buvo nustatyta, kad pokalbių robotas, pavadintas Tessa, teikia žmonėms žalingus patarimus per pagalbos liniją dėl valgymo sutrikimų.
Pokalbių robotai gali būti ypač žalingi labiau pažeidžiamiems žmonėms, ypač tiems, kurie turi psichologinių sutrikimų.
Naujas keistas slėnis?
Galbūt girdėjote apie „neįprasto slėnio“ efektą. Tai reiškia tą nemalonų jausmą, kurį apima, kai pamatai robotą humanoidą beveik atrodo žmogiškai, tačiau dėl nedidelių netobulumų tai atsispindi, ir tai baigiasi šiurpu.
Panašu, kad panaši patirtis atsiranda ir bendraujant su į žmones panašiais pokalbių robotais. Nedidelis blyksnis gali pakelti plaukus ant kaklo.
Vienas iš sprendimų gali būti prarasti žmogiškąjį pranašumą ir grįžti prie paprastų, objektyvių ir faktinių pokalbių robotų. Tačiau tai atsirastų įsitraukimo ir naujovių sąskaita.
Švietimas ir skaidrumas yra svarbiausia
Net pažangių AI pokalbių robotų kūrėjai dažnai negali paaiškinti, kaip jie veikia. Tačiau kai kuriais atžvilgiais (ir kiek tai susiję su komerciniais subjektais) nauda yra didesnė už riziką.
Generatyvusis dirbtinis intelektas įrodė savo naudą didelės vertės srityse, tokiose kaip produktyvumas, sveikatos priežiūra, švietimas ir net socialinė lygybė. Mažai tikėtina, kad tai išnyks. Taigi, kaip tai padaryti mums?
Nuo 2018 m. vyriausybės ir organizacijos labai stengėsi kovoti su AI rizika. Tačiau atsakingų standartų ir taisyklių taikymas technologijai, kuri yra labiau „žmogiška“ nei bet kuri kita, susiduria su daugybe iššūkių.
Šiuo metu Australijos įmonėms nėra teisinio reikalavimo atskleisti pokalbių robotų naudojimą. JAV Kalifornijoje buvo priimtas „botų įstatymo projektas“, pagal kurį to būtų reikalaujama, tačiau teisės ekspertai jame įkišo skyles, o įstatymo projektas dar turi būti įgyvendintas šio straipsnio rašymo metu.
Be to, „ChatGPT“ ir panašūs pokalbių robotai yra viešinami kaip „tyrimų peržiūros“. Tai reiškia, kad jie dažnai pateikiami daug kartų apie jų prototipinį pobūdį, o atsakomybė už atsakingą naudojimą tenka vartotojui.
Europos Sąjungos AI įstatyme, pirmajame pasaulyje išsamiame DI reglamente, nustatytas nuosaikus reguliavimas ir švietimas kaip kelias į priekį, nes perteklinis reguliavimas gali pristabdyti naujoves. Panašiai kaip skaitmeninis raštingumas, dirbtinio intelekto raštingumas turėtų būti privalomas mokyklose, universitetuose ir organizacijose, taip pat turėtų būti nemokamas ir prieinamas visuomenei.
Šis straipsnis iš naujo paskelbtas iš The Conversation pagal Creative Commons licenciją. Skaitykite originalų straipsnį.
Citata: „Snapchat“ „baisi“ AI klaida primena mums, kad pokalbių robotai nėra žmonės. Tačiau linijoms išsiliejus, rizika didėja (2023 m. rugpjūčio 18 d.), gauta 2023 m. rugpjūčio 20 d. iš https://techxplore.com/news/2023-08-snapchat-creepy-ai-blunder-chatbots.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.