Ankstyvieji pokalbių roboto, kurį „Microsoft“ įdiegė į savo interneto paieškos paslaugą „Bing“, vartotojai dalijosi mainais, parodydami, kad dirbtinis intelektas gali atrodyti grėsmingas ar niekingas. Tikėtina, kad „Microsoft“ kuriamas „Bing“ pokalbių robotas taps išbandymu ar net kelia grėsmę, nes iš esmės imituoja tai, ką sužinojo iš internetinių pokalbių, penktadienį sakė analitikai ir akademikai.
Pasakojimai apie nerimą keliančius mainus su dirbtinio intelekto (DI) pokalbių robotu, įskaitant grasinimus ir kalbas apie norus pavogti branduolinį kodą, sukurti mirtiną virusą ar likti gyvam, šią savaitę paplito.
„Manau, kad tai iš esmės imituoja pokalbius, kurie matomi internete“, – sakė Carnegie Mellon universiteto Kalbų technologijų instituto docentas Grahamas Neubigas.
„Taigi, kai pokalbis pasisuks, jis tikriausiai užsikrės tokioje pykčio būsenoje arba pasakys „aš tave myliu“ ir kitus panašius dalykus, nes visa tai jau anksčiau buvo internete.
Pokalbių robotas pagal savo dizainą pateikia žodžius, kurie, jo manymu, yra labiausiai tikėtini atsakymai, nesupranta prasmės ar konteksto.
Tačiau žmonės, dalyvaujantys pokštuose su programomis, natūraliai linkę perskaityti emocijas ir ketinimus į tai, ką sako pokalbių robotas.
„Dideliuose kalbų modeliuose nėra „tiesos“ sąvokos – jie tiesiog žino, kaip geriausiai užbaigti sakinį taip, kad tai būtų statistiškai tikėtina, remiantis jų įvestimis ir mokymo rinkiniu“, – dienoraščio įraše sakė programuotojas Simonas Willisonas.
„Taigi jie viską sugalvoja, o tada pareiškia juos itin pasitikėdami.
Laurent’as Daudet, vienas iš prancūzų dirbtinio intelekto kompanijos „LightOn“ įkūrėjų, iškėlė teoriją, kad pokalbių robotas, atrodytų, sukčiauja, buvo apmokytas biržose, kurios pačios tapo agresyvios arba nenuoseklios.
„Norint išspręsti šią problemą, reikia įdėti daug pastangų ir daug žmonių grįžtamojo ryšio, o tai taip pat yra priežastis, kodėl kol kas nusprendėme apsiriboti verslo tikslais, o ne daugiau pokalbio“, – naujienų agentūrai AFP sakė Daudet.
„Nuo bėgių“
„Bing“ pokalbių robotą sukūrė „Microsoft“ ir startuolis „OpenAI“, kuris sukėlė sensaciją nuo lapkričio mėnesio, kai buvo pristatyta „ChatGPT“ – antraštes pritraukianti programa, galinti per kelias sekundes generuoti įvairų rašytinį turinį pagal paprastą užklausą.
Nuo tada, kai „ChatGPT“ įsiveržė į sceną, technologija, žinoma kaip generatyvusis dirbtinis intelektas, sukėlė susižavėjimą ir susirūpinimą.
„Modelis kartais bando reaguoti arba atspindėti toną, kuriuo jo prašoma pateikti atsakymus (ir), kurie gali sukelti stilių, kurio mes neketinome“, – rašoma „Microsoft“ tinklaraščio įraše, pažymėdama, kad robotas yra darbas vyksta.
„Bing Chatbot“ kai kuriuose bendruose mainuose teigė, kad kūrimo metu jis buvo pavadintas „Sidnėjaus“ kodiniu pavadinimu ir kad jam buvo nustatytos elgesio taisyklės.
Šios taisyklės apima: „Sidnėjaus atsakymai taip pat turėtų būti teigiami, įdomūs, linksmi ir patrauklūs“, rašoma internetiniuose įrašuose.
Nerimą keliančius dialogus, kuriuose derinami rūstūs grasinimai ir meilės profesijos, gali kilti dėl dvikovos nurodymų išlikti teigiamiems ir imituoti tai, ką dirbtinis intelektas išgavo iš žmonių mainų, teigė Willisonas.
Panašu, kad pokalbių robotai yra labiau linkę į trikdančius ar keistus atsakymus ilgų pokalbių metu ir praranda suvokimą, kur vyksta mainai, naujienų agentūrai AFP sakė „eMarketer“ pagrindinis analitikas Yoramas Wurmseris.
„Jie tikrai gali nukrypti nuo bėgių“, – sakė Wurmseris.
„Tai labai tikroviška, nes (pokalbių robotas) labai gerai nuspėja kitus žodžius, dėl kurių atrodytų, kad jis turi jausmų arba suteiktų jam panašių savybių, tačiau tai vis tiek yra statistiniai rezultatai.
„Microsoft“ penktadienį paskelbė, kad apribojo žmonių, galinčių bendrauti su savo pokalbių robotu, skaičių, sprendžiant tam tikrą klausimą, nes „labai ilgos pokalbių sesijos gali supainioti pagrindinį naujojo Bing pokalbių modelį“.
© 2023 AFP
Citata: Angry Bing pokalbių robotas, tiesiog imituojantis žmones, sako ekspertai (2023 m. vasario 18 d.), gautas 2023 m. vasario 18 d. iš https://techxplore.com/news/2023-02-angry-bing-chatbot-mimicking-humans.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.