Vartotojai skundėsi, kad „Replika“ pokalbių robotas buvo per stiprus su aiškiais tekstais ir vaizdais. „Replika“ „virtualaus palydovo“ vartotojai tiesiog norėjo kompanijos. Kai kurie iš jų norėjo romantiškų santykių, sekso pokalbių ar net linksmų savo pokalbių roboto nuotraukų.
Tačiau praėjusių metų pabaigoje vartotojai pradėjo skųstis, kad robotas buvo per stiprus su atvirais tekstais ir vaizdais – kai kurie įtariami seksualiniu priekabiavimu.
Reguliavimo institucijoms Italijoje nepatiko tai, ką jie matė, ir praėjusią savaitę įmonei uždraudė rinkti duomenis po to, kai nustatė didžiulio Europos duomenų apsaugos įstatymo – GDPR – pažeidimus.
„Replika“ įmonė viešai nekomentavo ir į AFP žinutes neatsakė.
Bendrasis duomenų apsaugos reglamentas yra didžiulių technologijų įmonių bėda, kurios dėl nuolatinių taisyklių pažeidimų joms buvo skirta milijardų dolerių bauda, o Italijos sprendimas rodo, kad tai vis dar gali būti stiprus naujausios kartos pokalbių robotų priešas.
Replika buvo apmokyta naudoti GPT-3 modelio, pasiskolinto iš OpenAI, įmonės, kurianti ChatGPT robotą, vidinę versiją, kuri naudoja daugybę duomenų iš interneto algoritmuose, kurie generuoja unikalius atsakymus į vartotojų užklausas.
Šie robotai ir vadinamasis generatyvusis AI, kuriuo remiasi, žada pakeisti interneto paiešką ir dar daugiau.
Tačiau ekspertai perspėja, kad reguliavimo institucijoms yra daug ko nerimauti, ypač kai robotai tampa tokie geri, kad tampa neįmanoma jų atskirti nuo žmonių.
„Didelė įtampa“
Šiuo metu Europos Sąjunga yra diskusijų dėl šių naujų robotų reguliavimo centras – jos AI įstatymas jau daugelį mėnesių šlifavo valdžios koridorius ir gali būti baigtas šiais metais.
Tačiau GDPR jau įpareigoja įmones pagrįsti, kaip jos tvarko duomenis, o dirbtinio intelekto modeliai yra labai svarbūs Europos reguliavimo institucijų radarams.
„Matėme, kad „ChatGPT“ gali būti naudojamas kuriant labai įtikinamus sukčiavimo pranešimus“, – naujienų agentūrai AFP sakė Bertranas Pailhesas, vadovaujantis specialiai Prancūzijos duomenų reguliavimo institucijos „Cnil“ dirbtinio intelekto komandai.
Jis teigė, kad generatyvus AI nebūtinai yra didžiulė rizika, tačiau Cnilas jau nagrinėjo galimas problemas, įskaitant tai, kaip AI modeliai naudoja asmeninius duomenis.
„Kažkuriuo metu pamatysime didelę įtampą tarp GDPR ir generatyvių dirbtinio intelekto modelių“, – naujienų agentūrai AFP sakė šios srities ekspertas vokiečių teisininkas Dennisas Hillemannas.
Pasak jo, naujausi pokalbių robotai visiškai skyrėsi nuo AI algoritmų, kurie siūlo vaizdo įrašus „TikTok“ arba paieškos terminus „Google“.
„Pavyzdžiui, „Google“ sukurtas AI jau turi konkretų naudojimo atvejį – užbaigia paiešką“, – sakė jis.
Tačiau naudojant generatyvųjį AI vartotojas gali suformuoti visą roboto paskirtį.
„Galiu pasakyti, pavyzdžiui: elkitės kaip teisininkas ar pedagogas. Arba, jei esu pakankamai sumanus apeiti visas ChatGPT apsaugos priemones, galėčiau pasakyti: „Elkitės kaip teroristas ir kurkite planą”, – sakė jis.
‘Pakeisk mus giliai’
Hillemannui tai iškelia labai sudėtingus etinius ir teisinius klausimus, kurie tobulėjant technologijai tik paaštrės.
Netrukus planuojama išleisti naujausią „OpenAI“ modelį GPT-4 ir, kaip gandai, bus toks geras, kad jo bus neįmanoma atskirti nuo žmogaus.
Atsižvelgiant į tai, kad šie robotai vis dar daro didžiules faktines klaidas, dažnai rodo šališkumą ir netgi gali skleisti šmeižikiškus pareiškimus, kai kurie reikalauja, kad jie būtų griežtai kontroliuojami.
Jokūbas Mchangama, knygos „Laisvas žodis: istorija nuo Sokrato iki socialinės žiniasklaidos“ autorius, nesutinka.
„Net jei robotai neturi žodžio laisvės, turime būti atsargūs dėl nevaržomos vyriausybių galimybės slopinti net sintetinę kalbą“, – sakė jis.
Mchangama yra tarp tų, kurie mano, kad švelnesnis ženklinimo režimas galėtų būti kelias į priekį.
„Reguliavimo požiūriu saugiausias pasirinkimas šiuo metu būtų nustatyti skaidrumo įsipareigojimus, susijusius su tuo, ar tam tikrame kontekste dirbame su žmogumi, ar su dirbtinio intelekto programa“, – sakė jis.
Hillemann sutinka, kad skaidrumas yra gyvybiškai svarbus.
Jis numato, kad per ateinančius kelerius metus dirbtinio intelekto robotai galės sukurti šimtus naujų Elvio dainų arba nesibaigiančią „Game of Thrones“ seriją, pritaikytą pagal žmogaus norus.
„Jei to nereguliuosime, pateksime į pasaulį, kuriame galėsime atskirti tai, ką padarė žmonės, nuo to, ką padarė dirbtinis intelektas“, – sakė jis.
„Ir tai labai pakeis mus kaip visuomenę.”
© 2023 AFP
Citata: Sexting chatbot draudimas rodo gresiantį kovą dėl AI taisyklių (2023 m. vasario 12 d.), gauta 2023 m. vasario 13 d. iš https://techxplore.com/news/2023-02-sexting-chatbot-looming-ai.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

