Kreditas: Shutterstock Mašina gali „daryti tai, ką mes žinome, kaip ją įsakyti“, – rašė XIX amžiaus skaičiavimo pradininkė Ada Lovelace. Šis užtikrintas teiginys buvo padarytas atsižvelgiant į Charleso Babbage’o pirmojo mechaninio kompiuterio aprašymą.
Lady Lovelace negalėjo žinoti, kad 2016 m. programa, pavadinta AlphaGo, skirta žaisti ir tobulėti stalo žaidime „Go“, ne tik galės nugalėti visus savo kūrėjus, bet ir padarys tai taip, kad jie negalėtų. paaiškinti.
2023 m. dirbtinio intelekto pokalbių robotas ChatGPT perkelia tai į kitą lygį, palaiko pokalbius keliomis kalbomis, sprendžia mįsles ir netgi išlaiko teisinius ir medicininius egzaminus. Mūsų mašinos dabar gali padaryti tai, ko mes, jų gamintojai, nežinome, „kaip jiems įsakyti“.
Tai sukėlė ir jaudulį, ir susirūpinimą dėl šios technologijos potencialo. Mūsų nerimas kyla dėl to, kad nežinome, ko tikėtis iš šių naujų mašinų, tiek dėl jų tiesioginio elgesio, tiek apie būsimą evoliuciją.
Galime šiek tiek įprasminti jas ir rizikas, jei manome, kad visos jų sėkmės ir dauguma problemų kyla tiesiogiai iš konkretaus recepto, kurio vadovaujamės juos kurdami.
Priežastis, kodėl mašinos dabar gali daryti tai, ko mes, jų kūrėjai, iki galo nesuprantame, yra ta, kad jos tapo pajėgios mokytis iš patirties. „AlphaGo“ tapo toks geras, kai žaidė daugiau „Go“ žaidimų, nei žmogus gali tilpti per visą gyvenimą. Taip pat joks žmogus negalėtų perskaityti tiek knygų, kiek „ChatGPT“ sugėrė.
Nerimo mažinimas
Svarbu suprasti, kad mašinos tapo protingos ir negalvodamos žmogiškai. Vien šis suvokimas gali labai sumažinti sumišimą, taigi ir nerimą.
Intelektas nėra išskirtinai žmogaus gebėjimas, kaip jums pasakys bet kuris biologas, o mūsų specifinis jo prekės ženklas nėra nei jo viršūnė, nei tikslas. Kai kuriems gali būti sunku tai priimti, tačiau intelektas labiau susijęs su vištomis, saugiai kertančiomis kelią, nei su poezijos rašymu.
Kitaip tariant, nebūtinai turėtume tikėtis, kad mašininis intelektas išsivystys į tam tikrą sąmonės formą. Intelektas – tai gebėjimas elgtis teisingai nepažįstamose situacijose, o tai galima rasti mašinose, pavyzdžiui, tuose, kurie rekomenduoja vartotojui naują knygą.
Jei norime suprasti, kaip elgtis su dirbtiniu intelektu, galime grįžti į krizę, kuri pramonę ištiko devintojo dešimtmečio pabaigoje, kai daugelis tyrinėtojų vis dar bandė imituoti tai, ką, mūsų manymu, daro žmonės. Pavyzdžiui, jie bandė suprasti kalbos ar žmogaus samprotavimo taisykles, programuoti jas į mašinas.
Tai neveikė, todėl jie galiausiai pasinaudojo kai kuriomis nuorodomis. Šis žingsnis gali būti vienas iš svarbiausių sprendimų mūsų istorijoje.
Kelio išsišakojimas
Pirmoji nuoroda buvo pasikliauti sprendimų priėmimu remiantis duomenų statistiniais modeliais. Tai pašalino poreikį iš tikrųjų suprasti sudėtingus reiškinius, kuriuos norėjome, kad mašinos imituotų, pavyzdžiui, kalbą. Automatinio užbaigimo funkcija jūsų susirašinėjimo programoje gali atspėti kitą žodį nesuprasdama jūsų tikslų.
Nors kiti turėjo panašių minčių anksčiau, pirmasis, kuris šį metodą iš tikrųjų padarė ir prigijo, tikriausiai buvo Fredrickas Jelinekas iš IBM, kuris, dirbdamas su mašininiu vertimu, išrado „statistinius kalbos modelius“, visų GPT protėvius.
Dešimtojo dešimtmečio pradžioje jis apibendrino šią pirmąją nuorodą šmaikštaudamas: „Kai aš atleidžiu lingvistą, mūsų sistemų našumas pagerėja. Nors komentaras galėjo būti pasakytas juokais, jis atspindėjo realų AI poslinkį nuo bando pamėgdžioti kalbos taisykles.
Šis metodas greitai paplito kitose srityse, todėl atsirado nauja problema: duomenų, reikalingų statistiniams algoritmams mokyti, tiekimas.
Duomenų kūrimas specialiai mokymo užduotims būtų buvęs brangus. Prireikė antrojo šaukinio: vietoj to duomenis buvo galima surinkti iš žiniatinklio.
Kalbant apie vartotojų ketinimų žinojimą, pavyzdžiui, turinio rekomendacijų sistemose, buvo rastas trečias spartusis klavišas: nuolat stebėti vartotojų elgesį ir iš to daryti išvadą, ką jie gali spustelėti.
Šio proceso pabaigoje dirbtinis intelektas buvo pakeistas ir gimė naujas receptas. Šiandien šis metodas randamas visuose internetiniuose vertimuose, rekomendacijose ir atsakymų į klausimus priemonėse.
Kuras eksploatacijai
Nepaisant sėkmės, šis receptas taip pat sukelia problemų. Kaip galime būti tikri, kad svarbūs sprendimai priimami sąžiningai, kai negalime apžiūrėti mašinos vidinio veikimo?
Kaip galime neleisti mašinoms kaupti mūsų asmeninių duomenų, kai būtent tai verčia juos veikti? Kaip galima tikėtis, kad mašina neleis žalingo turinio pasiekti naudotojus, kai ji skirta sužinoti, kas verčia žmones spustelėti?
Nepadeda, kad visa tai įdiegėme labai įtakingoje vietoje pačiame mūsų skaitmeninės infrastruktūros centre ir daug svarbių sprendimų perdavėme dirbtiniam intelektui.
Pavyzdžiui, algoritmai, o ne žmonių sprendimus priimantys asmenys, diktuoja tai, kas mums rodoma socialinėje žiniasklaidoje realiuoju laiku. 2022 metais koroneris, priėmęs sprendimą dėl tragiškos 14-metės Molly Russell mirties, iš dalies apkaltino algoritmą, kuris be prašymo parodė vaikui kenksmingą medžiagą.
Kadangi šie rūpesčiai kyla dėl tų pačių sparčiųjų klavišų, kurie leido sukurti technologiją, bus sunku rasti gerų sprendimų. Dėl šios priežasties Italijos privatumo institucijos pirminiai sprendimai blokuoti „ChatGPT“ sukėlė aliarmą.
Iš pradžių institucija kėlė klausimus dėl be teisinio pagrindo iš interneto renkamų asmens duomenų ir klaidų turinčios pokalbių roboto pateiktos informacijos. Tai galėjo būti rimtas iššūkis visam požiūriui, o faktas, kad jis buvo išspręstas pridedant teisinius atsakomybės apribojimus arba pakeitus sąlygas, gali būti būsimų reguliavimo kovų apžvalga.
Mums reikia gerų įstatymų, o ne pasmerkimo. Dirbtinio intelekto paradigma pasikeitė jau seniai, bet po to neįvyko atitinkamas mūsų teisės aktų ir kultūros pasikeitimas. Tas laikas dabar atėjo.
Prasidėjo svarbus pokalbis apie tai, ko turėtume norėti iš AI, ir tam reikės įvairių tipų mokslininkų. Tikimės, kad jis bus pagrįstas technine realybe, ką sukūrėme ir kodėl, o ne mokslinės fantazijos ar pasaulio pabaigos scenarijais.
Šis straipsnis iš naujo paskelbtas iš The Conversation pagal Creative Commons licenciją. Skaitykite originalų straipsnį.
Citata: Nuomonė: norėdami suprasti AI problemas, peržiūrėkite nuorodas, kurių buvo imtasi kuriant jį (2023 m. gegužės 12 d.), gautus 2023 m. gegužės 12 d. iš https://techxplore.com/news/2023-05-opinion-ai-problems-shortcuts.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

