Kreditas: Pixabay / CC0 viešasis domenas Daugelis pramonės šakų, nuo pramogų iki medicinos, kovoja su sudėtingo dirbtinio intelekto (AI) atsiradimu. Ne išimtis ir moksliniai tyrimai. Finansavimo agentūros jau riboja generatyvaus teksto AI, pvz., ChatGPT, naudojimą tarpusavio peržiūrai, nurodydamos šių algoritmų analizės nenuoseklumą, jų mokymo modelių neskaidrumą ir kitas problemas.
Tačiau dviem Džordžo Vašingtono universiteto profesoriams verta atidžiai išnagrinėti didelių kalbų modelių (LLM), įskaitant OpenAI ChatGPT, Meta LlAMA2 ir Google BARD, galimybes – ir atsargaus optimizmo.
Johnas Paulas Helvestonas, Inžinerijos ir taikomųjų mokslų mokyklos inžinerijos valdymo ir sistemų inžinerijos docentas, ir Ryanas Watkinsas, Švietimo ir žmogaus raidos aukštosios mokyklos profesorius ir Švietimo technologijų lyderystės programos direktorius, mano, kad LLM turi galimybė racionalizuoti ir tobulinti mokslinio metodo aspektus ir taip sudaryti sąlygas atlikti daugiau naudingų, įdomių tyrimų. Tačiau norint juos naudoti tokiu būdu, žmonėms reikia geresnio išsilavinimo apie tai, ką šie algoritmai gali ir ko negali, kokie dirbtinio intelekto standartai ir (arba) normos egzistuoja jų disciplinoje ir kaip juos naudoti efektyviausiai.
Tuo tikslu Helvestonas ir Watkinsas bendrai valdo internetinę saugyklą „LLMs in Science“, kurioje pateikiami duomenys ir ištekliai mokslininkams ir pedagogams, kurie tyrinėja technologijos, kaip tyrimo priemonės, potencialą.
„Praėjusį pavasarį Johnas pasakė kažką įžvalgaus apie tai, kaip žmonės galėtų naudoti LLM kaip savo mokslinės darbo eigos dalį, o aš pasakiau: „Na, turėtume pradėti rinkti informaciją apie tai, kaip tai vyksta, ir išsiaiškinti, kokios bus normos ir standartus, kaip juos naudojame“, – prisiminė Watkinsas.
LLM mokosi kolosaliuose duomenų rinkiniuose, kad atpažintų modelius – tikėtinus tam tikrų žodžių tarpusavio ryšius, tikimybę, kad tam tikros žodžių grupės yra susijusios su konkrečiais dalykais – ir tada naudoja iš tų modelių sugeneruotas tikimybes, kad nuspėtų atsakymus į vartotojų sugeneruotas užklausas. Šie algoritmai numato ne tik kokius žodžius ir frazes naudoti, bet ir seką, kuria tie žodžiai ir frazės turėtų sekti vienas kitą, todėl gaunami „žmogiški“ atsakymai.
„ChatGPT-3“, sulaukęs didžiulio atgarsio 2022 m., buvo apmokytas naudojant daugiau nei 570 GB duomenų – 300 milijardų žodžių, o tai atitinka 1,6 mln. „Didžiųjų lūkesčių“ kopijų, surinktų iš internetinių tekstinių duomenų bazių.
Helvestonas ir Watkinsas, pradėję bendradarbiauti kaip „GW Coders“ fakulteto patarėjai, anksti žinojo, kad LLM pažadai neapsiriboja vien duomenų regurgitacija. Tiesą sakant, programos gali sutaupyti daug laiko ir energijos toms mokslininko darbo dalims, kurioms nereikia žmogaus kūrybingumo ar bendradarbiavimo: supaprastinta kalba, apibrėžiant dotacijos pasiūlymą, sukuriant „virtualius duomenis“, kuriuos naudojant galima naudoti analitinę priemonę. apmokytas ir daugiau.
Atitinkamai, LLMs in Science ištekliai apima besikeičiantį galimų LLM panaudojimo mokslinį sąrašą, mokymus apie LLM naudojimą, rekomendacijas recenzentams, vertinantiems mokslinius tyrimus, kuriuose naudojami LLM, tyrimų apie LLM naudojimą įvairiose srityse duomenų bazę ir daugiau.
Tokios žinios yra būtinos ne tik siekiant atkartoti mokslinius tyrimus, kuriuose naudojami LLM, bet ir norint teisingai įvertinti, kada šias priemones reikia naudoti ir kada ne.
Jie vis dar turi didelių apribojimų, kaip Helvestonas pademonstravo pirmąją savo kodavimo pamokos dieną praėjusiais metais atidarydamas ChatGPT ir leisdamas jam veikti savo mokiniams. Helvestonas pirmiausia nurodė algoritmui išversti sakinį į rusų kalbą, panašų į „Sveiki atvykę į pamoką ir gerai praleiskime semestrą“. Jis paklausė savo mokinių: ar kas nors iš jūsų kalba rusiškai? Ne? Na, ar garsiai perskaitytumėte šią frazę rusakalbiui? Jei taip, ar visiškai pasitikėtumėte jo tikslumu? Atsakymas buvo akivaizdus visiems, susipažinusiems su automatinio vertimo trūkumais: tikriausiai ne.
Tada Helvestonas paprašė ChatGPT parašyti kompiuterio funkciją su tam tikrais atributais, kurie duotų konkrečius rezultatus. Jis dar kartą paklausė savo mokinių: ar jie patikės šiuo kodu, kad padarytų tai, ką jis turėjo? Jie nenorėtų. Na, tokia yra šios klasės esmė, sakė Helvestonas – kaip rusų klasė mokys juos pastebėti blogo vertimo klaidas, ši kodavimo klasė išmokys skaityti kalbą, kuria parašytos programos, ir pastebėti klaidas.
„Įrankis nenaudingas, jei nemoki kalbos, ir [students are] čia mokytis kalbos“, – sakė Helvestonas.
Suprantama, kad pedagogai išreiškė susirūpinimą dėl ChatGPT, kuris, kai kurių nuomone, gali padidinti akademinį nesąžiningumą. Tačiau Helvestonas ir Watkinsas teigia, kad, remiantis jų patirtimi, jei studentai bus mokomi, kaip ir kada naudoti LLM kaip mokymosi įrankius, jie iš tikrųjų gali mokytis geriau. Kiekybiškai, pasak Helvestono, jo studentams šį pavasarį ranka rašytas programavimo egzaminas sekėsi geriau nei ankstesniais metais.
„Manau, kad bent jau kiekvienam profesoriui šio kurso programoje reikia skyriaus apie AI ir kaip jis bus naudojamas ar ne“, – sakė Watkinsas. „Tai svyruos įvairiose klasėse ir dėstytojų pageidavimuose, bet kaip dėstytojai turime tai spręsti su savo studentais ir aš negaliu galvoti apie vieną kursą, kuriame tai nebūtų aktualu.
„Mes dar nežinome, ar tai pakeis mokinių mokymąsi“, – sakė Helvestonas. „Norime mokinius išmokyti naudotis šiomis priemonėmis, nes [AI is] ateitis, kaip bus atliktos tam tikros užduotys. Tačiau mes taip pat norime, kad jie žinotų, kaip suabejoti rezultatais.
Citata: Ar ChatGPT gali būti jūsų tyrimo bendraautorius? (Ne, bet tai gali padėti atliekant tyrimą) (2023 m. rugpjūčio 29 d.) gauta 2023 m. rugpjūčio 29 d. iš https://techxplore.com/news/2023-08-chatgpt-co-author.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.