Kreditas: Pixabay / CC0 viešasis domenas Dideli kalbų modeliai (LLM) yra pažangūs giluminio mokymosi algoritmai, galintys analizuoti raginimus įvairiomis žmonių kalbomis ir vėliau generuoti realistiškus ir išsamius atsakymus. Ši daug žadanti natūralios kalbos apdorojimo (NLP) modelių klasė tapo vis populiaresnė po atvirojo AI ChatGPT platformos išleidimo, kuri gali greitai atsakyti į daugybę vartotojų užklausų ir sukurti įtikinamus rašytinius tekstus įvairiems tikslams.
Kadangi šie modeliai vis labiau plinta, labai svarbu įvertinti jų galimybes ir apribojimus. Šie vertinimai galiausiai gali padėti suprasti situacijas, kuriose LLM yra naudingiausios ar mažiausiai naudingos, taip pat nustatyti būdus, kaip juos būtų galima patobulinti.
Niujorko universiteto mokslininkas Juliann Zhou neseniai atliko tyrimą, kurio tikslas buvo įvertinti dviejų LLM, išmokytų aptikti žmogaus sarkazmą, našumą, o tai reiškia, kad idėjos perteikiamos ironiškai teigdamas visiškai priešingą tam, ką bandoma pasakyti. Jos išvados, paskelbtos išankstinio spausdinimo serveryje arXivpadėjo jai apibūdinti funkcijas ir algoritminius komponentus, kurie galėtų pagerinti AI agentų ir robotų sarkazmo aptikimo galimybes.
„Sentimentalios natūralios kalbos apdorojimo analizės srityje gebėjimas teisingai atpažinti sarkazmą yra būtinas norint suprasti tikrąją žmonių nuomonę“, – savo darbe rašė Zhou. „Kadangi sarkazmas dažnai vartojamas atsižvelgiant į kontekstą, ankstesniuose tyrimuose buvo naudojami kalbų vaizdavimo modeliai, tokie kaip paramos vektorių mašina (SVM) ir ilgalaikė trumpalaikė atmintis (LSTM), kad sarkazmas būtų atpažįstamas su kontekstine informacija. Naujausios naujovės NLP suteikė daugiau galimybių aptikti sarkazmą.
Kreditas: Juliann Zhou. Sentimentų analizė – tai tyrimų sritis, apimanti tekstų, paprastai skelbiamų socialinės žiniasklaidos platformose ar kitose svetainėse, analizę, siekiant sužinoti, kaip žmonės jaučiasi tam tikra tema ar produktui. Šiandien daugelis įmonių investuoja į šią sritį, nes tai gali padėti joms suprasti, kaip pagerinti savo paslaugas ir patenkinti klientų poreikius.
Dabar yra keletas NLP modelių, kurie gali apdoroti tekstus ir numatyti jų emocinį toną, arba, kitaip tariant, jei jie išreiškia teigiamas, neigiamas ar neutralias emocijas. Tačiau daugelyje internete paskelbtų atsiliepimų ir komentarų yra ironijos ir sarkazmo, todėl modeliai gali juos priskirti „teigiamiems“, kai jie iš tikrųjų išreiškia neigiamas emocijas, arba atvirkščiai.
Todėl kai kurie kompiuterių mokslininkai bandė sukurti modelius, kurie galėtų aptikti sarkazmą rašytiniuose tekstuose. Du perspektyviausi iš šių modelių, vadinami CASCADE ir RCNN-RoBERTa, 2018 m. buvo pristatyti atskirų tyrimų grupių.
„BERT: išankstinis giliųjų dvikrypčių transformatorių mokymas kalbos supratimui Jacob Devlin ir kt. (2018) pristatė naują kalbos vaizdavimo modelį ir pademonstravo didesnį tikslumą interpretuojant kontekstualizuotą kalbą“, – rašė Zhou. „Kaip pasiūlė Hazarika ir kt. (2018), CASCADE yra kontekstu pagrįstas modelis, kuris duoda gerų sarkazmo aptikimo rezultatų. Šiame tyrime analizuojamas Reddit korpusas naudojant šiuos du moderniausius modelius ir įvertinamas jų veikimas, palyginti su pradiniais modeliais. rasti idealų požiūrį į sarkazmo aptikimą.
Iš esmės Zhou atliko keletą testų, kurių tikslas buvo įvertinti CASCADE ir RCNN-RoBERTa modelio gebėjimą aptikti sarkazmą komentaruose, paskelbtuose Reddit, žinomoje internetinėje platformoje, kuri paprastai naudojama vertinant turinį ir aptariant įvairias temas. Šių dviejų modelių gebėjimas aptikti sarkazmą pavyzdiniuose tekstuose taip pat buvo lyginamas su vidutiniu žmogaus atlikimu atliekant tą pačią užduotį (pranešta ankstesniame darbe) ir su kelių pradinių tekstų analizės modelių veikimu.
„Mes nustatėme, kad kontekstinė informacija, pvz., vartotojo asmenybės įterpimas, gali žymiai pagerinti našumą, taip pat transformatoriaus RoBERTa įtraukimą, palyginti su tradiciniu CNN metodu“, – savo darbe apibendrino Zhou. „Atsižvelgiant į tiek kontekstiniu, tiek transformatoriumi pagrįstų metodų sėkmę, kaip parodyta mūsų rezultatuose, transformatoriaus papildymas papildomomis kontekstinės informacijos funkcijomis gali būti būdas būsimiems eksperimentams.
Rezultatai, surinkti kaip šio neseniai atlikto tyrimo dalis, netrukus galėtų paskatinti tolesnius šios srities tyrimus, galiausiai prisidėdami prie LLM, kurie geriau aptinka sarkazmą ir ironiją žmonių kalboje, kūrimo. Šie modeliai ilgainiui gali pasirodyti itin vertingi įrankiai, leidžiantys greitai atlikti internetinių apžvalgų, įrašų ir kito vartotojų sukurto turinio nuotaikų analizę.
Daugiau informacijos: Juliann Zhou, moderniausių sarkazmo aptikimo didelių kalbų modelių įvertinimas, arXiv (2023). DOI: 10.48550/arxiv.2312.03706
Žurnalo informacija: arXiv
© „Science X Network“, 2023 m
Citata: Ar dideli kalbiniai modeliai gali aptikti sarkazmą? (2023 m. gruodžio 28 d.) gauta 2024 m. sausio 1 d. iš https://techxplore.com/news/2023-12-large-language-sarcasm.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.