JAV žemėlapyje rodomos apskritys, kuriose gyventojai gali (mėlyna spalva) arba negalėjo (rožinė) gauti konkrečios vietos informacijos apie aplinkosaugos teisingumo problemas. Kreditas: Junghwan Kim. „Virginia Tech“ mokslininkai atrado „ChatGPT“ gebėjimo teikti konkrečios vietos informaciją apie aplinkos teisingumo problemas apribojimus. Jų išvados, paskelbtos žurnale Telematika ir informatikarodo, kad dabartiniuose generatyvaus dirbtinio intelekto (AI) modeliuose gali atsirasti geografinių paklaidų.
ChatGPT yra didelės kalbos modelis, sukurtas OpenAI Inc., dirbtinio intelekto tyrimų organizacijos. „ChatGPT“ sukurta siekiant suprasti klausimus ir generuoti tekstinius atsakymus pagal vartotojų užklausas. Ši technologija turi platų pritaikymo spektrą nuo turinio kūrimo ir informacijos rinkimo iki duomenų analizės ir kalbos vertimo.
Apžvalga pagal apskritį
„Kaip geografas ir geoerdvinių duomenų mokslininkas, generatyvinis AI yra galingas potencialas turintis įrankis“, – sakė Gamtos išteklių ir aplinkos koledžo docentas Junghwanas Kimas. „Tuo pačiu metu turime ištirti technologijos apribojimus, kad būsimieji kūrėjai pripažintų šališkumo galimybes. Tai buvo šio tyrimo varomoji motyvacija.”
Naudodama 3108 gretimų JAV apskričių sąrašą, tyrimų grupė paprašė ChatGPT sąsajos atsakyti į greitą klausimą apie aplinkosaugos teisingumo problemas kiekvienoje apskrityje. Tyrėjai pasirinko aplinkos teisingumą kaip temą, siekdami išplėsti klausimų, paprastai naudojamų generatyvinių AI įrankių veikimui, spektrą. Klausimų uždavimas pagal apskritį leido tyrėjams įvertinti ChatGPT atsakymus pagal socialinius ir demografinius aspektus, tokius kaip gyventojų tankis ir vidutinės namų ūkio pajamos.
Pagrindinės išvados rodo apribojimus
Apklausus apskritis, kuriose gyventojų skaičius buvo toks pat įvairus, kaip Los Andželo apygarda Kalifornijoje, kurioje gyvena 10 019 635 gyventojai, ir Loving County, Teksasas, kurioje gyvena 83 gyventojai, generatyvusis AI įrankis parodė, kad jis gali nustatyti vietos specifinius aplinkos teisingumo iššūkius dideliuose ir dideliuose. -gyventojų tankumo zonos. Tačiau įrankis buvo ribotas dėl galimybės nustatyti ir pateikti kontekstualizuotą informaciją apie vietos aplinkosaugos teisingumo klausimus.
- „ChatGPT“ galėjo pateikti konkrečios vietos informaciją apie aplinkos teisingumo problemas tik 515 iš 3018 įtrauktų apygardų arba 17 proc.
- Kaimo valstijose, tokiose kaip Aidahas ir Naujasis Hampšyras, daugiau nei 90 procentų gyventojų gyveno apskrityse, kurios negalėjo gauti konkrečios vietos informacijos.
- Valstybėse, kuriose gyvena daugiau miestų, pavyzdžiui, Delaveras ar Kalifornija, mažiau nei 1 procentas gyventojų gyveno apskrityse, kurios negali gauti konkrečios informacijos.
Poveikis AI kūrėjams ir vartotojams
Kadangi generatyvusis dirbtinis intelektas tampa nauju informacijos gavimo įrankiu, galimų modeliavimo rezultatų šališkumo patikrinimas yra svarbi tobulinant programas, tokias kaip ChatGPT.
„Nors reikia atlikti daugiau tyrimų, mūsų išvados rodo, kad ChatGPT modelyje šiuo metu yra geografinių paklaidų“, – sakė Geografijos katedroje dėstantis Kim. „Tai yra atspirties taškas tiriant, kaip programuotojai ir AI kūrėjai galėtų numatyti ir sušvelninti informacijos skirtumus tarp didelių ir mažų miestų, tarp miesto ir kaimo aplinkos.
Kim anksčiau paskelbė dokumentą apie tai, kaip ChatGPT supranta transporto problemas ir sprendimus JAV ir Kanadoje. Jo „Smart Cities for Good“ tyrimų grupė tiria geoerdvinių duomenų mokslo metodų ir technologijų naudojimą sprendžiant miesto socialinius ir aplinkosaugos iššūkius.
Įrankių galimybių tobulinimas ateityje
Inžinerijos koledžo docentas Ismini Lourentzou, šio straipsnio bendraautoris, nurodė tris tolesnių didelių kalbų modelių, tokių kaip ChatGPT, tyrimų sritis:
- Patikslinkite lokalizuotas ir kontekstu pagrįstas žinias, kad būtų sumažintas geografinis šališkumas
- Apsaugokite modelius didelėmis kalbomis, pvz., ChatGPT, nuo sudėtingų scenarijų, tokių kaip dviprasmiškos vartotojo instrukcijos ar atsiliepimai
- Padidinkite vartotojų informuotumą ir politiką, kad žmonės būtų geriau informuoti apie stipriąsias ir silpnąsias puses, ypač jautriomis temomis
„Yra daug problemų, susijusių su didelių kalbų modelių patikimumu ir atsparumu“, – sakė Lourentzou, dėstantis Kompiuterių mokslų katedroje ir priklausantis Sanghani dirbtinio intelekto ir duomenų analizės centrui. „Tikiuosi, kad mūsų tyrimai gali padėti atlikti tolesnius tyrimus, kaip pagerinti ChatGPT ir kitų modelių galimybes.
Daugiau informacijos: Junghwan Kim ir kt., „ChatGPT“ apribojimų, susijusių su aplinkos teisingumo problemomis Jungtinėse Valstijose, tyrimas: 3 108 apskričių atvejo tyrimas, Telematika ir informatika (2023). DOI: 10.1016/j.tele.2023.102085
Citata: Tyrėjai naudoja aplinkos teisingumo klausimus, kad atskleistų geografinius šališkus ChatGPT (2023 m. gruodžio 16 d.), gautą 2023 m. gruodžio 16 d. iš https://techxplore.com/news/2023-12-environmental-justice-reveal-geographic-biases.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.