Kreditas: Pixabay / CC0 viešasis domenas Nesvarbu, ar tai būtų lengvas smalsumas, ar verslo poreikis pradėti naudoti dirbtinį intelektą (AI), kaip unikalaus pardavimo pasiūlymo dalį, daugelis žmonių dabar naudoja „ChatGPT“ tiek darbe, tiek namuose.
Kai jis buvo paleistas, vartotojui patogus DI didelės kalbos modelis vos per 60 dienų sumažėjo nuo nulio iki 100 milijonų vartotojų. Nuo tada „Microsoft“ investavo 10 milijardų JAV dolerių į startuolį „Open AI“ ir į Bing įtraukė GPT4. Specialios „Bing“ programos su GPT4 dabar pasiekiamos „App Store“ ir „Play Store“.
Dalis OpenAI ChatGPT naudotojų patirties yra tai, kad dirbtinio intelekto įrankiai gali generuoti tikrai naudingą tekstą iš konkretaus raginimo, todėl galima sutaupyti laiko kasdieniame darbe naudojant mašininį mokymąsi, pavyzdžiui, rašant el.
Jūs netgi galite pasinaudoti skelbime pateiktu pareigybės aprašymu, kad ChatGPT parašytų „tobulą“ motyvacinį laišką. Arba personalo narys iš žmogiškųjų išteklių gali sukurti „tobulą“ darbo skelbimą „LinkedIn“ iš verslo padalinio pateiktos smulkmeniškos informacijos.
Tačiau kokia rizika kyla bandant ChatGPT naudojimo būdus darbe?
Kaip išeities tašką, pažvelkime į darbo skelbimo pavyzdį.
Jei pareigos yra dažniausiai reklamuojamos, mažai kas prarandama dalijantis darbo aprašymo forma su keliais šimtais milijonų kitų ChatGPT naudojimo būdų.
Tačiau jei pareigybės aprašyme yra informacija, kurią konkurentas galėtų panaudoti jūsų verslui identifikuoti, tada rizika yra žymiai didesnė (ypač jei įdarbinimas yra svarbi jūsų darbovietės verslo strategijos dalis).
Kadangi tokias įmones kaip „Samsung“ neseniai įgėlė personalo nariai, netyčia perduodantys medžiagą per „ChatGPT“, prieš naudojant ją darbe svarbu atidžiai įvertinti riziką.
Ir kaip tik kodo dingo
Ši problema yra ypač sudėtinga, jei darbuotojai pradėjo naudoti „ChatGPT“ kaip kodo kūrimo proceso dalį.
Tai padaryti tikrai patrauklu. Vienas iš puikių ChatGPT aspektų yra jo automatizavimo atvejis, siekiant sumažinti programinės įrangos kūrimo projektų programuotojams kodavimo laiką. Tai galima padaryti dizaino lygiu („Kaip rūšiuoti darbo prašymo laiškus naudojant natūralios kalbos apdorojimą Python?“) arba kodo lygiu („Kaip naudoti Gaussian Naive Bayes in scikit-learn?“).
Viena tikrai naudinga funkcija yra galimybė įklijuoti kodą kaip raginimą paprašyti ChatGPT jį patobulinti. Tai taip paprasta, kaip „Kas negerai su šiuo kodu? „ChatGPT“ netgi gali atpažinti jūsų naudojamą kodavimo kalbą.
Problema ta, kad ChatGPT gali įtraukti medžiagą, kurią naudojote kaip raginimą pagerinti atsakymus ateityje, mokydamas algoritmus. Būtent taip nutiko „Samsung“ kūrėjams, kurie naudojo „ChatGPT“, kad pagerintų kodą ir saugotų susitikimų pastabas.
Medžiaga, kurią „Samsung“ laikė viena jautriausių, buvo prieinama ne „Samsung“ kūrėjams, nes „Samsung“ inžinieriai naudojo „ChatGPT“, kad sumažintų kūrimo laiką.
Ar dėl GPT4 „ChatGPT“ naudojimas darbe taps rizikingesnis?
Naujausias GPT serijos po GPT3, GPT4 turi neįtikėtinai tikslią balso į tekstą funkciją. Tačiau rizika, kad tekstas taps mokymo rinkinio, skirto tobulinti generatyvųjį AI, dalimi, yra didelė.
Tai paprastas būdas perrašyti darbo susitikimus ir, dar geriau, sugeneruoti minutes iki susitikimo pabaigos. Tačiau iki susitikimo pabaigos transkripcija taip pat bus GPT4 ekosistemos dalis. Buvo naujienų antraštės apie Italijos sprendimą „uždrausti“ ChatGPT dėl privatumo problemų.
Iš esmės Italijos valdžios institucijos argumentuoja, kad ChatGPT surinkti duomenys pažeidė Europos bendrąjį duomenų apsaugos reglamentą. Tačiau, kaip ir kitose Europos šalyse, panašu, kad Italija nuo šio požiūrio pasitrauks iki balandžio pabaigos. Vienintelis reikalingas pakeitimas bus naudotojų amžiaus (vyresnių nei 18 metų) patikrinimas.
Generatyvusis AI naudoja milijardus duomenų taškų, kad būtų galima kurti tekstą nuspėjamuoju pagrindu. Jis tobulinamas atsižvelgiant į vartotojų atsiliepimus. Iššūkis, su kuriuo susiduria įmonės, kuriose dirba smalsūs žmonės, yra tai, kad šie atsiliepimai gali apimti įmonės konfidencialią medžiagą.
Sprendimas teoriškai paprastas, bet praktiškai sunkesnis. Jei medžiaga paprastai nebūtų atskleista už verslo ribų, ji neturėtų būti naudojama kaip raginimas „ChatGPT“ ar „Bing“.
Praktinis šios taisyklės sunkumas yra tas, kad paieškos sistemos, įskaitant „Google“ su generuojamuoju AI, vadinamu „Bard“, yra esminis verslo įrankis. Problema gali būti nuspręsti, ar paieškos sistemos yra skirtos teikti informaciją, ar pateikti atsakymus.
Taigi, turėčiau vengti naudoti „ChatGPT“ darbe?
Nežinote, ką turėtumėte (ir neturėtumėte) dalytis su mūsų draugu ChatGPT? Išbandykite šį paprastą testą:
Ar „ChatGPT“ seanso išvestis yra dokumentas, kurį jūsų įmonė paprastai laiko konfidencialia? Tada jis neturėtų būti bendrinamas „ChatGPT“.
Jei parašėte motyvacinį laišką arba atnaujinote naudodami „ChatGPT“, AI sistema, naudojama kandidatams filtruoti, taip pat galėtų paleisti motyvacinį laišką per GPTZero. Šis internetinis „Open AI“ įrankis gali nustatyti, ar tekstą parašė generatyvinis AI, tirdamas to teksto „supainiojimą“ (teksto atsitiktinumo matavimą) ir „burstiškumą“ (supainiojimo kitimo matavimą).
Tačiau, žinoma, ChatGPT teksto išvesties patobulinimas yra iššūkis šiems įrankiams. Taigi, kas pasakys, kaip tai pasikeis ateityje plėtojant AI technologiją?
Citata: Ar išdavėte paslapčių „ChatGPT“? Būkite atsargūs pateikdami nuosavybės teise priklausančią informaciją, įspėja profesorius (2023 m. balandžio 18 d.), gautas 2023 m. balandžio 19 d. iš https://techxplore.com/news/2023-04-secrets-chatgpt-proprietary-cautions-professor.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

