Šiandien įmonės įtraukia dirbtinį intelektą į kiekvieną savo verslo kampelį. Tikimasi, kad ši tendencija tęsis tol, kol mašininio mokymosi modeliai bus įtraukti į daugumą produktų ir paslaugų, su kuriais bendraujame kiekvieną dieną.
Kadangi šie modeliai tampa didesne mūsų gyvenimo dalimi, jų vientisumo užtikrinimas tampa vis svarbesnis. Tokia yra „Verta“ – startuolio, kuris buvo sukurtas iš MIT kompiuterių mokslo ir dirbtinio intelekto laboratorijos (CSAIL) – misija.
„Verta“ platforma padeda įmonėms saugiai ir plačiu mastu diegti, stebėti ir valdyti mašininio mokymosi modelius. Duomenų mokslininkai ir inžinieriai gali naudoti „Verta“ įrankius norėdami stebėti įvairias modelių versijas, tikrinti, ar nėra šališkumo, išbandyti juos prieš įdiegiant ir stebėti jų veikimą realiame pasaulyje.
„Viskas, ką darome, yra sudaryti sąlygas sukurti daugiau produktų naudojant AI ir tai daryti saugiai“, – sako „Verta“ įkūrėjas ir generalinis direktorius Manasi Vartak SM ’14, PhD ’18. „Mes jau matome su ChatGPT, kaip dirbtinis intelektas gali būti naudojamas duomenims generuoti, artefaktams, kurie atrodo teisingai, bet neteisingi. Reikia daugiau valdyti ir kontroliuoti, kaip naudojamas AI, ypač įmonėms, teikiančioms AI sprendimus.
Šiuo metu „Verta“ bendradarbiauja su didelėmis sveikatos priežiūros, finansų ir draudimo įmonėmis, kad padėtų joms suprasti ir patikrinti jų modelių rekomendacijas ir prognozes. Ji taip pat bendradarbiauja su daugybe sparčiai augančių technologijų įmonių, siekiančių paspartinti naujų, dirbtinį intelektą palaikančių sprendimų diegimą ir užtikrinti, kad tie sprendimai būtų naudojami tinkamai.
Vartak teigia, kad bendrovė sugebėjo dydžiu sutrumpinti laiką, per kurį klientai įdiegia AI modelius, tuo pačiu užtikrinant, kad šie modeliai būtų paaiškinami ir teisingi – tai ypač svarbus veiksnys labai reguliuojamų pramonės šakų įmonėms.
Pavyzdžiui, sveikatos priežiūros įmonės gali naudoti „Verta“, kad patobulintų AI pagrįstą pacientų stebėjimą ir gydymo rekomendacijas. Prieš jas naudojant pacientams, tokios sistemos turi būti kruopščiai patikrintos, ar nėra klaidų ir paklaidų.
„Nesvarbu, ar tai šališkumas, ar teisingumas, ar paaiškinamumas, tai grįžta prie mūsų filosofijos dėl modelio valdymo ir valdymo“, – sako Vartak. „Mes apie tai galvojame kaip apie priešskrydinį kontrolinį sąrašą: prieš lėktuvui kylant, reikia atlikti tam tikrą patikrinimų rinkinį, prieš pakeldami lėktuvą nuo žemės. Panašiai yra su AI modeliais. Turite įsitikinti, kad atlikote šališkumo patikrinimus, turite įsitikinti, kad yra tam tikras paaiškinamumo lygis, turite įsitikinti, kad jūsų modelis yra atkuriamas. Mes visa tai padedame“.
Nuo projekto iki produkto
Prieš atvykdamas į MIT, Vartak dirbo duomenų mokslininku socialinės žiniasklaidos įmonėje. Viename projekte, praleidusi savaites derindama mašininio mokymosi modelius, kurie kuravo turinį, kad jis būtų rodomas žmonių sklaidos kanaluose, ji sužinojo, kad buvęs darbuotojas jau padarė tą patį. Deja, nebuvo jokių įrašų, ką jie padarė ir kaip tai paveikė modelius.
Daktaro laipsniui MIT Vartak nusprendė sukurti įrankius, padedančius duomenų mokslininkams kurti, išbandyti ir kartoti mašininio mokymosi modelius. Dirbdamas CSAIL duomenų bazių grupėje, Vartak įdarbino magistrantūros studentų ir MIT bakalauro studijų galimybių programos (UROP) dalyvių komandą.
„Verta neegzistuotų be mano darbo MIT ir MIT ekosistemoje“, – sako Vartak. „MIT sujungia žmones, pažangiausius technologijų srityje ir padeda mums sukurti naujos kartos įrankius.
Komanda dirbo su duomenų mokslininkais programoje CSAIL Alliances, kad nuspręstų, kokias funkcijas kurti, ir kartojo, remdamasi tų ankstyvųjų naudotojų atsiliepimais. Vartak sako, kad sukurtas projektas, pavadintas ModelDB, buvo pirmoji atvirojo kodo modelių valdymo sistema.
Vartakas taip pat išklausė keletą verslo pamokų MIT Sloan vadybos mokykloje, kurdamas doktorantūrą, ir dirbo su kurso draugais naujose įmonėse, kurios rekomendavo drabužius ir stebėjo sveikatą, praleido daugybę valandų Martin Trust centre, skirtoje MIT verslumui ir dalyvaudamas centro delta v vasaros akseleratoriuje.
„Tai, ką MIT leidžia daryti, yra rizikuoti ir nepavykti saugioje aplinkoje“, – sako Vartak. „MIT leido man pradėti verslumą ir parodė, kaip kurti produktus ir surasti pirmuosius klientus, todėl iki tol, kol atsirado Verta, aš tai padariau mažesniu mastu.
ModelDB padėjo duomenų mokslininkams apmokyti ir sekti modelius, tačiau Vartak greitai pastebėjo, kad, kai modeliai buvo įdiegti plačiu mastu, rizika buvo didesnė. Tuo metu bandymai patobulinti (arba netyčia sulaužyti) modelius gali turėti didelių pasekmių įmonėms ir visuomenei. Ši įžvalga paskatino Vartaką pradėti statyti Verta.
„Verta“ padeda valdyti modelius, paleisti modelius ir užtikrinti, kad jie veiktų taip, kaip tikėtasi, o tai vadiname modelių stebėjimu“, – aiškina Vartak. „Visų tų kūrinių šaknys siekia MIT ir mano baigiamąjį darbą. Verta tikrai išsivystė iš mano doktorantūros projekto MIT.
„Verta“ platforma padeda įmonėms greičiau diegti modelius, užtikrinti, kad laikui bėgant dirbtų taip, kaip numatyta, ir valdyti atitikties ir valdymo modelius. Duomenų mokslininkai gali naudoti „Verta“, kad stebėtų skirtingas modelių versijas ir suprastų, kaip jie buvo sukurti, atsakydami į klausimus, pavyzdžiui, kaip buvo naudojami duomenys ir kokie buvo atlikti paaiškinamumo ar šališkumo patikrinimai. Jie taip pat gali juos patikrinti vykdydami diegimo kontrolinius sąrašus ir saugos nuskaitymus.
„Verta platforma naudoja duomenų mokslo modelį ir prideda prie jo pusšimtį sluoksnių, kad paverstų jį kažkuo, kurį galite naudoti, pavyzdžiui, visai rekomendacijų sistemai savo svetainėje“, – sako Vartak. „Tai apima našumo optimizavimą, mastelio keitimą ir ciklo laiką, ty kaip greitai galite paimti modelį ir paversti jį vertingu produktu, taip pat valdymą.”
AI bangos palaikymas
Vartak sako, kad didelės įmonės dažnai naudoja tūkstančius skirtingų modelių, kurie daro įtaką beveik kiekvienai jų veiklos daliai.
„Pavyzdžiui, draudimo bendrovė naudos modelius viskam – nuo draudimo iki pretenzijų, „back-office“ apdorojimo, rinkodaros ir pardavimo“, – sako Vartak. „Taigi, modelių įvairovė yra tikrai didelė, jų yra daug, o įmonėms reikalingos patikros ir atitikties lygis, susijęs su šiais modeliais, yra labai aukštas. Jie turi žinoti tokius dalykus: ar naudojote duomenis, kuriuos turėjote naudoti? Kas buvo žmonės, kurie jį patikrino? Ar atlikote paaiškinamumo patikras? Ar atlikote šališkumo patikrinimus?
Vartak sako, kad įmonės, kurios nepriima dirbtinio intelekto, bus paliktos nuošalyje. Tuo tarpu įmonėms, kurioms dirbtinis intelektas siekia sėkmės, reikės tiksliai apibrėžtų procesų, kad galėtų valdyti nuolat augantį modelių sąrašą.
„Per ateinančius 10 metų kiekviename įrenginyje, su kuriuo bendrausime, bus integruotas intelektas, nesvarbu, ar tai būtų skrudintuvas, ar jūsų el. pašto programos, ir tai labai palengvins jūsų gyvenimą“, – sako Vartak. „Tą intelektą įgalins geresni modeliai ir programinė įranga, pvz., Verta, kurie padeda labai greitai integruoti AI į visas šias programas.

