Tiek „Bloomberg“, tiek „Financial Times“ praneša, kad „Microsoft“ ir „OpenAI“ tiria, ar „DeepSeek“ netinkamai apmokė R1 modelį, kuris šturmuoja dirbtinio intelekto pasaulį, remdamasi „OpenAI“ modelių rezultatais, rašoma „404 Media“.
„Tokia veikla galėjo pažeisti „OpenAI“ paslaugų teikimo sąlygas arba galėjo reikšti, kad grupė veikė siekdama panaikinti „OpenAI“ apribojimus, susijusius su tuo, kiek duomenų jie gali gauti“, – rašoma „Bloomberg“.
O rizikos kapitalo investuotojas ir naujasis Donaldo Trumpo administracijos narys Davidas Sacksas teigė, kad yra „svarių įrodymų“, jog „DeepSeek“ „distiliavo žinias iš OpenAI modelių“.
„Dirbtinio intelekto srityje yra metodas, vadinamas distiliavimu, apie kurį dar daug išgirsite, ir jis taikomas, kai vienas modelis mokosi iš kito modelio, iš esmės vyksta taip, kad mokomasis modelis užduoda motininiam modeliui daugybę klausimų, panašiai kaip mokytųsi žmogus, tačiau dirbtinis intelektas gali tai daryti užduodamas milijonus klausimų ir iš esmės gali imituoti samprotavimo procesą, kurio mokosi iš motininio modelio, ir gali tarsi išsiurbti to modelio žinias“, – teigė D. Sacksas.
Ir pridūrė: „Yra nemažai įrodymų, kad „DeepSeek“ iš „OpenAI“ modelių išsiurbė žinias, ir nemanau, kad „OpenAI“ tuo labai džiaugiasi.“
„404 Media“ pažymima, kad neįtikėtinai ironiška, jog „OpenAI“, bendrovė, kuri iš visos žmonijos gaudavo didelius kiekius duomenų (daugiausia „neleistinu būdu“) ir kai kuriais atvejais pažeisdama tų, iš kurių imdavo duomenis, paslaugų teikimo sąlygas, dabar skundžiasi dėl tos pačios praktikos, pagal kurią sukūrė savo bendrovę.
„OpenAI“ ir visos dirbtinio intelekto bendrovės, kurioms buvo iškeltos bylos dėl slapto ir beatodairiško bet kokių duomenų ėmimo internete, argumentas yra ne tai, kad jos neima visų duomenų, o tai, kad jos ima šiuos duomenis ir joms tai leidžiama.
„OpenAl“ pakviesta į teismą
Šiuo metu „The New York Times“ yra padavęs į teismą „OpenAI“ dėl informacijos skleidimo iš jų straipsnių.
„Dirbtinio intelekto modelių mokymas naudojant viešai prieinamą interneto medžiagą yra sąžiningas naudojimas, kurį patvirtina ilgalaikiai ir plačiai pripažinti precedentai. Manome, kad šis principas yra sąžiningas kūrėjų atžvilgiu, būtinas novatoriams ir labai svarbus JAV konkurencingumui“, – argumentavo „OpenAl“.
Dabar „OpenAI“ ir „Microsoft“ iš esmės skundžiasi dėl to, kad „DeepSeek“ nugalėjo jas pačias tuo pačiu principu. Be to, „OpenAI“ argumentas „The New York Times“ byloje yra tas, kad vienintelis būdas sukurti gerai veikiantį apibendrintą didelį kalbos modelį yra milžiniškų duomenų kiekių rinkimas.
Vietoj to „DeepSeek“ taikė pastiprinto mokymosi strategiją, kuri, kaip teigiama bendrovės dokumente, yra daug veiksmingesnė už kitų dirbtinio intelekto bendrovių.
„OpenAI“ prašyme atmesti „The New York Times“ ieškinį kaip vienas iš argumentų teigiama, kad „generalizuotų kalbos modelių raktas“ yra „mastas“, o tai reiškia, kad dalis jos argumentų yra tai, kad iš pavienio pavogto turinio negalima sukurti didelio kalbos modelio ir kad „OpenAI“ gali sukurti pirmaujančius pramonėje didelius kalbos modelius būtent dėl masto idėjos.
Kaip minėjo D. Sacksas, „distiliavimas“ yra nusistovėjęs principas dirbtinio intelekto tyrimuose, ir tai nuolat daroma siekiant patobulinti ir padidinti kalbos modelių tikslumą.
IBM straipsnyje apie „distiliavimą“ pažymima: „Žinių distiliavimas tapo svarbia priemone, leidžiančia perkelti pažangias didelių, dažnai nuosavų modelių galimybes į mažesnes. Todėl jis tapo svarbia dirbtinio intelekto demokratizavimo priemone.“
„OpenAI“ taip pat rėmėsi įvairiais tyrimais
Gruodžio pabaigoje „OpenAI“ generalinis direktorius Samas Altmanas iš karto po to, kai buvo išleistas ankstesnis „DeepSeek“ modelis „DeepSeek V3“, teigė: „Nukopijuoti kažką, kas, kaip žinia, veikia, yra lengva. Nepaprastai sunku sukurti kažką naujo, rizikingo ir sudėtingo, kai nežinai, ar tai veiks.“
„404 Media“ apibūdina šį teiginį kaip „keliantį juoką“, nes be to, kad „OpenAI“ yra apmokyta remiantis didžiuliais kitų žmonių duomenų kiekiais, jos darbas remiasi „Google“ pradėtais tyrimais, kurie patys remiasi ankstesniais akademiniais tyrimais.
„Visa tai reiškia, kad jei „OpenAI“ teigia, jog bendrovei teisėta mokyti, ką tik nori ir dėl kokių tik nori priežasčių, tuomet suprantama, kad ji nelabai turi kuo remtis, kai konkurentai, kurdami savo modelius, naudoja įprastas strategijas. Tačiau, žinoma, ji vadovaujasi argumentu, kad turi „ apsaugoti savo nuosavybę“, – rašoma „404 Media“.
Patiko straipsnis? Užsiprenumeruokite mūsų naujienlaiškį ir gaukite svarbiausias dienos naujienas bei įdomiausius straipsnius kiekvieną darbo dieną 11 val. Tiesiai į Jūsų el. paštą!