• tv3.lt antras skaitomiausias lietuvos naujienu portalas

REKLAMA
Komentuoti
Nuoroda nukopijuota
DALINTIS

„OpenAI“, ‚Microsoft‘ ir Baltųjų rūmų „dirbtinio intelekto caras“ Davidas Sacksas dabar bando paaiškinti, kodėl Kinijos dirbtinio intelekto programa „DeepSeek“ sugebėjo sukurti didelį kalbos modelį, kuris pranoksta „OpenAI“. Manoma, jog „DeepSeek“ nesąžiningai naudojo „OpenAl“ duomenis, tačiau atskleista, kad ir pati „OpenAI“ naudoja panašią schemą, bet to viešai neskelbia.

„OpenAI“, ‚Microsoft‘ ir Baltųjų rūmų „dirbtinio intelekto caras“ Davidas Sacksas dabar bando paaiškinti, kodėl Kinijos dirbtinio intelekto programa „DeepSeek“ sugebėjo sukurti didelį kalbos modelį, kuris pranoksta „OpenAI“. Manoma, jog „DeepSeek“ nesąžiningai naudojo „OpenAl“ duomenis, tačiau atskleista, kad ir pati „OpenAI“ naudoja panašią schemą, bet to viešai neskelbia.

REKLAMA

Tiek „Bloomberg“, tiek „Financial Times“ praneša, kad „Microsoft“ ir „OpenAI“ tiria, ar „DeepSeek“ netinkamai apmokė R1 modelį, kuris šturmuoja dirbtinio intelekto pasaulį, remdamasi „OpenAI“ modelių rezultatais, rašoma „404 Media“.

„Tokia veikla galėjo pažeisti „OpenAI“ paslaugų teikimo sąlygas arba galėjo reikšti, kad grupė veikė siekdama panaikinti „OpenAI“ apribojimus, susijusius su tuo, kiek duomenų jie gali gauti“, – rašoma „Bloomberg“.

REKLAMA
REKLAMA

O rizikos kapitalo investuotojas ir naujasis Donaldo Trumpo administracijos narys Davidas Sacksas teigė, kad yra „svarių įrodymų“, jog „DeepSeek“ „distiliavo žinias iš OpenAI modelių“.

REKLAMA

„Dirbtinio intelekto srityje yra metodas, vadinamas distiliavimu, apie kurį dar daug išgirsite, ir jis taikomas, kai vienas modelis mokosi iš kito modelio, iš esmės vyksta taip, kad mokomasis modelis užduoda motininiam modeliui daugybę klausimų, panašiai kaip mokytųsi žmogus, tačiau dirbtinis intelektas gali tai daryti užduodamas milijonus klausimų ir iš esmės gali imituoti samprotavimo procesą, kurio mokosi iš motininio modelio, ir gali tarsi išsiurbti to modelio žinias“, – teigė D. Sacksas.

REKLAMA
REKLAMA

Ir pridūrė: „Yra nemažai įrodymų, kad „DeepSeek“ iš „OpenAI“ modelių išsiurbė žinias, ir nemanau, kad „OpenAI“ tuo labai džiaugiasi.“

„404 Media“ pažymima, kad neįtikėtinai ironiška, jog „OpenAI“, bendrovė, kuri iš visos žmonijos gaudavo didelius kiekius duomenų (daugiausia „neleistinu būdu“) ir kai kuriais atvejais pažeisdama tų, iš kurių imdavo duomenis, paslaugų teikimo sąlygas, dabar skundžiasi dėl tos pačios praktikos, pagal kurią sukūrė savo bendrovę.

REKLAMA
REKLAMA
REKLAMA

„OpenAI“ ir visos dirbtinio intelekto bendrovės, kurioms buvo iškeltos bylos dėl slapto ir beatodairiško bet kokių duomenų ėmimo internete, argumentas yra ne tai, kad jos neima visų duomenų, o tai, kad jos ima šiuos duomenis ir joms tai leidžiama.

„OpenAl“ pakviesta į teismą

Šiuo metu „The New York Times“ yra padavęs į teismą „OpenAI“ dėl informacijos skleidimo iš jų straipsnių.

REKLAMA

„Dirbtinio intelekto modelių mokymas naudojant viešai prieinamą interneto medžiagą yra sąžiningas naudojimas, kurį patvirtina ilgalaikiai ir plačiai pripažinti precedentai. Manome, kad šis principas yra sąžiningas kūrėjų atžvilgiu, būtinas novatoriams ir labai svarbus JAV konkurencingumui“, – argumentavo „OpenAl“.

Dabar „OpenAI“ ir „Microsoft“ iš esmės skundžiasi dėl to, kad „DeepSeek“ nugalėjo jas pačias tuo pačiu principu. Be to, „OpenAI“ argumentas „The New York Times“ byloje yra tas, kad vienintelis būdas sukurti gerai veikiantį apibendrintą didelį kalbos modelį yra milžiniškų duomenų kiekių rinkimas.

REKLAMA

Vietoj to „DeepSeek“ taikė pastiprinto mokymosi strategiją, kuri, kaip teigiama bendrovės dokumente, yra daug veiksmingesnė už kitų dirbtinio intelekto bendrovių.

„OpenAI“ prašyme atmesti „The New York Times“ ieškinį kaip vienas iš argumentų teigiama, kad „generalizuotų kalbos modelių raktas“ yra „mastas“, o tai reiškia, kad dalis jos argumentų yra tai, kad iš pavienio pavogto turinio negalima sukurti didelio kalbos modelio ir kad „OpenAI“ gali sukurti pirmaujančius pramonėje didelius kalbos modelius būtent dėl masto idėjos.

REKLAMA
REKLAMA
REKLAMA

Kaip minėjo D. Sacksas, „distiliavimas“ yra nusistovėjęs principas dirbtinio intelekto tyrimuose, ir tai nuolat daroma siekiant patobulinti ir padidinti kalbos modelių tikslumą.

IBM straipsnyje apie „distiliavimą“ pažymima: „Žinių distiliavimas tapo svarbia priemone, leidžiančia perkelti pažangias didelių, dažnai nuosavų modelių galimybes į mažesnes. Todėl jis tapo svarbia dirbtinio intelekto demokratizavimo priemone.“

REKLAMA

„OpenAI“ taip pat rėmėsi įvairiais tyrimais

Gruodžio pabaigoje „OpenAI“ generalinis direktorius Samas Altmanas iš karto po to, kai buvo išleistas ankstesnis „DeepSeek“ modelis „DeepSeek V3“, teigė: „Nukopijuoti kažką, kas, kaip žinia, veikia, yra lengva. Nepaprastai sunku sukurti kažką naujo, rizikingo ir sudėtingo, kai nežinai, ar tai veiks.“

REKLAMA

„404 Media“ apibūdina šį teiginį kaip „keliantį juoką“, nes be to, kad „OpenAI“ yra apmokyta remiantis didžiuliais kitų žmonių duomenų kiekiais, jos darbas remiasi „Google“ pradėtais tyrimais, kurie patys remiasi ankstesniais akademiniais tyrimais.

„Visa tai reiškia, kad jei „OpenAI“ teigia, jog bendrovei teisėta mokyti, ką tik nori ir dėl kokių tik nori priežasčių, tuomet suprantama, kad ji nelabai turi kuo remtis, kai konkurentai, kurdami savo modelius, naudoja įprastas strategijas. Tačiau, žinoma, ji vadovaujasi argumentu, kad turi „ apsaugoti savo nuosavybę“, – rašoma „404 Media“.

REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKOMENDUOJAME
rekomenduojame
TOLIAU SKAITYKITE
× Pranešti klaidą
SIŲSTI
Į viršų