Tai, apie ką anksčiau kalbėdavo nebent mokslinės fantastikos mėgėjai, pagaliau tampa aktualia mūsų dienų problema. Jau nekyla abejonių, jog ateities karuose vis daugiau dalyvaus įvairių karinių robotų. Štai todėl iškilo poreikis ypatingam „robotų garbės kodeksui“, nes kitaip gali išsipildyti baisiausi mokslinės fantastikos scenarijai ir filmas „Terminatorius“ iš fantastinio taps dokumentiniu.
Ar tai dar vienas žiniasklaidos išpūstas burbulas? Panašu, jog ne – rimtus įspėjimus apie galimą ateities pavojų paviešino JAV ateities technologijų tyrimų centras. Šie įspėjimai sudėti į išsamią ataskaitą, kurioje nagrinėjami visi dabar įsivaizduotini scenarijai – nuo apčiuopiamos robotų panaudojimo naudos iki „Terminatoriaus“ scenarijaus, kuomet žmonija tiesiog nušluojama nekontroliuojamų mašinų.
„Scanpix“ nuotr.
Ataskaitoje pažymima, jog šie scenarijai įgaus realią grėsmę tuomet, kai karinėse reikmėse naudojami robotai ims priimti savarankiškus sprendimus. Visgi nereiktų šio technologijų evoliucijos laiptelio laikyti dirbtinio intelekto gimimo data – net ir neturėdami pilno sąmoningumo, o tik priimdami dalinius sprendimus, koviniai robotai imtų kelti potencialią grėsmę.
Tyrimų autoriai pabrėžia, jog „viena iš labiausiai paplitusių neteisingų idėjų yra ta, jog robotai darys tik tai, kas įrašytą į valdymo programą. Deja, tačiau šis požiūris labai pasenęs, liečiantis dar tuos laikus, kuomet pačią sudėtingiausią programą galėjo parašyti ir suprasti vienas žmogus. Dabartiniu laikų realybė tokia, jog net vidutinio sudėtingumo programą sudaro milijonai eilučių, kurias rašė visa programuotojų komanda ir tiesiog nėra tokio žmogaus, kuris pilnai suvoktų visą programa.“ Savu ruožtu tai reiškia, jog niekas negali garantuoti, kaip ši programa veiks pačiais įvairiausiais gyvenimo atvejais ir ypač ekstremaliose situacijose, kurios karo sąlygomis keičiasi sekundėmis. Tam išsiaiškinti reiks ypatingai išsamių ir įvairiapusių testų realiomis lauko sąlygomis, tačiau juos spartins programinės įrangos kūrimo kompanijos, norėdamos kaip galima greičiau išleisti produktą į rinką. Tad kokia garantija, jog kovinį robotą valdanti programinė įranga tikrai neturės paliktų valdymo klaidų?...
Taip pat reikia nepamiršti, jog koviniai robotai privalės tobulėti tiek, jog patys sugebėtų priimti bent dalinius sprendimus karo sąlygomis – tik tuomet tokios mašinos teiks realią ir apčiuopiamą naudą kariškiams. Tačiau tokius robotus valdančios programos jokiais būdais negalės aprašyti visų įmanomų situacijų. Vadinasi, roboto valdymo algoritmai privalės turėti savaiminio apmokymo galimybę – tačiau ko konkrečiai išmoks robotas karo sąlygomis nuspėti labai sudėtinga. Tačiau abejotina, ar kažko labai gero.
Ataskaitos autoriai siūlo tokį problemos sprendimą – į jų „geležinius protus“ įdiegti jokiomis aplinkybėmis nekeičiamas taisykles arba kitaip tariant – „roboto garbės kodeksą“. Tačiau kokios turėtų būti šios taisyklės ir kaip jas robotas vykdys – kol kas atviras klausimas diskusijai.
Tačiau vien tik kodekso sudarymu problemos neapsiriboja. Ataskaitos autoriai nagrinėjo ir kitas su ateities robototechnika susijusias problemas – etines, teisines, socialines ir politines. Jie pirmieji oficialiai iškėlė klausimą, o kaip reikės traktuoti ir realizuoti robotų apsaugas nuo įsilaužimo ir jų nuotolinio valdymo perėmimo bei kas ir kaip atsakys už programinėje įrangoje paliktas klaidas? Iškeltas ir atsakomybės klausimas, kas ir kokia forma bus atsakingas už tai, jei kariniui robotui staiga „nulėks smegenys“ ir jis ims viską aplinkui save naikinti? Ar neverta kiekviename robote įdiegti slapto „savižudybės“ mygtuko? Tačiau jei jį paspaus priešų inžinieriai mūšio metu? Neabejotinai, klausimų daugiau nei atsakymų.
Ir reikia pabrėžti, jog šiems klausimams svarstyti dabar pats laikas. Juk jau 2010 metais JAV kariškiai planuoja, jog tokiu laiku bent trečdalį visų oro pajėgų sudarys nepilotuojami lėktuvai. O iki 2015 metų bus automatizuota bent trečdalis viso šarvuotos technikos. O galimų pavojingų situacijų tikrai netrūks – juk net dabartiniai koviniai robotai, praktiškai visiškai priklausomi nuo operatorių, sugeba pridaryti netgi labai pavojingų situacijų. O kas bus, kai jie sprendimus ims priiminėti savarankiškai?
„Gamintojų siekis kaip galima greičiau pateikti rinkai realius veikiančius prototipus mažina investuojamus laikinius ir finansinius resursus į etinės kovinio roboto pusės išdirbimą, todėl lieka labai mažai vilties, jog pirmieji robotai išvengs klaidų, kainuosiančių daugelių žmonių gyvybių“, - apibendrinama ataskaitoje.
Patys kariškiai pripažįsta galimus pavojus ir jau į valdymo algoritmus ima diegti taisykles, kurios būtų suderintos su Ženevos konvencijomis. Tokie kareiviai – robotai nekreips dėmesio į mūšio lauke pastebėtus medikus, nešaudys į pasiduodančius priešo karius ir nevykdys karo nusikaltimų, kuriais neretai būna kaltinami kariaujantys žmonės. Ir nors tokie kariškių žingsniai yra sveikinti, visiškai neaišku, kaip kokybiškai ir preciziškai bus įdiegtos apsauginės sistemos ir kaip jos veiks karo lauko sąlygomis.
Akivaizdu, jog norint išvengti dviprasmybių, visi robotų gamintojai turėtų vadovautis bendromis taisyklėmis, kurios būtų privaloma tvarka diegiamos į karinių robotų valdymo programas. Tačiau kokios šios taisyklės galėtų būti? Tos pačios, kurias dar 1950 metais suformulavo Isaac Asimov ir pavadino trimis robototechnikos taisyklėmis?
1. Robotas negali pakenkti žmogui arba savo neveiklumu leisti, kad žmogui nutiktų nelaimė.
2. Robotas turi paklusti visiems žmogaus įsakymams, išskyrus tuos atvejus, kuomet jie prieštarauja pirmajai taisyklei.
3. Robotas turi rūpintis savo saugumu ir gerove tol, kol tai neprieštarauja pirmai ir antrai taisyklei.
Tačiau ar šių paprastų taisyklių užteks?