Prieš dvejus metus sugedęs Pietų Afrikos karinis robotas nužudė devynis kareivius. Šių metų pradžioje buvo nubausta viena Švedijos gamykla, kai robotizuota mašina sužeidė vieną darbininką. Robotams kaltė verčiama ir už daugybę smulkesnių nusižengimų, tokių, kaip nereagavimas į komandas. Kaip apsisaugoti nuo tokių problemų?
Robotų ekspertai teigia, jog tereikia nustoti gaminus „psichopatiškus“ robotus. „Jei jūs kuriate dirbtinį intelektą, tačiau nemąstote apie jo moralės suvokimą, arba įdiegiate kaltės jausmą, tačiau šis aktyvuojasi tik tada, kai padaroma kas nors bloga, techniniu požiūriu tai yra psichopatas“, - teigia mokslininkas Joshas Hallas, knygos „Beyond AI: Creating the Conscience of a Machine“ autorius.
Rašytojo fantasto Isaaco Asimovo sukurti trys robototechnikos dėsniai buvo laikomi kaip pakankami, ir jų tikrai pakako visiems robotų entuziastams. Pirmą kartą šie dėsniai arba savotiški robotų įstatymai buvo išdėstyti trumpoje apysakoje „Runaround“. Jie buvo palyginti paprasti: robotas negali daryti žalos žmogui ir negali leisti, kad žmogui žala būtų daroma; robotas turi paklusti žmogaus duotiems įsakymams; robotas turi saugoti savo paties egzistavimą. Dėsniai pateikti prioriteto tvarka, t.y. pirmesnis dėsnis yra svarbesnis, nei po jo einantis. Taigi, pagal Asimovo taisykles, robotui negalima įsakyti žudyti žmogaus ir jis turi paklusti įsakymams, netgi jei tai reikštų jo paties sunaikinimą.
Tačiau robotams nepaliaujamai sudėtingėjant ir vis daugiau integruojantis į žmonių gyvenimą, Asimovo suformuluoti dėsniai tampa tiesiog per daug paprasti, teigia Chien Hsun Chen, praėjusį mėnesį žurnale „International Journal of Social Robotics“ publikuoto straipsnio bendraautoris. Straipsnis įžiebė robotų ekspertų diskusiją: jie teigia, jog jau atėjo laikas žmonėms spręsti šias etikos dilemas. Roboetikos atstovai siekia sukurti tam tikrų rekomendacijų rinkinį, kurios nusakytų, kaip galima nubausti robotą, kas turi teisę reglamentuoti jų elgesį ir netgi skatina kurti „teisinę mašinų bazę“, kuri padėtų palaikyti teisėtvarką naujos kartos intelektualių automatizuotų įrenginių tarpe.
Netgi jei robotai nėra visiškai autonomiški, jų veiksmams turi būti taikoma aiški atsakomybės sistema, teigia atvirojo kodo principais besiremiančios kompanijos „Willow Garage“ mokslininkė Leila Katayama. „Mes turime žinoti, kam priklauso nuopelnas, jei mašina dirba sėkmingai, ir kas yra atsakingas, kai ji dirba blogai. Tai turi tapti visiškai skaidru“, - sako specialistė.
Visuomenė, kurioje kartu egzistuos robotai ir žmonės, gali susiformuoti jau iki 2030 metų, teigia Chen savo straipsnyje. Pavyzdžiui, kompanijos „iRobot“ gaminamas robotizuotas dulkių siurblys „Roomba“ ir grindų valytojas „Scooba“ yra daugiau nei 3 milijonų amerikiečių šeimų nuosavybė. Ateinanti robotų karta bus sudėtingesnė ir, kaip tikimasi, teiks tokias paslaugas, kaip slaugymas, saugumo užtikrinimas ir švietimas. Šios mašinos galės savarankiškai priimti sprendimus ir veikti iš esmės be priežiūros. Būtent dėl to, Chen teigimu, būtina nuspręsti, kas reglamentuoja robotų elgseną. Naujos visuomenės taisyklės turės apimti ir tai, kaip žmonės turėtų bendrauti su robotais, ir tai, kaip robotai turėtų elgtis. „Atsakomybė už robotų veiksmus šiandien yra tik vienos eismo krypties gatvė“, - sako Hallas. - Iki šiol vyrauja standartinė nuomonė, kad jei mašina kažką padarė blogo, kaltas tu, nes tu pagaminai ją. Tačiau aišku kaip dieną, kad ateityje mes gaminsime mašinas, kurios bus tokios sudėtingos, jog galės pačios priiminėti sprendimus, ir turime būti tam pasiruošę.“
Surasti „kaltus“ dėl roboto sukelto incidento ne visada paprasta. Šių metų pradžioje viena Švedijos gamykla buvo nubausta, kai sugedęs robotas vos neužmušė čia dirbusio darbininko, bandžiusio pataisyti sunkiems kroviniams kilnoti skirtą mašiną. Manydamas, kad jis atjungė energijos tiekimą, darbuotojas nieko nelaukdamas priėjo prie įrenginio, tačiau robotas staiga atgijo ir sugriebė aukos galvą. Šiuo atveju prokuroras gamyklą nubaudė už prastą saugumo reikalavimų laikymąsi, tačiau dalį kaltės skyrė ir pačiam darbuotojui. „Mašinos evoliucionuos iki ribos, kai mums teks vis dažniau spręsti, ar kaltė dėl blogo veiksmo tenka sukūrusiam mašiną, ar jai pačiai“, - mano Hallas.
Taisykles taip pat teks sukurti ir socialinei žmonių bei robotų sąveikai, įsitikinęs Džordžijos Technologijų instituto robotikos padalinio vadovas Henrikas Christensenas. Pavyzdžiui, robotikos ekspertas Hiroshi Ishiguro sukūrė į save panašų robotą. „Čia iškyla klausimas, kaip jūs ketinate sąveikauti su tokiais robotais, - aiškina Christensenas. - Ar turėtumėte būti mandagus su jais, ar elgtis grubiai? Ar normalu spardyti robotizuotą šunį, o vaikams aiškinti, kad su gyvais šunimis to nedarytų? Kaip apibūdinsite savo vaikams skirtumą tarp jų?“. Christenseno manymu, robotų elgseną ir žmonių sąveiką su jais reglamentuojanti etika susijusi ne tik su saugumu, bet ir turi nusakyti, kokio pobūdžio bendravimas tarp šių pusių yra „teisingas“.
Ekspertų manymu, kai kurios tokių taisyklių bus kietai „įsiūtos“ mašinų aparatinėje dalyje, kitos taps mašinas valdančių programų dalimis, tačiau bus ir tokių, kurių laikymąsi turės stebėti nepriklausomos monitoringo agentūros. Tam prireiks sukurti „teisinę mašinų kalbą“, sako Chen. Ji turėtų būti sudaryta iš tam tikrų nežodinių taisyklių, dalį kurių ar net jas visas įrašant robotų atmintyje. Šios taisyklės turėtų apimti įvairias veiklos sritis ir nurodytų, pavyzdžiui, kaip arti robotas gali prieiti prie žmogaus esant tam tikroms sąlygoms, taip pat apibrėžtų saugumo reikalavimus, kuriuos pagal dabartinius savo lūkesčius laikome esant teisingas.
Nepaisant to, pastangos sukurti robotą, kuris gali sėkmingai bendrauti su žmonėmis, bėgant laikui bus bevaisės, sako ekspertai. „Žmonės tūkstančius metų bandė susisteminti tai, ką jie laiko žmogiškąja morale, - sako Hallas. - Net jei sukursime robotų etikos nuorodas, savo apimtimi prilygstančias valstybių teisinei bazei, jų vis vien nepakaks. Moralė yra tai, ko negalima užrašyti formaliais teiginiais“.