Ar reikia saugoti žmogaus teises nuo dirbtinio intelekto? Kas ir kaip tai turėtų padaryti? Apie tai bus diskutuojama gruodžio 10-ąją, Tarptautinę žmogaus teisių dieną, Lietuvos nacionalinėje Martyno Mažvydo bibliotekoje ir internetu, ketvirtajame Nacionaliniame žmogaus teisių forume (NŽTF).
Mokslininko teigimu, tobulėjant dirbtiniam intelektui ir jo teikiamoms galimybėms, visuomenė susidurs su rimtais iššūkiais. Apie juos – interviu su doc. dr. I. Kalpoku, tyrinėjančiu informacinį saugumą, dirbtinio intelekto ir žmogaus teisių sąveikas.
Jūsų nuomone, su kuo susidursime ateityje vis labiau „įsileidžiant“ dirbtinį intelektą į savo gyvenimą?
Pirmiausia – ką žmonėms reikės veikti visą dieną. Čia skaitmeninės technologijos taip pat gali suteikti ir sprendimą įgalindamos įtraukiančias virtualias patirtis, naujas žaidimo ir bendravimo formas ir pan. Neatsitiktinai vis daugiau technologijų kompanijų investuoja į, pavyzdžiui, vadinamosios metavisatos kūrimą.
Antrasis iššūkis iškils bandant pakeisti darbą kaip pajamų šaltinį. Šiame kontekste jau kurį laiką sklando, tarkim, universalių bazinių pajamų idėja – valstybės garantuojamos pajamos, kurias gautų visi piliečiai. Deja, kol kas nėra sutariama, kaip tokias pajamas reikėtų finansuoti, tačiau dirbtinio intelekto apmokestinimas yra bene populiariausias pasiūlymas. Taip pat esama idėjų „įdarbinti“ mūsų duomenis – užuot leidę juos kaupti skaitmeninėms platformoms ir kitoms technologijų kompanijoms, galėtume juos monetizuoti. Tačiau bene svarbiausias iššūkis šiame kontekste yra dirbtinio intelekto reguliavimas siekiant užtikrinti tiek kiekvieno piliečio interesų atstovavimą, tiek galimybę dalyvauti priimant sprendimus. Kol kas atrodo, o ir ankstesnių technologijų pavyzdžiai tai patvirtina, kad nesant griežtesnio reguliavimo, dirbtinio intelekto įsigalėjimas reikš esamų didžiųjų technologijų kompanijų dominavimą visuose sektoriuose – nuo švietimo iki ekonomikos ar politikos. Juk būtent šios kompanijos turi didžiausius finansinius, technologinius ir duomenų išteklius, būtinus dirbtinio intelekto sprendimų kūrimui. Taip pat svarbu pabrėžti, kad šios kompanijos laikui bėgant įgis vis didesnę – galbūt net lemiamą – įtaką kasdieniams procesams, įskaitant ir politinius.
Dirbtinio intelekto įtaka politikai yra atskira, ir ne mažiau aktuali, tema.
Žinoma. Čia pabrėžtinas vis didesnis dirbtinio intelekto – ir skaitmeninių technologijų apskritai – vaidmuo valstybės valdymo procesuose, pavyzdžiui, teikiant duomenų analize pagrįstas rekomendacijas. Daug valstybių tokias technologijas ypač plačiai ėmė taikyti pandemijos kontekste ir nepanašu, kad ateityje jų būtų atsisakoma. Kai kuriose valstybėse dirbtinis intelektas naudojamas ir, tarkime, teisėsaugos institucijų bei teismų darbe siekiant identifikuoti konkrečių individų grėsmę visuomenei. Taip pat ir savivaldos lygmenyje vis daugiau yra investuojama į vadinamuosius išmaniuosius miestus, kuriuose pasitelkiant dirbtinį intelektą yra integruojamos komunalinių paslaugų teikimo, švietimo, viešosios tvarkos palaikymo, sveikatos apsaugos ir kitos funkcijos, o jų darbas optimizuojamas remiantis sukauptais duomenimis. Tačiau bene ambicingiausi pasiūlymai yra susiję su viso valstybės valdymo transformacija, potencialiai automatizuojant ir politikų darbą.
Atrodytų, kas galėtų būti racionaliau, nei patikėti valstybės vairą itin išmaniai dirbtinio intelekto sistemai, kuri geba išanalizuoti daugiau duomenų nei bet kuris politikas ar net jie visi kartu sudėjus. Ir vis dėlto nederėtų pernelyg pasitikėti tokiais įrankiais, nes jie toli gražu nėra tokie objektyvūs ir visus lygiai įgalinantys, kaip galėtų pasirodyti. Ir kalba eina ne vien apie mūsų pilietinių teisių eroziją manant, kad dirbtinis intelektas gali mus valdyti geriau, ir net ne apie galios atidavimą keletui stambių technologijų kompanijų, pirmiausia susirūpinusių savo pelnu, o ne mūsų gerove – problema yra ta, kad dirbtiniu intelektu paremtų sprendimų pasekmės dažnai yra priešingos, nei tikimasi.
Čia mes prieiname prie dar vieno labai svarbaus aspekto – technologinio šališkumo. Kaip jį užtikrinti?
Išties, skaitant optimistinius tekstus apie dirbtinį intelektą, neįmanoma nepastebėti nuolat besikartojančio motyvo: žmonės yra šališki, subjektyvūs ir apskritai ne itin protingi, o dirbtinis intelektas – objektyvus ir daug geriau apdorojantis informaciją. Vis dėlto, reali situacija yra kitokia. Pirmiausia, dirbtinį intelektą visuomet kuria žmogus. Net jei kalbėtume apie mašininio mokymosi sistemas, kurios pačios sau susidaro pasaulio modelį duomenų pagrindu, kažkam reikia sukurti pirminį kodą ir atrinkti duomenis, iš kurių sistema mokysis. Tokiu būdu, žmogiškasis šališkumas ir subjektyvumas nesunkiai gali rasti kelią į pačią dirbtinio intelekto sistemos šerdį. Dar daugiau – bet kuri dirbtinio intelekto sistema bus tiek gera, kiek ji remsis objektyviais ir nešališkais duomenimis. Tačiau jei kai kurios grupės bus nepakankamai atstovaujamos duomenų rinkinyje ar kurios nors grupės įtaka bus neproporcingai didelė, atitinkamai išsikreips ir rezultatas. Dar daugiau – dirbtinio intelekto sistemos kartais gali ir kaip tik pernelyg atspindėti realybę: tarkime, jei duomenyse atsispindės diskriminacija kokiu nors pagrindu, sistema greitai išmoks ją atkartoti ir taikyti. Pavyzdžiui, jei organizacijoje daugiau vyrų nei moterų, sistema, kuriai pavesta atrinkti naujus darbuotojus, išmoks, kad lytis yra svarbus atrinkimo kriterijus, ir ims diskriminuoti moteris. Ir tokią diskriminaciją pastebės žmonės, o ne pats dirbtinis intelektas.
Žmogus bus visada įžvalgesnis už dirbtinį intelektą?
Dirbtinis intelektas „galvoja“ kitaip nei mes. Jei mes (žmonės) daug dėmesio skiriame kontekstualiai informacijai, principams, kuriuos priimame kaip savaime suprantamus, moralinėms bei etinėms normoms ir pan., pagrindinis dirbtinio intelekto veikimo principas yra optimizacija – efektyviausias įmanomas iš(si)kelto tikslo pasiekimas. Tad dirbtinio intelekto sprendimai, nors galbūt racionalūs siaurąja prasme, gali neatitikti žmogiškųjų vertybių ar būti kitaip nepageidaujami.
Dar daugiau – net ir tais atvejais, kai esama žmogaus kontrolės, sprendimas pastarajam tiesiog patvirtinti dirbtinio intelekto sprendimus gali būti itin stiprus: esant nepageidaujamiems rezultatams, kaltę visuomet galima suversti sistemai, kai tuo tarpu nepatvirtinus dirbtinio intelekto sprendimo ir esant nepageidaujamam rezultatui, priskiriama kaltė bus dviguba. Tad iš operatoriaus perspektyvos, visada saugiau tiesiog patvirtinti tai, ką siūlo dirbtinis intelektas, galbūt nepaisant to, ką sako paties žmogaus įžvalgumas.
Esate minėjęs, kad dirbtinio intelekto taikymas gali tapti, tiesiogine to žodžio prasme, gyvybės ir mirties klausimu. Kokiose srityse tai bus aktualiausia?
Tai pasakytina tiek apie savivaldžius automobilius, tiek apie dirbtinio intelekto taikymą karyboje. Jau dabar vadinamųjų „dronų“ naudojimas, nepaisant to, kad jie tebėra valdomi žmonių, yra kontraversiška praktika. Tuo tarpu suteikus jiems pilną sprendimų priėmimo autonomiją mes susiduriame su rimtomis etinėmis ir praktinėmis problemomis – ypač nepamirštant, kad dirbtinio intelekto sprendimų priėmimo gebėjimai yra itin priklausomi nuo ankstesnių duomenų, o kovos lauke daugelis situacijų gali būti netipinės. Nepaisant to, bene visos pajėgiausios kariuomenės šiuo metu bando įvairaus tipo autonomiškus kovinius įrenginius. Ir nors kol kas apie „robotus žudikus“ (kaip juos vadina oponentai) kalbėti dar ankstoka, rūpestį kelia tai, kad čia esame priklausomi nuo mažiausiai skrupulingų valstybių: vos tik kuri nors valstybė pirma įtrauks tokius ginklus į savo kariuomenę, visos kitos privalės sekti iš paskos. Tad labai svarbios pilietinės visuomenės ir tarptautinės bendruomenės pastangos siekiant užtikrinti, kad tokios technologijos netaptų karybos ateitimi.
Galiausiai pastebėtina, kad dirbtinis intelektas jau pagal apibrėžimą yra nesuprantamas ir sunkiai analizuojamas. Ypač kuomet kalbame apie savaime besimokančias sistemas, suprasti, kaip ir kodėl buvo priimtas tam tikras sprendimas tampa labai sudėtinga, o kartais ir išvis neįmanoma. Tad tais atvejais, kai su dirbtiniu intelektu susiduriame valdysenos ar kituose sprendimų priėmimo procesuose, paprastai sunkiai galima paaiškinti jų priežastis – priešingai nei žmogiško sprendimų priėmimo atveju, argumentavimas tampa sunkiai įmanomas. Tai veda prie vadinamosios „juodosios dėžės visuomenės“ (angl. black box society) atsiradimo: mes žinome, kas patenka į sistemą, žinome jos rezultatą, tačiau visa, kas iš tiesų svarbu, vyksta tarsi nepermatomoje juodoje dėžėje. Šiame kontekste itin svarbios įvairios „paaiškinamo dirbtinio intelekto“ (angl. Explainable Artificial Intelligence) iniciatyvos, skatinančios automatizuotų sprendimų atvirumą ir, kaip nurodo pats pavadinimas, paaiškinamumą. Vis dėlto šios iniciatyvos gali pavykti tik tuo atveju, jei nebus visuomenės spaudimo.
Tekstas parengtas įgyvendinant projektą „Prioritetas gerovės valstybėje – žmogaus teisės“. Projektas yra Aktyvių piliečių fondo, finansuojamo EEE finansinio mechanizmo lėšomis, dalis."