„Lietuvoje įmonės dirbtinį intelektą daugiausiai naudoja informacinių technologijų (IT) saugai, gamybos procesams, apskaitai, finansų valdymui. Pastebime, kad pastaruoju metu dėmesys šiai temai auga. Iš klientų jau keletą metų sulaukiame klausimų, susijusių su DI taikymu. Pavyzdžiui, dažnas domisi, kaip Lietuvoje reglamentuojamas autonominių automobilių eismas keliuose, kokios galimybės panaudoti biometrinius duomenis arba operacijų nuotraukas apmokant medicininių prietaisų algoritmus. Taip pat yra ir klausimų, susijusių su produktų atitiktimi, kibernetine sauga, sutarčių sudarymu bei asmens duomenų tvarkymu“, – pasakoja S. Liuimienė.
Anot teisininkės, reikalavimai aktualūs ne tik DI kūrėjams, bet visiems, kas vienaip ar kitaip tokias priemones naudoja darbe. To priežastis – tiekėjais pagal aktą pripažįstami ne tik DI kūrėjai, tačiau ir įmonės, užsakančios šią sistemą ir pateikiančios ją rinkai, pradedančios ją naudoti savo vardu ar su savo prekės ženklu.
Įvertinti kylančias rizikas
Priėmus DI aktą, kuris palaipsniui bus įgyvendinamas iki 2026-ųjų, atsirado aiškus DI sistemų skirstymas į aukštos rizikos, žemos rizikos ir draudžiamas. Taip pat identifikuoti reikalavimai.
Pirmiausia ir svarbiausia – sistemų tiekėjai ir naudotojai turės užtikrinti savo darbuotojų DI raštingumą, tai yra, supažindinti juos su etiško ir teisėto DI naudojimo reikalavimais bei užtikrinti, kad į juos būtų atsižvelgiama. Visgi svarbu žinoti, kad reikalavimai įmonėms gali skirtis. Jų apimtis priklauso nuo DI sistemų keliamos rizikos.
„Didelės rizikos DI sistemos yra nustatomos pagal veiklos sritis ir naudojimo tikslus, kuriuos įgyvendinant gali atsirasti didelė grėsmė sveikatai, saugumui ar žmogaus teisėms. Pavyzdžiui, tokios sistemos gali būti naudojamos esminės infrastruktūros saugumui užtikrinti, darbuotojų atrankai, fizinių asmenų kreditingumo vertinimui ar draudimo įmokų apskaičiavimui. Didelę riziką keliančias dirbtinio intelekto sistemas naudojančios įmonės privalės įgyvendinti techninio ir organizacinio pobūdžio atitikties priemones. Pavyzdžiui, joms reikės parengti išsamius DI sistemų veikimo ir naudojimo dokumentus, vidaus kokybės sistemą, užtikrinti naudojimo ir sistemų kūrimo priežiūrą. – sako S. Liuimienė, – Kitoms bendrovėms, kurios naudoja nedidelę riziką keliančias dirbtinio intelekto sistemas, pakaks užtikrinti skaidrumo reikalavimų laikymąsi. Pavyzdžiui, klientų aptarnavimui naudojant DI valdomą pokalbių programą, užteks vartotojams identifikuoti, jog su jais bendrauja dirbtinis intelektas.“
Neįgyvendinus reikalavimų laiku priežiūros institucija – Lietuvoje tai greičiausiai bus Ryšių Reguliavimo Tarnyba – galės skirti įmonėms baudas iki 15 mln. Eur. arba 3 proc. metinių pasaulinių pajamų, sako COBALT vadovaujanti teisininkė.
Pagal pranešimo spaudai inf.