Rozporządzenie w sprawie SI ma chronić prawa podstawowe, demokrację, praworządność i środowisko przed systemem sztucznej inteligencji wysokiego ryzyka. Jednocześnie ma wspierać innowacje i sprawić, że Europa będzie liderem w dziedzinie AI. Rozporządzenie określa obowiązki w stosunku do sztucznej inteligencji w oparciu o potencjalne ryzyko z nią związane i jej potencjalne skutki.
Zakaz pewnych zastosowań
Nowe przepisy zakazują pewnych zastosowań sztucznej inteligencji, które zagrażają prawom obywateli. Są to między innymi systemy kategoryzacji biometrycznej, które wykorzystują cechy wrażliwe i nieukierunkowane pobieranie wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej, by stworzyć bazy danych służące rozpoznawaniu twarzy. Zakazane będą też rozpoznawanie emocji w miejscu pracy i instytucjach edukacyjnych, klasyfikacja punktowa obywateli, prognozowanie przestępczości (wyłącznie na podstawie profilowania osoby lub oceny jej cech). Nie będzie też dozwolona sztuczna inteligencja, która manipuluje zachowaniem ludzi lub wykorzystuje ich słabości. Niedozwolone będzie także stosowanie systemów SI do tzw. oceny osób obywatelskich (social scoring). To znaczy, że nie będzie można wykorzystywać jej do śledzenia stylu życia obywateli.
Wyjątki dla organów ścigania
Organom ścigania z reguły nie wolno korzystać z systemów identyfikacji biometrycznej. Są jednak pewne wyjątki, które wąsko zdefiniowano na zamkniętej liście. Organy te mogą wykorzystywać systemy identyfikacji biometrycznej w czasie rzeczywistym tylko wtedy, gdy spełniły ściśle określone warunki. Na przykład mogą je stosować w określonym czasie i w określonym położeniu geograficznym. Muszą też posiadać specjalne zezwolenie sądowe lub administracyjne. Mogą je wykorzystywać, by odnaleźć zaginioną osobę lub zapobiegać atakowi terrorystycznemu. Istnieją też tzw. systemy zdalnej identyfikacji biometrycznej post factum. Ich stosowanie wiąże się z wysokim ryzykiem i wymaga zezwolenia sądowego, ponieważ systemy takie wykorzystuje się do wyszukiwania w związku z przestępstwem.
Obowiązki dotyczące systemów wysokiego ryzyka
Szczególne obowiązki określono również dla innych systemów sztucznej inteligencji wysokiego ryzyka. A to dlatego, że stanowią one potencjalne zagrożenie dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji czy praworządności. Obszary, w których wykorzystuje się takie systemy, to na przykład infrastruktura krytyczna, edukacja i szkolenie zawodowe, zatrudnienie, podstawowe usługi prywatne i publiczne (np. opieka zdrowotna, bankowość). Opierają się też na nich niektóre systemy organów ścigania. Wykorzystuje się je, by zarządzać migracją i granicami oraz na potrzeby wymiaru sprawiedliwości i procesów demokratycznych (np. by wpływać na wybory). Takie systemy muszą oceniać i ograniczać ryzyko oraz prowadzić rejestry zdarzeń. Muszą też być przejrzyste i dokładne oraz podlegać kontroli przez człowieka. Dzięki rozporządzeniu obywatele będą mieć prawo składać skargi dotyczące systemów SI. Będą także otrzymywać wyjaśnienia decyzji podejmowanych przez systemy sztucznej inteligencji wysokiego ryzyka, które mają wpływ na ich prawa.
Kolejne kroki
Nowe rozporządzenie zakłada wyznaczenie Europejskiej Rady ds. Sztucznej Inteligencji oraz wyłonienie organów krajowych w poszczególnych państwach członkowskich. Ich zadaniem będzie zapewnienie skutecznego egzekwowania nowych przepisów na poziomie krajowym.
Kluczowe będzie to, jak przepisy zadziałają w praktyce. Tu dużą rolę ma zarówno Komisja Europejska, jak i państwa członkowskie.
Wdrożenie SI wymaga powołania lub wybrania spośród istniejących już instytucji tych, które będą nadzorować i regulować rynek sztucznej inteligencji.
Na podst. europarl.europa.eu