Projekt Aktu o sztucznej inteligencji. Najważniejsze założenia w świetle stanowiska Parlamentu Europejskiego
Marlena Kudła drukuj
Sztuczna inteligencja i rozwiązania na niej oparte mają aktualnie wpływ na każdy aspekt życia człowieka – począwszy od rekomendacji filmów czy seriali, przez edukację i transport, po ochronę zdrowia i bezpieczeństwo. W tej sytuacji nie dziwi, że wykorzystanie systemów sztucznej inteligencji może rodzić obawy i wątpliwości z perspektywy prawa.
Unia Europejska już od jakiegoś czasu podejmuje szereg działań mających na celu uregulowanie wprowadzania do obrotu i korzystania z rozwiązań AI. Wyrazem tego jest m.in. projekt tzw. Aktu o sztucznej inteligencji1.
Unijne prace nad Aktem o sztucznej inteligencji
Temat sztucznej inteligencji przewija się w Unii Europejskiej już od kilku lat. Organy unijne co jakiś czas wydają białe księgi, komunikaty, strategie, założenia. Póki co nie ma jednak aktów prawnych, które całościowo regulowałyby kwestie związane z tworzeniem i wykorzystywaniem sztucznej inteligencji2. Nawet projekty aktów prawnych nie są jeszcze na ten moment wiążące.
W 2021 r. Komisja Europejska zaproponowała projekt rozporządzenia zwanego Aktem o sztucznej inteligencji3. W grudniu 2022 r. swoje podejście zaprezentowała również Rada Unii Europejskiej4. Natomiast w czerwcu 2023 r. podczas głosowania nad Aktem Parlament Europejski przyjął stanowisko5, różniące się częściowo od pierwotnego projektu zaproponowanego przez Komisję Europejską.
Żadna z propozycji rozporządzenia nie zawiera definicji sztucznej inteligencji. Projekt posługuje się od początku pojęciem „systemów sztucznej inteligencji”. W brzmieniu nadanym przez Parlament Europejski system sztucznej inteligencji oznacza „system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii i który może – do wyraźnych lub dorozumianych celów – generować wyniki, takie jak przewidywania, zalecenia lub decyzje wpływające na środowiska fizyczne lub wirtualne”6.
Na marginesie warto zwrócić uwagę, w jaki sposób problemy, które pojawiły się w związku z korzystaniem z takich rozwiązań, jak ChatGPT, wpłynęły na prace nad unijnym Aktem. Parlament Europejski uwzględnił pojęcie tzw. modelu generatywnego, który jest modelem sztucznej inteligencji trenowanym na szerokiej skali danych, „jest zaprojektowany z myślą o ogólnym charakterze wyników i może być dostosowany do szerokiego zakresu odrębnych zadań”7.
Zakres proponowanej regulacji
Akt o sztucznej inteligencji ma z założenia harmonizować przepisy regulujące tworzenie i wprowadzanie do obrotu systemów sztucznej inteligencji. Proponowane regulacje dzielą systemy sztucznej inteligencji według następujących poziomów ryzyka: niedopuszczalne ryzyko (uznawane za stwarzające zagrożenie dla ludzi), wysokie ryzyko, ryzyko umiarkowane oraz ryzyko minimalne. Ponadto projekt rozporządzenia m.in. zakazuje określonych praktyk, precyzuje obowiązki związane w szczególności z systemami AI wysokiego ryzyka nakładane na operatorów takich systemów, a także reguluje kwestie przejrzystości w odniesieniu do systemów AI. Jeżeli chodzi o dziedziny i rodzaje systemów sztucznej inteligencji, projekt rozporządzenia obejmuje w zasadzie wszystkie dziedziny poza wojskowymi. Wersja Aktu przyjęta przez Parlament Europejski wyłącza z zakresu m.in. osoby fizyczne będące operatorami sztucznej inteligencji, które korzystają z systemów AI w celach osobistych, związanych z działalnością pozazawodową.
Zakazane systemy AI
Projekt Aktu o sztucznej inteligencji wyszczególnia praktyki dotyczące systemów AI uznawane za niedozwolone. Do nich należą m.in. systemy AI wykorzystujące techniki podprogowe czy słabości określonej grupy osób ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne, a także ze względu na szczególną sytuację społeczną czy ekonomiczną danej osoby. Do projektu wprowadzony został również zakaz wykorzystywania systemów zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w przestrzeni publicznej, jak rozpoznawanie twarzy. Ponadto jedna z poprawek Parlamentu Europejskiego objęła zakazem wykorzystywanie kategoryzacji biometrycznej do kategoryzowania ludzi według wrażliwych lub chronionych cech albo na podstawie wnioskowania o nich8. Wśród zakazanych systemów AI znalazły się również te, które dotyczą tzw. social scoring’u, dotąd znanego z filmu „Raport mniejszości” czy systemu wprowadzonego w Chinach. Zgodnie z treścią projektu oznacza on „ocenianie lub klasyfikowanie osób fizycznych na podstawie ich zachowań społecznych, statusu społeczno-ekonomicznego lub na podstawie znanych lub przewidywanych cech osobistych lub cech osobowości”9. Ponadto w projekcie wprowadzono zakaz odnoszący się do systemów przewidywania ryzyka ponownego popełnienia przestępstwa na podstawie profilowania danej osoby, jej wcześniejszego zachowania czy cech osobowości. W odniesieniu do organów ścigania, służby granicznej, miejsca pracy czy szkół nie będzie też możliwe wykorzystywanie systemów AI opartych na rozpoznawaniu emocji.
Systemy AI wysokiego ryzyka
Jak już zostało wspomniane, w projekcie rozporządzenia systemy sztucznej inteligencji skategoryzowane są według różnych poziomów ryzyka. Na tej podstawie na dostawcę systemu AI nakładane są określone obowiązki. Zgodnie z tym podziałem najwięcej wymogów zostaje nałożonych na dostawców systemów AI wysokiego ryzyka. Zgodnie z projektem rozporządzenia do takich systemów należą m.in. systemy AI wykorzystywane w identyfikacji biometrycznej, w obsłudze infrastruktury krytycznej, w edukacji, w procesach rekrutacyjnych i zatrudnieniu, systemy stosowane do oceny zdolności kredytowej, do kwalifikowalności osób fizycznych do świadczeń publicznych, w tym do usług opieki zdrowotnej czy do ubezpieczenia zdrowotnego lub ubezpieczenia na życie. Projekt Aktu zalicza do takich systemów także wykorzystywane przez organy ścigania poligrafy, a także systemy używane do oceny wiarygodności dowodów w toku ścigania przestępstw lub prowadzenia dochodzeń w ich sprawie. W tej kategorii mieszczą się również systemy wykorzystywane jako pomoc w interpretacji prawnej i stosowaniu prawa, a ponadto systemy stosowane przez organy publiczne w kwestiach związanych z zarządzaniem migracją, azylem i kontrolą granic (w tym do oceny ryzyka i bezpieczeństwa stwarzanego przez osobę, która chce wjechać na terytorium państwa członkowskiego, a także do weryfikacji autentyczności dokumentów podróży oraz wniosków o udzielenie azylu, o wydanie wizy i dokumentów pobytowych). Wersja Aktu przyjęta przez Parlament Europejski kwalifikuje jako wysokie ryzyko również systemy AI służące do wywierania wpływu na wynik wyborów lub referendum lub na zachowanie osób fizycznych podczas głosowania. Ponadto jako wysokie ryzyko uwzględniono również systemy rekomendacji stosowane przez platformy społecznościowe.
Podmioty wykorzystujące systemy AI wysokiego ryzyka będą zatem podlegały szeregowi obowiązków zarówno przed zaprojektowaniem i wprowadzeniem do obrotu danego systemu AI, jak i w trakcie jego funkcjonowania. Systemy te będą musiały być m.in. zarejestrowane w odpowiedniej bazie unijnej. Ponadto wiele wymogów związanych jest np. z przejrzystością systemów AI czy nadzorem ze strony człowieka. Przykładowo art. 13 projektu wprowadza regulację, zgodnie z którą dostawca systemu wysokiego ryzyka jest zobowiązany do zapewnienia przejrzystości funkcjonowania systemu i umożliwienia użytkownikom zrozumienia wyników działania danego algorytmu. Przejrzystość, o której mowa w proponowanych przepisach, oznacza, że „w momencie wprowadzania do obrotu systemu sztucznej inteligencji wysokiego ryzyka wykorzystuje się wszystkie dostępne środki techniczne zgodnie z powszechnie uznanym aktualnym stanem wiedzy, aby zapewnić dostawcy i użytkownikowi możliwość interpretacji wyników systemu sztucznej inteligencji”10.
Wersja Aktu przyjęta przez Parlament Europejski uwzględnia również obowiązek oceny działań systemu AI wysokiego ryzyka pod względem wpływu na prawa podstawowe. Co istotne, Parlament Europejski przyjął również poprawkę wprowadzającą instytucję skargi do krajowego organu nadzorczego, którą będą mogły wnieść osoby fizyczne (lub grupa osób fizycznych) przeciwko operatorom systemów sztucznej inteligencji.
Modele generatywne
W przypadku systemów wyodrębnionych jako modele generatywne, czyli systemów tworzących treści typu audio, wideo, obraz czy tekst (np. ChatGPT), zgodnie z treścią projektu konieczne będzie spełnienie wymogów dotyczących przede wszystkim przejrzystości, tj. m.in. polegających na projektowaniu systemu w sposób zapobiegający generowaniu nielegalnych treści oraz umożliwiający ujawnienie, że użytkownik ma do czynienia z systemem AI. Dodatkowo obowiązkowe będzie prowadzenie dokumentacji w odniesieniu trenowania modelu na danych będących utworami objętymi prawami autorskimi. Modele generatywne będą również musiały zostać zarejestrowanie w unijnej bazie. Warto wskazać, że nałożenie tych obowiązków – zgodnie z propozycją Aktu – nie oznacza jednocześnie uznania modeli generatywnych za system AI wysokiego ryzyka.
Jeżeli chodzi o systemy AI kwalifikowane jako ryzyko niskie lub minimalne, zastosowanie będą miały przede wszystkim obowiązki dotyczące przejrzystości, co oznacza, że użytkownik powinien mieć świadomość, iż ma do czynienia ze sztuczną inteligencją.
Podsumowanie
Obecne brzmienie Aktu o sztucznej inteligencji nie jest jeszcze ostateczne. Jako że Parlament Europejski w czerwcu 2023 r. przyjął swoje stanowisko wobec projektu, możliwe jest już przejście do kolejnych etapów pracy nad Aktem. Celem UE jest przyjęcie ostatecznej wersji rozporządzenia
do końca 2023 r. 11.
Marlena Kudła
Specjalizuje się w ochronie dóbr osobistych osób fizycznych i prawnych. Bliskie są jej zagadnienia ochrony wizerunku, renomy i dobrego imienia. Zaangażowana w postępowania z zakresu zwalczania nieuczciwej konkurencji. Zajmuje się także prawem własności intelektualnej, ze szczególnym uwzględnieniem prawa autorskiego, prawa reklamy i mediów. Kontakt: m.kudla@skplaw.pl. Strony internetowe: www.skplaw.pl, www.skpipblog.pl. .
1 . Dalej również jako: „Akt”.
2 . Stan na 01.08.2023 r.
3 . Wniosek Komisji Europejskiej z 21.04.2021 r. Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniające niektóre akty ustawodawcze Unii COM(2021) 206 final 2021/0106(COD).
4 . Wniosek Rady Unii Europejskiej dotyczący rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniającego niektóre akty ustawodawcze Unii – Podejście ogólne, 25.11.2022 r., 2021/0106(COD).
5 . Akt w sprawie sztucznej inteligencji. Poprawki przyjęte przez Parlament Europejski w dniu 14 czerwca 2023 r. w sprawie wniosku dotyczącego rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniającego niektóre akty ustawodawcze Unii (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD).
6 . Tamże.
7 . Tamże.
8 . Zob. Art. 5 ust. 1 lit. ba) Aktu w sprawie sztucznej inteligencji. Poprawki przyjęte przez Parlament Europejski… Stan na 01.08.2023 r.
9. Akt w sprawie sztucznej inteligencji. Poprawki przyjęte przez Parlament Europejski… Stan na 01.08.2023 r.
10. Art. 13 ust. 1 Aktu w sprawie sztucznej inteligencji. Poprawki przyjęte przez Parlament Europejski… Stan na 01.08.2023 r.
11. Stan na 1.8.2023 r.
źródło: Automatyka 9/2023
Słowa kluczowe
Kancelaria SKP Ślusarek Kubiak Pieczyk, prawo, sztuczna inteligencja
Komentarze
blog comments powered by Disqus