Akt w sprawie sztucznej inteligencji. Pierwszy kompleksowy akt prawny UE regulujący stosowanie systemów AI
Marcin Karolak print
Kiedy dyskutujemy na temat prawnego regulowania stosowania systemów AI, możemy czasem usłyszeć od osób, które nie są prawnikami pytanie zadane z dozą ironii: I co, będziecie aresztować komputery? Krótka odpowiedź na to pytanie, sformułowana w stylu dowcipów o Radiu Erewan, brzmi: „Wszystko się zgadza, oprócz trzech drobnych szczegółów – nie komputery, tylko ludzi, nie aresztować tylko chronić, i nie wsadzać do więzienia, lecz nakładać kary pieniężne na niektórych uczestników rynku”. Podchodząc do tej tematyki nieco poważniej, po kilku latach analiz na poziomie decyzyjnym UE zaobserwowano, że społeczne obawy związane z wykorzystywaniem systemów AI okazały się na tyle poważne, aby skutkowało to podjęciem prac nad prawnymi ramami użytkowania AI.
Proponowane rozwiązania systemowe dotyczące regulacji prawnych posługiwania się systemami AI mają dwa zasadnicze filary – mają chronić prawa podstawowe, demokrację, praworządność i środowisko przed zagrożeniami powodowanymi przez działanie systemów AI wysokiego ryzyka, ale jednocześnie wspierać innowacyjne rozwiązania i wspomagać rozwój systemów AI na terytorium Unii Europejskiej, tak aby stała się ona liderem w dziedzinie AI. W ocenie większości podmiotów zaangażowanych w prace nad takimi regulacjami, przepisy regulujące stosowanie systemów AI nie mogą doprowadzić do zahamowania prac nad rozwojem takich systemów i technologii, które mogą przysłużyć się człowiekowi i przyspieszyć prace nad istotnymi odkryciami naukowymi. W opinii legislatorów większość systemów sztucznej inteligencji nie stwarza zagrożenia dla człowieka i może przyczynić się do rozwiązania wielu problemów społecznych, natomiast prawo powinno w pierwszej linii regulować wykorzystanie takich systemów AI, które mogą spowodować powstanie różnego rodzaju ryzyk.
Zharmonizowane ramy prawne
13 marca 2024 r. Parlament Europejski przyjął tekst rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (Akt o sztucznej inteligencji – AI Act). Zgodnie z procedurą uchwalania aktów prawnych, rozporządzenie musi jeszcze zostać zatwierdzone przez Radę UE, aby stało się prawem obowiązującym w Unii Europejskiej.
AI Act zawiera prawną definicję systemu AI. Pod tym pojęciem należy rozumieć system maszynowy, zaprojektowany do działania na różnym poziomie autonomii, który po wdrożeniu może wykazywać zdolność adaptacji i który wnioskuje – do wyraźnych lub dorozumianych celów – jak generować na podstawie danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne albo wirtualne. Jest to definicja stworzona na potrzeby aktu prawnego i prawdopodobnie naukowcy zajmujący się nowoczesnymi technologiami mogliby długo dyskutować, czy powinno się do niej dodać jakieś elementy, czy też może część z nich jest zbędna. W ocenie autora tego artykułu, definicja z AI Act nie zawiera jednego istotnego elementu, a mianowicie odwołania do działania systemu zgodnie z wbudowanym algorytmem. W opisach działania systemów AI wskazuje się bowiem, że „kluczowa siła systemu sztucznej inteligencji znajduje się w jego logice operacyjnej (modelach algorytmów), która dla danego zestawu celów i na podstawie danych wejściowych z czujników zapewnia ekstrakcję (wynik) dla siłowników – jako zalecenia, przewidywania lub decyzje, które mogą wpłynąć na stan środowiska.”1
Trzy poziomy ryzyka
AI Act definiuje trzy poziomy ryzyka w stosowaniu sztucznej inteligencji: niedopuszczalny, wysoki oraz ograniczony. W odniesieniu do każdego z trzech poziomów akt prawny przewiduje odmienne regulacje. W rozdziale II AI Act odnosi się bezpośrednio do najwyższego poziomu ryzyka (niedopuszczalnego), wskazując rodzaje zakazanych praktyk w zakresie sztucznej inteligencji i kierując się ogólnie przyjętymi założeniami dotyczącymi praw człowieka. Zakazane jest przede wszystkim wykorzystanie systemów kategoryzacji biometrycznej, które indywidualnie kategoryzują osoby fizyczne, aby wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub filozoficznych, życia seksualnego lub preferencji seksualnych. Zakazane jest również wykorzystywanie zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ściągania przestępstw (AI Act przewiduje jednak wyjątki, np. zapobieganie zagrożeniu atakiem terrorystycznym).
Zakazane na podstawie AI Act jest również wykorzystanie systemów sztucznej inteligencji do takich celów, jak rozpoznawanie emocji w miejscu pracy i instytucjach edukacyjnych, klasyfikacja punktowa obywateli, prognozowanie przestępczości (wyłącznie na podstawie profilowania osoby lub oceny jej cech). Nie będzie też dozwolone wykorzystanie systemów AI, które pozwalają manipulować zachowaniem ludzi lub wykorzystywać ich słabości.
Oprócz ogólnego rygoru dla wszelkich systemów AI, rozporządzenie wyróżnia szczególną kategorię – systemy AI wysokiego ryzyka. Do tej grupy kwalifikuje się znaczna liczba systemów AI, takich jak m.in. systemy biometryczne (w wąskim zakresie, kiedy mogą być wykorzystywane na podstawie AI Act i innych aktów unijnych oraz krajowych), systemy związane z zarządzaniem krytyczną infrastrukturą cyfrową, ruchu drogowego, zaopatrzenia w wodę, gaz, ciepło lub energię elektryczną, a także zarządzające migracją, azylem i kontrolą graniczną. Znamienne jest to, że rozporządzenie w tym kontekście wymienia również systemy AI przeznaczone do stosowania przez organy sądowe w celu wspomagania organu sądowego w badaniu i interpretacji stanu faktycznego i przepisów prawa oraz w stosowaniu prawa do konkretnego stanu faktycznego lub do wykorzystywania w podobny sposób w alternatywnych metodach rozwiązywania sporów. Unijny prawodawca reaguje w ten sposób na rozwój systemów AI, projektowanych m.in. dla potrzeb pomocniczego wykorzystywania przez poszczególne organy wymiaru sprawiedliwości, jak również przez sądy arbitrażowe.
Systemy AI wysokiego ryzyka muszą spełniać szczegółowe wymogi ustalone przepisami AI Act. W odniesieniu do systemów tej kategorii należy przede wszystkim wdrożyć system zarządzenia ryzykiem rozumiany jako ciągły, iteracyjny proces, planowany i realizowany przez cały cykl użytkowania systemów, wymagający systematycznego przeglądu i aktualizacji. Użytkownicy takich systemów muszą dokonać identyfikacji i analizy dającego się racjonalnie przewidzieć ryzyka, jakie mogą one stwarzać, a następnie przyjąć odpowiednie i ukierunkowane środki zarządzania ryzykiem.
Nieodzowna kontrola człowieka
AI Act wymaga, aby systemy AI wysokiego ryzyka zostały zaprojektowane w odpowiedni sposób, z uwzględnieniem użycia odpowiednich narzędzi interfejsu człowiek–maszyna, aby w okresie wykorzystywania systemu AI wysokiego ryzyka mogły je skutecznie nadzorować osoby fizyczne. W tym miejscu, przynajmniej w teorii, prawo ma wymagać stosowania odpowiednich środków, aby zapobiegać sytuacjom kojarzącym się z buntem systemu Skynet przedstawionym w filmie „Terminator”. Niezwykłe jest, że film ten powstał dokładnie 40 lat temu i już wtedy obawiano się, że maszyny wymkną się spod kontroli ludzi. Aby ułatwić małym i średnim przedsiębiorstwom, w szczególności start–upom, projektowanie systemów AI, mają być tworzone tzw. piaskownice regulacyjne (regulatory sandbox), czyli specjalne otoczenie – zarówno prawne, jak i technologiczne – ułatwiające kontrolowany i bezpieczny rozwój innowacji.
Należy pamiętać, że na najwyższym szczeblu najbardziej skomplikowanego procesu decyzyjnego podjętego z użyciem systemów AI, zawsze znajduje się człowiek, działający indywidualnie albo kolektywnie. Każda osoba, której dotyczy decyzja podjęta przez jedną lub więcej osób stosujących systemy AI na podstawie wyników działania systemu AI wysokiego ryzyka (która to decyzja generuje skutki prawne lub w podobny sposób oddziałuje na tę osobę na tyle znacząco, że uważa ona, iż ma to niepożądany wpływ na jej zdrowie, bezpieczeństwo lub prawa podstawowe) ma prawo uzyskania od podmiotu stosującego AI merytorycznego wyjaśnienia roli tego systemu AI w procedurze podejmowania decyzji.
Nieprzestrzeganie obowiązków nałożonych na podmioty wykorzystujące technologie i systemy AI, może prowadzić na różnych poziomach (wytwórcy, dostawcy, importerzy, operatorzy) do nałożenia przez organy kontrolne surowych sankcji. W przypadku udowodnienia zakazanych praktyk w zakresie praw człowieka, takich jak opisane w niniejszym artykule kategoryzacje biometryczne czy manipulowanie ludzkimi emocjami, maksymalna kara pieniężna przewidziana przepisami tego aktu może wynosić nawet 35 000 000 euro lub – jeżeli naruszenia dokonuje przedsiębiorstwo – do 7 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
Podawanie nieprawdziwych informacji krajowym organom kontrolnym w odpowiedzi na ich wezwania może skutkować nałożeniem kary pieniężnej do 7 500 000 euro lub – jeżeli naruszenia dokonuje przedsiębiorstwo – do 1 % jego całkowitego rocznego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
AI Act to pierwsza kompleksowa regulacja UE w zakresie stosowania systemów sztucznej inteligencji. Niezwykle dynamiczny rozwój systemów AI, które znajdują zastosowanie w kolejnych gałęziach nauki, przemysłu czy też edukacji, wskazuje na to, że stoimy dopiero na początku drogi do regulacji tego zjawiska.
Przypisy
1 Czym jest sztuczna inteligencja – Portal sztucznej inteligencji – Portal Gov.pl (www.gov.pl)
Marcin Karolak
Działa w praktyce TMT, doradzając w zakresie prawa mediów (tradycyjnych oraz elektronicznych), jak również prawa telekomunikacyjnego, ze szczególnym uwzględnieniem gospodarki zasobami częstotliwości. Doradza także w zakresie prawa własności intelektualnej, w szczególności w sprawach dotyczących prawa autorskiego. W praktyce zawodowej ma również obsługę podmiotów z branży social media/modeling, w zakresie działalności influencerów, budowania marki osobistej, ochrony wizerunku oraz reklamy. Kontakt: m.karolak@skplaw.pl. Strony internetowe: www.skplaw.pl, www.skpipblog.pl.
source: Automatyka 4/2024