Odpowiedzialność za działania sztucznej inteligencji w Europie
Kamil Statuch drukuj
Ostatnie lata to dynamiczny rozwój technologii oraz rozwiązań opartych na sztucznej inteligencji, a wykorzystujące ją urządzenia, narzędzia informatyczne czy aplikacje trafiają do coraz szerszego grona odbiorców. Chociaż w wielu obszarach sztuczna inteligencja przewyższa możliwości przeciętnego człowieka, w dalszym ciągu oparte na niej rozwiązania nie są niezawodne, w efekcie czego w niektórych przypadkach ich działanie może doprowadzić do wyrządzenia szkody korzystającemu z nich podmiotowi.
Rodzi to naturalne pytania o zasady ponoszenia odpowiedzialności odszkodowawczej za szkody wyrządzone na skutek autonomicznych decyzji systemów opartych na sztucznej inteligencji, zwłaszcza że istniejące obecnie regulacje prawne nie do końca nadążają za postępem technologicznym i nie przystają do jego aktualnej specyfiki. Problem ten został dostrzeżony przez prawodawcę unijnego, który w ostatnim czasie podjął istotne kroki mające na celu uregulowanie tej materii.
Obecnie obowiązujące regulacje prawne
Obecnie, z braku alternatywy, podstawę prawną dochodzenia roszczeń odszkodowawczych za szkody wyrządzone działaniem systemów opartych na sztucznej inteligencji stanowią ogólne przepisy poszczególnych krajów członkowskich, dotyczące odpowiedzialności za szkodę. Przepisy te uzależniają możliwość uzyskania odszkodowania za szkodę od udowodnienia przez osobę dochodzącą tego odszkodowania szeregu przesłanek, do których należą zazwyczaj: zawinione działanie lub zaniechanie osoby, która spowodowała szkodę, wystąpienie szkody w określonej wysokości oraz istnienie związku przyczynowego między zachowaniem sprawcy a powstałą szkodą. Problem pojawia się w sytuacji, gdy w ramach łańcucha przyczynowo-skutkowego, istniejącego między działalnością człowieka a powstałą szkodą, pojawia się aktywność sztucznej inteligencji, cechująca się autonomicznością i złożonością. Stopień skomplikowania procesów podejmowania decyzji przez systemy oparte na sztucznej inteligencji powoduje, że dla osoby dochodzącej odszkodowania szczególnie karkołomne może okazać się udowodnienie, że konkretne dane wejściowe, wprowadzane do tych systemów przez potencjalnego sprawcę, rzeczywiście przyczyniły się do uzyskania przez system sztucznej inteligencji wyniku, który skutkował powstaniem szkody. W wielu przypadkach może stanowić to faktyczną przeszkodę w uzyskaniu odszkodowania przez podmiot poszkodowany.
Praca nad dyrektywą i jej założeniami
Remedium na opisane wyżej problemy ma być m.in. unijna dyrektywa mająca na celu harmonizację przepisów krajowych, tak aby zapewnić osobom dochodzącym odszkodowania za szkody wyrządzone przez systemy sztucznej inteligencji analogicznego poziomu ochrony prawnej, jak w przypadku osób, które poniosły szkody spowodowane w „tradycyjny” sposób, tj. bez udziału takich systemów. Harmonizacja przepisów ma doprowadzić do likwidacji niepewności prawa oraz różnic w zakresie procesu dochodzenia odszkodowań w ramach poszczególnych jurysdykcji krajowych, co współgra z transgranicznym i uniwersalnym charakterem usług i produktów opartych na systemach sztucznej inteligencji. 28 września 2022 r. Komisja Europejska przyjęła wniosek dotyczący projektu dyrektywy w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (Artificial Intelligence Liability Directive, AILD), który pozwala na ocenę kierunku, w jakim zmierzać będą przyszłe unijne regulacje w tym zakresie.
Zakładane przez unijnego ustawodawcę cele mają być osiągnięte przez wprowadzenie ułatwień dowodowych dla osób dochodzących odszkodowania za szkody. Kluczowe z tego punktu widzenia są przepisy artykułu 4 AILD, ustanawiające tzw. domniemanie istnienia związku przyczynowego między winą pozwanego a wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system spodziewanego wyniku. Oznacza to, że w ramach procesu odszkodowawczego, przy spełnieniu szeregu opisanych w tym przepisie przesłanek, powód będzie zwolniony z obciążającego go w obecnym stanie prawnym obowiązku udowodnienia istnienia takiego związku przyczynowego. W efekcie to pozwany, chcący uwolnić się od odpowiedzialności odszkodowawczej, będzie musiał wykazać przed sądem, że związek ten w danej sprawie nie zaistniał. Rozwiązanie to ma na celu swoiste wyrównanie sił stron postępowania, zważywszy na fakt, że dla osoby poszkodowanej – będącej niejednokrotnie konsumentem – samodzielne sprostanie ciężarowi dowodu w tym zakresie mogłoby okazać się de facto niemożliwe z uwagi na stopień skomplikowania funkcjonowania systemów sztucznej inteligencji i konieczne do poniesienia nakłady czasowe i finansowe.
Ponadto projektowane przepisy przyznają sądowi rozpoznającemu sprawę odszkodowawczą uprawnienie do nakazania dostawcom lub użytkownikom systemów sztucznej inteligencji ujawnienia istotnych dowodów, dotyczących konkretnego systemu sztucznej inteligencji wysokiego ryzyka, co do którego istnieje podejrzenie, że wywołał szkodę, w zakresie, w jakim dowody te okażą się niezbędne do uzasadnienia roszczenia odszkodowawczego. W przypadku odmowy uczynienia zadość temu nakazowi przez pozwanego, sąd rozpoznający sprawę odszkodowawczą będzie uprawniony do domniemania, że pozwany nie zastosował się do obowiązku zachowania należytej staranności co do okoliczności, które miały zostać wykazane za pomocą dowodów, podlegających ujawnieniu zgodnie z treścią nakazu, a które mają wpływ na ustalenie jego odpowiedzialności.
Planowana dyrektywa, jak pośrednio wskazuje sama jej nazwa, dotyczyć ma odpowiedzialności cywilnej wynikającej przede wszystkim z czynów niedozwolonych. Do modelowych przykładów takich czynów zaliczyć można chociażby potrącenie pieszego przez pojazd autonomiczny czy błąd programu interpretującego wyniki badań pacjenta, skutkujący błędną diagnozą, a w konsekwencji nieskutecznym leczeniem. Poza zakresem jej normowania pozostają natomiast kwestie odpowiedzialności na podstawie stosunków umownych, odpowiedzialności karnej czy odpowiedzialności administracyjnej.
AILD – perspektywa czasowa
Omawiane przepisy, jakkolwiek ograniczone zakresowo, należy ocenić pozytywnie. Ich wprowadzenie powinno przyczynić się bowiem do wyeliminowania wielu wątpliwości, jakie mogą nasuwać się na gruncie aktualnego stanu prawnego w zakresie odpowiedzialności odszkodowawczej za szkody spowodowane działaniem sztucznej inteligencji, a tym samym do faktycznego ułatwienia uzyskiwania odszkodowań przez osoby poszkodowane. Należy jednak uzbroić się w cierpliwość, albowiem omawiane regulacje są nadal w fazie procesu legislacyjnego, co oznacza, że ich ostateczne przyjęcie oraz implementacja do krajowych porządków prawnych może potrwać nawet kilka kolejnych lat.
Kamil Statuch
Specjalizuje się w postępowaniach spornych, ze szczególnym uwzględnieniem spraw karnych związanych z przestępczością gospodarczą oraz white collar crime. Reprezentuje klientów w postępowaniach spornych, w tym karnych, karnoskarbowych, cywilnych oraz gospodarczych. Prowadzi wewnętrzne postępowania wyjaśniające oraz doradza w opracowywaniu i wdrażaniu procedur mających na celu wykrywanie oraz zapobieganie nadużyciom w przedsiębiorstwach. Kontakt: k.statuch@skplaw.pl. Strony internetowe: www.skplaw.pl, www.skpipblog.pl.
źródło: Automatyka 6/2023
Słowa kluczowe
automatyka, Kancelaria SKP Ślusarek Kubiak Pieczyk, prawo, sztuczna inteligencja
Komentarze
blog comments powered by Disqus