Kto odpowiada za robota?
Krzysztof Wojdyło print
Zagadnienie odpowiedzialności za działania robotów znalazło się w samym centrum debaty dotyczącej prawnych aspektów nowych form robotyki. Powiększenie zakresu autonomii maszyn postawiło nas przed koniecznością udzielenia nowych odpowiedzi na najbardziej fundamentalne pytania dotyczące zasad odpowiedzialności.
Podstawowym powodem, dla którego refleksja o zasadach odpowiedzialności nabrała w odniesieniu do robotyki tak dużego znaczenia, jest fakt, że współczesne roboty cechuje bardzo daleko posunięta autonomia w procesie podejmowania decyzji. Coraz większa liczba decyzji jest podejmowana przez roboty bez bezpośredniego udziału człowieka. Decyzje te są oczywiście w dużej mierze zdeterminowane algorytmem, który został wprowadzony do systemu sterowania robota. Mimo to, z uwagi na złożoność okoliczności faktycznych oraz ilość zmiennych, które wpływają na podejmowane decyzje, w wielu przypadkach nie sposób jest przewidzieć konkretnego zachowania maszyny.
Proces ten dobrze ilustruje przykład autonomicznych samochodów. System sensorów umieszczonych w pojeździe dostarcza na bieżąco do systemu sterowania pojazdem olbrzymie ilości danych, które służą do podejmowania przez maszynę określonych działań. Jakkolwiek działania te są podejmowane w oparciu o opracowany wcześniej algorytm, złożoność oraz ilość zmiennych będących podstawą decyzji o wyborze działania powoduje, że ostateczny wybór należy do maszyny i nie sposób go przypisać bezpośrednio którejś z osób zaangażowanych w tworzenie robota (np. autorowi algorytmów lub producentowi poszczególnych części). To maszyna, bez jakiegokolwiek udziału człowieka, decyduje w sposób autonomiczny np. o sposobie ominięcia przeszkody, nagłym hamowaniu czy przyspieszeniu.
Wraz z wejściem robotów w sferę publiczną radykalnie wzrośnie liczba różnych interakcji robotów z ludźmi. Jest oczywiste, że wraz z rozwojem tych interakcji działania robotów będą również wyrządzały różnego rodzaju szkody, zarówno osobom, jak i mieniu. Powstanie wtedy fundamentalne pytanie o zasady ponoszenia odpowiedzialności za te szkody. Pytanie to jest jak najbardziej zasadne na gruncie prawa cywilnego. Jeszcze bardziej jednak uświadamiamy sobie jego znaczenie w kontekście zasad odpowiedzialności karnej.
Na stopień komplikacji zagadnienia odpowiedzialności za działania autonomicznych robotów wpływa m.in. różnorodność występujących w praktyce robotów oraz zakres ich możliwych zastosowań. Bardzo trudno jest przy takim zróżnicowaniu ustalić jeden uniwersalny model odpowiedzialności.
Odpowiedzialność cywilna
Rozważania dotyczące odpowiedzialności cywilnej ograniczamy jedynie do zasad odpowiedzialności deliktowej oraz odpowiedzialności za produkt niebezpieczny.
Okolicznością, która odróżnia autonomiczne roboty od znanych nam dzisiaj rozwiązań technicznych, jest to, że bezpośrednim powodem wyrządzonej szkody może być zasadniczo autonomiczne działanie maszyny. Związek przyczynowy niezbędny do zaistnienia odpowiedzialności będzie więc istniał przede wszystkim pomiędzy szkodą a działaniem maszyny. W takim przypadku może się okazać, że niemożliwe jest ustalenie związku przyczynowego (nawet pośredniego) pomiędzy szkodą a określonym działaniem człowieka (np. twórcy algorytmu). Stanowi to ogromne wyzwanie dla współczesnego systemu odpowiedzialności cywilnej, który niewątpliwie dąży do ustalenia osoby odpowiedzialnej za szkodę. W przypadku działania wywołanego przez autonomiczne decyzje robota może się to okazać niemożliwe.
W praktyce można sobie wyobrazić znacznie bardziej złożone stany faktyczne. Przykładowo fabryczne uszkodzenie jednego z sensorów robota może skutkować daleko idącą deformacją procesów decyzyjnych robota, co w konsekwencji może spowodować powstanie szkody. Możliwe do wyobrażenia są również sytuacje, w których szkoda jest wynikiem ewidentnych błędów w algorytmie maszyny (np. wprowadzenia do algorytmu autonomicznych pojazdów błędnych założeń dotyczących zasad ruchu drogowego). Nie można również wykluczyć, że działania robota prowadzące w konsekwencji do powstania szkody będą wynikiem włamania do systemu robota i zainstalowania złośliwego oprogramowania. Bardzo skomplikowane stany faktyczne mogą również powstawać w odniesieniu do obecnych już na rynku rozwiązań hybrydowych, które przewidują częściową automatyzację pewnych procesów, przy jednoczesnym nadzorze i kontroli człowieka (np. automatyczne systemy wspomagania we współczesnych samochodach lub autopilot w samolotach).
Niewątpliwie brakuje w tej chwili kompleksowego uregulowania zagadnienia odpowiedzialności cywilnej za działania robotów. Nie jest to jednak obszar zupełnie nieuregulowany.
Największe wyzwanie stanowią dla obecnego systemu działania, które są wynikiem w pełni autonomicznych decyzji systemu operacyjnego robota, na których kształt nie wpłynęło nieprawidłowe działanie systemu (np. uszkodzony sensor) ani ewidentne błędy w algorytmie. W przypadku takich działań nie sposób zidentyfikować związku przyczynowego pomiędzy działaniem człowieka a zaistniałą szkodą. Dlatego w odniesieniu do takich szkód nie będziemy mogli wykorzystywać zdecydowanej większości funkcjonujących obecnie instytucji prawnych w zakresie odpowiedzialności. Większość przepisów dotyczących odpowiedzialności jest bowiem oparta na założeniu, że działanie będące źródłem szkody jest działaniem człowieka.
Nie oznacza to jednak automatycznie, że za takie, w pełni autonomiczne, działania robotów, nie będzie można ponosić odpowiedzialności. W przypadku, w którym roboty są częścią przedsiębiorstwa, nie można wykluczyć odpowiedzialności przewidzianej w art. 435 Kodeksu cywilnego. Prowadzący na własny rachunek przedsiębiorstwo ponosi odpowiedzialność za szkodę wyrządzoną przez ruch przedsiębiorstwa. Warto jednak odnotować, że prowadzący przedsiębiorstwo może zwolnić się z odpowiedzialności, jeżeli szkoda nastąpiła wyłącznie z winy osoby trzeciej lub z powodu siły wyższej.
W przypadku autonomicznych robotów będących jednocześnie środkami komunikacji zasady odpowiedzialności określa zasadniczo art. 436 Kodeksu cywilnego. Przewiduje on możliwość poniesienia odpowiedzialności przez posiadacza pojazdu na zasadzie ryzyka. Jednocześnie jednak przewiduje okoliczności egzoneracyjne w postaci np. wyłącznej winy osoby trzeciej lub siły wyższej. Warto podkreślić również, że w świetle art. 436 § 2 Kodeksu cywilnego w przypadku zderzenia pojazdów odpowiedzialność ustala się na zasadzie winy, co wyklucza zastosowanie tego przepisu do działań autonomicznych robotów. Niezależnie od powyższego należy zastanowić się, czy ponoszenie przez posiadaczy autonomicznych samochodów odpowiedzialności za wyrządzone przez nie szkody jest rozwiązaniem słusznym. Stopień kontroli posiadaczy tych samochodów nad ich działaniami jest bowiem bez porównania mniejszy niż w przypadku tradycyjnych pojazdów.
Działania robotów zasadniczo już dzisiaj mogą powodować powstanie odpowiedzialności za produkt niebezpieczny. Odpowiedzialność ta będzie spoczywała przede wszystkim na producentach robotów. Warto jednak podkreślić, że do powstania odpowiedzialności za produkt niebezpieczny muszą zaistnieć określone przesłanki. Zgodnie z art. 449 § 3 Kodeksu cywilnego produktem niebezpiecznym jest produkt niezapewniający bezpieczeństwa, jakiego można oczekiwać, uwzględniając normalne użycie produktu. O tym, czy produkt jest bezpieczny, decydują okoliczności z chwili wprowadzenia go do obrotu, a zwłaszcza sposób zaprezentowania go na rynku oraz podane konsumentowi informacje o właściwościach produktu. Producent nie ponosi odpowiedzialności za produkt, gdy nie można było przewidzieć niebezpiecznych właściwości produktu, uwzględniając stan nauki i techniki w chwili wprowadzenia produktu do obrotu. Można z dużym prawdopodobieństwem założyć, że jeżeli producent robota wykaże, iż algorytm w systemie operacyjnym robota został stworzony z należytą starannością, a wszystkie podzespoły robota działały prawidłowo, będzie mógł zwolnić się z odpowiedzialności za autonomiczne decyzje podejmowane przez robota.
W sytuacjach, w których będzie możliwe zidentyfikowanie adekwatnego związku przyczynowego pomiędzy działaniami robota wyrządzającymi szkodę a działaniami określonych osób (np. twórcy algorytmu lub producenta wadliwego podzespołu), będzie można rozważać również pociągnięcie do odpowiedzialności określonych osób, w tym na zasadzie winy. Tak będzie przykładowo w przypadku ustalenia, że określone działanie robota było spowodowane uszkodzeniem sensora, które z kolei wynikało z braku należytej konserwacji ze strony właściciela robota. Należałoby rozważyć, czy właściciel robota nie powinien ponosić w takiej sytuacji odpowiedzialności na zasadzie winy.
Na szczególną uwagę zasługuje w powyższym kontekście zagadnienie odpowiedzialności twórców aplikacji wykorzystywanych przez systemy operacyjne robotów. Takiej odpowiedzialności nie można z góry wykluczyć. Można sobie bowiem wyobrazić ewidentnie błędny algorytm stworzony w taki sposób, że robot z założenia ma swoimi działaniami naruszać przyjęte zasady postępowania. Jeżeli ten właśnie algorytm stał się bezpośrednią przyczyną szkody wyrządzonej przez robota, trudno znaleźć uzasadnienie dla wyłączenia odpowiedzialności twórcy oprogramowania. Podstawy takiej odpowiedzialności można doszukiwać się w wielu przepisach, w tym w przepisach przewidujących odpowiedzialność na zasadzie winy. Nie można również wykluczyć w takim przypadku odpowiedzialności za produkt niebezpieczny. Jakkolwiek produktem niebezpiecznym mogą być jedynie rzeczy ruchome, to odpowiedzialność za produkt niebezpieczny mogą ponosić również wytwórcy części składowych produktu (art. 449 Kodeksu cywilnego). Należy zgodzić się z poglądami, które na podstawie przywołanego przepisu prawa dopuszczają możliwość poniesienia odpowiedzialności przez producenta oprogramowania zainstalowanego w rzeczy ruchomej będącej produktem niebezpiecznym.
Z drugiej strony należy podkreślić, że zasadniczo przepisy prawa nie przewidują obecnie kryteriów, które pozwoliłyby obiektywnie ocenić, czy dany algorytm spełnia kryteria należytej staranności czy nie. Oceny w tym zakresie należałoby dokonywać oddzielnie w odniesieniu do każdego analizowanego przypadku, co w oczywisty sposób naraża nas na arbitralność i rozbieżność rozstrzygnięć. Warto w tym kontekście rozważyć wprowadzenie minimalnych wymogów w zakresie tworzenia algorytmów dla robotów, które pozwoliłyby ustalić, czy dany algorytm jest wykonany prawidłowo. W przeciwnym wypadku twórcom algorytmów będą groziły arbitralne rozstrzygnięcia w zakresie ich odpowiedzialności za szkody wywołane działaniem robotów.
Obowiązujące w tej chwili przepisy dotyczące odpowiedzialności cywilnej wymagają dostosowania do szkód wyrządzanych działaniami autonomicznych robotów. Zagadnienie to staje się pilne z uwagi na przewidywany w najbliższych latach radykalny wzrost liczby autonomicznych robotów w przestrzeni publicznej.
Posiadacz robota, z uwagi na daleko posuniętą autonomię robota, może mieć znikomy wpływ na sposób jego działania. Oczywiście należy zapewne założyć, że w większości wypadków to posiadacz będzie decydował o celach użycia maszyny (np. cel jazdy autonomicznego pojazdu), jednak wykonanie powierzonych zadań będzie już w znacznie większym stopniu uzależnione od maszyny. Okoliczności te przemawiają przeciwko narzucaniu na posiadaczy robotów odpowiedzialności opartej na zasadzie ryzyka i stosowaniu analogii do rozwiązań, które znamy w odniesieniu do tradycyjnych pojazdów.
Alternatywnym rozwiązaniem może być przerzucenie odpowiedzialności na producentów robotów. Jednak również stopień kontroli producenta nad faktycznym działaniem robota może być bardzo ograniczony. Autonomia decyzyjna robotów powoduje, że producent nie jest w stanie przewidzieć wszystkich działań robotów. Z kolei w przypadku robotów, które umożliwiają właścicielowi daleko idącą ingerencję w ustawienia fabryczne, w tym w algorytm, przyjęcie tej koncepcji odpowiedzialności może okazać się nieuzasadnione i krzywdzące dla producentów. W konsekwencji producenci mogą dążyć do produkcji robotów z wyłączoną możliwością ich programowania przez użytkowników.
Biorąc pod uwagę powyższe trudności, należy zapewne pogodzić się z tym, że nieuniknione jest przypisanie odpowiedzialności za szkody wywołane działaniami robota podmiotom, które niekoniecznie są w stanie sprawować nad nim pełną faktyczną kontrolę. Z założenia zatem należy przyjąć, że zasadą tej odpowiedzialności będzie ryzyko, a nie wina. Za oparciem odpowiedzialności za działania autonomicznych robotów na zasadzie ryzyka przemawiają również trudności dowodowe. Ustalenie kręgu podmiotów, które ponoszą faktyczną odpowiedzialność za działanie robota, może okazać się niezwykle skomplikowaną i kosztowną procedurą, wymagającą specjalistycznej wiedzy. Przeprowadzanie odpowiednich dowodów może się okazać zadaniem tak trudnym i kosztownym, że w praktyce zamknie osobom poszkodowanym możliwość dochodzenia roszczeń.
Oparcie odpowiedzialności na zasadzie ryzyka wiązać musiałoby się zapewne również z koniecznością stworzenia efektywnego systemu ubezpieczeń obowiązkowych w zakresie tej odpowiedzialności. Chodzi o stworzenie osobom poszkodowanym skutecznego i relatywnie prostego sposobu dochodzenia roszczeń odszkodowawczych w związku z działaniami robotów. Taką szansę stwarza właśnie system obowiązkowych ubezpieczeń. Poszkodowany będzie mógł wystąpić z roszczeniem do ubezpieczyciela. Jednocześnie ubezpieczyciel będzie w stanie dochodzić roszczeń regresowych w odniesieniu do podmiotów, które przyczyniły się do wyrządzenia szkody (o ile, oczywiście, takie podmioty będzie można zidentyfikować). Tym samym poszkodowani zostaną zwolnieni z konieczności uczestniczenia w trudnych i wymagających specjalistycznej wiedzy sporach.
Rozwiązanie to niewątpliwie będzie stanowiło duże wyzwanie dla ubezpieczycieli. Na tym etapie rozwoju autonomicznych robotów bardzo trudne może okazać się ustalenie prawdopodobieństwa wystąpienia szkód, z uwagi na brak wystarczających danych. Z drugiej strony należy spodziewać się, że duża część autonomicznych robotów przyczyni się do faktycznego zmniejszenia liczby szkód.
Odpowiedzialność karna
Możliwość ponoszenia odpowiedzialności karnej za działania robotów stanowi jeszcze większe wyzwanie prawne niż ustalenie zasad odpowiedzialności cywilnej.
Problem jest szczególnie widoczny w przypadku robotów w pełni autonomicznych, które podejmują działania wypełniające znamiona czynów zabronionych (np. powodowanie trwałego uszczerbku na zdrowiu czy zniesławienie w wykonaniu automatycznych generatorów treści) przy braku bezpośredniego udziału czynnika ludzkiego. Równie dużym wyzwaniem jest jednak ustalenie zasad odpowiedzialności w przypadku przyczynienia się człowieka do działania robota. Wyobraźmy sobie osobę, która włamuje się do systemu operacyjnego robota i dokonuje modyfikacji algorytmu, wskutek czego robot swoim działaniem powoduje ciężki uszczerbek na zdrowiu kilku osób. Osoba dokonująca ingerencji w algorytm co do zasady nie może być odpowiedzialna za pomocnictwo. Zgodnie z art. 18 Kodeksu karnego odpowiada za pomocnictwo, kto w zamiarze, aby inna osoba dokonała czynu zabronionego, swoim zachowaniem ułatwia jego popełnienie, w szczególności dostarczając narzędzie, środek przewozu, udzielając rady lub informacji. Kodeks karny nie przewiduje zatem pomocnictwa w popełnieniu czynu zabronionego przez robota. Czy zatem osoba dokonująca zmian w algorytmie może sama ponosić odpowiedzialność za sprawstwo, a robot ma być uznany jedynie za narzędzie, za pomocą którego dokonano przestępstwa?
Wydaje się, że niezbędne będzie wprowadzenie do systemu prawa karnego zestawu regulacji definiujących nowe typy przestępstw związanych z korzystaniem z robotów. Szczególnie penalizowane powinny być określone rodzaje ingerencji w systemy operacyjne robotów. Już samo wprowadzenie do systemu operacyjnego robota modyfikacji, które mogą skutkować wyrządzaniem przez robota szkód oraz dokonywaniem czynów wypełniających znamiona przestępstw, powinno być karane.
Z uwagi na systemowe niebezpieczeństwo, które może wiązać się z funkcjonowaniem robotów, należałoby również wprowadzić skuteczne mechanizmy przejmowania kontroli nad autonomicznymi robotami oraz mechanizmy prewencyjne, ograniczające możliwość dokonywania modyfikacji w systemach operacyjnych robotów. To wymagałoby zapewne nałożenia na producentów robotów odpowiednich obowiązków zapewniających realizację wspomnianych funkcjonalności.
source: Automatyka 11/2015