Czy robot może ponieść odpowiedzialność karną?
dr Aleksandra Auleytner drukuj
Robotyka, systemy autonomiczne czy sztuczna inteligencja stwarzają szereg nowych wyzwań prawnych i etycznych. Opracowanie ram prawnych i kodeksów etycznych w tym zakresie to zadanie, przed którym stoją prawodawcy krajowi i europejscy. Jednym z największych wyzwań może okazać się zmiana prawa w sposób uwzględniający odpowiedzialność karną robotów.
Możliwość szerokiej interakcji sztucznej inteligencji z ludźmi, a także prace nad robotami samodzielnie uczącymi się oraz zbierającymi dane z otoczenia i wykorzystującymi je w sposób, którego nie mógł przewidzieć ich programista stawia szereg pytań o odpowiedzialność prawną za działania i zaniechania robotów.
Osobowość prawna robotów i odpowiedzialność cywilna
Wspomniane pytania pojawiają się w szczególności w związku z dronami używanymi do celów wojskowych czy pojazdami autonomicznymi, w przypadku podejmowania przez te ostatnie decyzji o rozmiarze kolizji na drodze albo o ratowaniu jednego życia ludzkiego kosztem drugiego. Pierwszy przypadek spowodowania wypadku śmiertelnego przez pojazd autonomiczny miał miejsce w maju 2016 r., kiedy jadący na autopilocie samochód Tesla spowodował kolizję, w wyniku której zginął jadący nim właściciel samochodu. Do dziś badane są przyczyny wypadku. Wspomniane pytania dotyczą też np. robotów, których praca polega na automatycznym generowaniu treści czy kodów źródłowych. W doktrynie prawa rozważane są przypadki możliwości popełnienia plagiatu przez takie maszyny lub dopuszczenia się zniesławienia (szerzej na ten temat: G. Hallevy, AI v IP Criminal Liability for IP Offenses of AI Entities, G. Hallevy, AI v. IP - Criminal Liability for Intellectual Property IP Offenses of Artificial Intelligence AI Entities –
November 17, 2015).
W przypadku najbardziej zaawansowanych robotów coraz częściej występuje sytuacja, gdy nie można przypisać odpowiedzialności konkretnemu podmiotowi, który zaprojektował, wyprodukował bądź użytkuje daną maszynę. Zalecenia dla Komisji Europejskiej z 2017 r. zawierają postulat stworzenia nowej kategorii osobowości prawnej dla najbardziej zaawansowanych maszyn – elektronicznej osoby prawnej. Nadanie osobowości prawnej takim maszynom pozwoliłoby na rozwiązanie kwestii cywilnej odpowiedzialności za szkodę w najbardziej wątpliwych przypadkach. Pozwoliłoby także na stworzenie funduszu ubezpieczeniowego, który byłby związany z daną maszyną. Z takiego funduszu, na który składki płaciłby producent, właściciel, użytkownik czy osoba szkoląca maszynę, byłyby wypłacane odszkodowania dla osób, które poniosły szkodę w związku z jej działaniem.
W trend „upodmiotowiania” wpisuje się też nadanie w październiku 2017 r. obywatelstwa robotowi Sofia przez Arabię Saudyjską, chociaż nie podano szczegółów dotyczących zakresu uprawnień robota z tego wynikających.
Odpowiedzialność karna
W związku z opisanymi wcześniej aspektami pojawiają się pytania, czy – skoro można przyznać najbardziej zaawansowanym maszynom osobowość prawną – można wprowadzić do systemu prawnego zasady odpowiedzialności karnej robotów. Kwestia ta dotychczas nie była przedmiotem prac legislacyjnych w żadnym z państw zachodnich. Coraz częściej jest jednak dyskutowana w doktrynie prawa, szczególnie amerykańskiego, niemieckiego i izraelskiego.
Inspiratorem i najbardziej zaangażowanym autorem w tej dziedzinie jest Gabriel Hallevy, profesor One Academic College w Izraelu. Codzienność dostarcza przykładów wskazujących na to, że rozważania dotyczące odpowiedzialności karnej robotów nie są przedwczesne. W styczniu 2015 r. grupa artystyczna !Mediengruppe Bitnik na potrzeby eksperymentu artystycznego stworzyła robota o nazwie Random Darknet Shopper, który miał za zadanie dokonywać przypadkowych zakupów w sieci dark web. Wykonując powierzone mu zadanie, robot zakupił m.in. parę podrobionych jeansów marki Diesel, czapkę do baseballa z zamontowaną ukrytą kamerą, podróbkę torebki Louis Vuitton oraz 10 tabletek ekstazy. Po zakupie ekstazy robot został skonfiskowany przez szwajcarską policję, a następnie – po wyjaśnieniu sprawy – oddany artystom. Pojawiło się jednak pytanie o to, na ile robot sam podejmował decyzje, a na ile były one wynikiem sterującego nim oprogramowania (więcej na ten temat można przeczytać w artykule The Guardian).
Warunki odpowiedzialności karnej robotów
Zgodnie z przepisami polskiego kodeksu karnego odpowiedzialności karnej podlega tylko ten, kto popełnia czyn zabroniony pod groźbą kary przez ustawę obowiązującą w czasie jego popełnienia. Sprawca czynu zabronionego nie popełnia przestępstwa, jeżeli nie można mu przypisać winy w czasie czynu. Nie ulega wątpliwości, że w obecnym stanie prawnym odpowiedzialność karną można przypisać tylko człowiekowi oraz wpewnych wypadkach podmiotom zbiorowym, na podstawie odrębnych przepisów. Jeżeli jednak wyobrazić sobie odpowiedzialność karną robotów, pojawiłyby się problemy z przypisaniem im winy. Czy stworzone na potrzeby prawa karnego teorie winy byłyby adekwatne do działań robotów, czy raczej należałoby wprowadzić odrębne przesłanki odpowiedzialności karnej w tym zakresie? Dodatkowo trzeba byłoby odpowiedzieć na pytanie, czy na potrzeby prawa karnego robotów nie należałoby w odrębny sposób niż w przypadku ludzi podchodzić do negatywnych przesłanek przypisania winy. Przykładowo należałoby bardzo dokładnie zastanowić się nad tym, czy robotowi można przypisać niepoczytalność (np. czy cyberatak na robota pozwalałby na postawienie tezy, że robot działał w stanie niepoczytalności), albo uznać, że robot działał w stanie wyższej konieczności (np. w przypadku samochodu autonomicznego podejmującego decyzję o ochronie pasażera przez wybór takiego zderzenia z drugim samochodem, które prowadziłoby do śmierci kierowcy drugiego pojazdu).
Kary dla robotów
Nawet jeśli próbując intelektualnie uporać się ze wspomnianymi wcześniej warunkami odpowiedzialności karnej robotów przyjmiemy, że zmienione zostaną podstawowe zasady prawa karnego, nadal otwarta pozostaje kwestia katalogu kar dla robotów. Obecnie w większości systemów prawnych, w tym w polskim prawie karnym, katalog kar obejmuje grzywnę, ograniczenie wolności i pozbawienie wolności. Niektóre systemy prawne dopuszczają stosowanie kary śmierci. Kary są zawsze swego rodzaju odpowiedzią społeczeństwa na zachowanie sprawcy. Są „osobistą dolegliwością ponoszoną przez sprawcę jako odpłata za popełnione przestępstwo, wyrażającą potępienie popełnionego przez niego czynu” (L. Gardocki, Prawo karne, Warszawa, C.H Beck, 2000, s. 150).
Kary mają też różne cele: zaspokojenie społecznego poczucia sprawiedliwości, wychowawcze i zapobiegawcze (w ostatnim przypadku – w zakresie oddziaływania na ogół społeczeństwa lub na samego sprawcę). Pojawia się pytanie, czy którakolwiek z kar przewidzianych dla ludzi byłaby adekwatna dla sztucznej inteligencji, biorąc jeszcze pod uwagę różne jej fizykalne formy (część robotów nie ma fizycznych kształtów, stanowi jedynie kod źródłowy). Czy można wyobrazić sobie spełnienie celu wychowawczego przez karę pozbawienia wolności zastosowaną w stosunku do robota? Czy taka kara mogłaby oddziaływać prewencyjnie w stosunku do robota lub ogółu robotów? Być może jedyną skuteczną karą, która mogłaby mieć zastosowanie – według stanu naszej obecnej wiedzy na temat sztucznej inteligencji – byłaby eliminacja robota.
Więcej pytań niż odpowiedzi
Zagadnienia te są w tej chwili elementem rozpoczynającej się debaty, która być może doprowadzi w przyszłości do ogromnej zmiany prawa karnego w sposób, którego obecnie nie jesteśmy w stanie przewidzieć. Wdebacie więcej jest obecnie pytań niż odpowiedzi. Brak odpowiedzi wynika przede wszystkim z braku wiedzy na temat zdolności i potencjału sztucznej inteligencji. Poznanie tego potencjału przez inżynierów umożliwi określenie nowych ram prawnych, w takim zakresie, jaki okaże się potrzebny.
Kancelaria Domański Zakrzewski Palinka sp. k.
źródło: Automatyka 12/2017
Komentarze
blog comments powered by Disqus