Dylematy etyczne przy projektowaniu robotów
dr Aleksandra Auleytner drukuj
Z uwagi na możliwość szerokiej interakcji sztucznej inteligencji z ludźmi projektowanie robotów i pojazdów autonomicznych rodzi szereg dylematów etycznych w różnych obszarach. Szczególnie istotnym problemem jest to, czy normy prawne powinny zezwalać, by docelowo sztuczna inteligencja przewyższyła ludzkie zdolności intelektualne, a jeśli tak, to czy jej wykorzystywanie w pewnych obszarach życia i działalności ludzkiej (np. administracja państwowa, policja, wymiar sprawiedliwości) nie powinno być zabronione.
Najczęściej obecnie dyskutowane problemy etyczne to te związane z pojazdami autonomicznymi. Dotyczą one np. podejmowania przez pojazd autonomiczny decyzji o rozmiarze kolizji na drodze – w skrajnych przypadkach nawet decyzji o ratowaniu jednego życia ludzkiego kosztem drugiego.
Dylematy etyczne przy projektowaniu robotów obejmują również cały obszar zastosowań robotów w pracach domowych, opiece nad dziećmi czy osobami starszymi. Pojawiają się wówczas problemy etyczne związane z niebezpieczeństwem przywiązania się do robota przez osoby z grup społecznych szczególnie wrażliwych, wytworzenia więzi emocjonalnej czy wręcz zależności od robota przez takie osoby, a także ich izolacji od rzeczywistości.
Szereg kontrowersyjnych zagadnień etycznych, które wymagają regulacji prawnych lub stworzenia co najmniej kodeksów etycznych występuje również w obszarze zastosowań robotów medycznych. Dotyczy to w szczególności autonomicznych systemów cyberfizycznych wszczepianych do ciała ludzkiego lub zastępujących fragmenty ciała. Systemy te mogą działać znacznie lepiej od ludzkich organizmów, co może mieć wpływ na zmianę rozumienia niepełnosprawności i w skrajnych przypadkach na chęć zastępowania zdrowych organów sztucznymi. Autonomiczne systemy cyberfizyczne mogą też wkraczać w przestrzeń wrażliwych danych osobowych, gromadząc je niezależnie od osoby wyposażonej w taki system.
Kodeksy etyczne
Rezolucja Parlamentu Europejskiego z 16 lutego 2017 r. zawierająca zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL)) postuluje stworzenie na poziomie Unii Europejskiej kodeksu postępowania etycznego w dziedzinie robotyki, który stanowić będzie podstawę kontroli przestrzegania podstawowych zasad etycznych, począwszy od fazy projektowania, konstrukcji, testowania, aż do fazy rozwoju robotów. Takie kodeksy tworzone są też niezależnie przez poszczególne państwa członkowskie – przykładowo w czerwcu 2017 r. Ministerstwo Transportu Niemiec przyjęło kodeks etyki projektowania pojazdów autonomicznych.
Po pierwsze: nie krzywdzić człowieka
Robot, bardzo często samouczący się i z wbudowaną autonomią, musi podlegać ścisłej kontroli człowieka. Wspólnym założeniem kodeksów jest to, że robot ma za zadanie chronić ludzkie życie. W szczególności nie może szkodzić człowiekowi i musi mu być w pełni posłuszny. Zasady te przypominają sformułowane w 1942 r. przez amerykańskiego pisarza Isaaka Asimova w książce „Zabawa w berka” tzw. trzy prawa robotów:
- Robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
- Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
- Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Powyższe prawa zostały określone we wspomnianych wcześniej zaleceniach dla Komisji Europejskiej przyjętych w rezolucji PE wspólnym mianem Zasady nieszkodliwości – „po pierwsze nie szkodzić”. Zgodnie z tą zasadą, roboty nie powinny krzywdzić ludzi. Niemiecki Kodeks etyczny projektowania pojazdów autonomicznych wskazuje np. na to, że technologia stosowana w pojazdów autonomicznych powinna zapobiegać wypadkom tam, gdzie to możliwe i w zasadzie eliminować sytuacje kryzysowe. Powinna wykluczać sytuacje, w których pojazd autonomiczny musi sam „decydować” o tym, jakie mniejsze zło wybrać. Jeżeli jednak już taka sytuacja zaistnieje, ochrona życia i zdrowia ludzi powinna mieć priorytetowe znaczenie. To oznacza, że – z uwzględnieniem możliwości technologicznych – systemy pojazdu muszą być zaprogramowane tak, aby w razie konfliktu przedmiotu ochrony szkodzić zwierzętom lub mieniu, a zapobiegać jakimkolwiek obrażeniom ciała ludzkiego. Kodeks wskazuje jednak, że nie jest etycznie możliwe zaprogramowanie z góry zachowania maszyny w sytuacji wyboru między jednym życiem ludzkim a drugim. W takim przypadku decyzja zależy od konkretnej sytuacji. Nie da się więc w tym zakresie ujednolicić zasad, a wszelkie rozróżnienie wyboru oparte na wieku, płci, kondycji fizycznej lub umysłowej jest zakazane.
Po drugie: interes człowieka, autonomia, sprawiedliwość
Niezależnie od Zasady nieszkodliwości badania w dziedzinie robotyki powinny być prowadzone zgodnie z najwyższymi standardami etyki i profesjonalizmu oraz zapewniać przestrzeganie dodatkowych trzech zasad:
- przynoszenia korzyści – roboty powinny służyć najlepszemu interesowi człowieka,
- autonomii – rozumianej jako zdolność do podjęcia świadomej, niewymuszonej decyzji na temat zasad interakcji z robotami,
- sprawiedliwości – sprawiedliwe rozłożenie korzyści związanych z robotyką, a w szczególności przystępność cenowa robotów do opieki domowej i zdrowotnej.
Po trzecie: ochrona praw człowieka
Jak wskazuje się w zaleceniach dla Komisji Europejskiej z 2017 r., rozwiązania technologiczne stosowane przy projektowaniu robotów powinny „uwzględniać prawa i zasady ujęte w Karcie praw podstawowych, w szczególności zasadę godności ludzkiej, poszanowania i ochrony życia prywatnego i rodzinnego, ochrony i bezpieczeństwa, ochrony danych osobowych, ochrony własności intelektualnej, wolności wypowiedzi i informacji, równości i niedyskryminacji, solidarności, praw obywatelskich i wymiaru sprawiedliwości, zgodnie z zasadą proporcjonalności”. Szczególnie istotne jest zapewnienie prawa jednostki i całej ludzkości do samostanowienia.
Badania w dziedzinie robotyki powinny być ponadto prowadzone zgodnie z zasadą ostrożności. Oznacza to, że należy przewidzieć potencjalne skutki takich badań dla bezpieczeństwa oraz podjąć należyte środki ostrożności, proporcjonalne do wymaganego poziomu ochrony. Tam, gdzie to możliwe, należy też zapewnić odwracalność działań robota. Powinien on mieć możliwość cofnięcia ostatniej sekwencji swoich działań w celu usunięcia niepożądanej aktywności.
Dobrowolny charakter kodeksów
Omawiane kodeksy etyki mają charakter dobrowolny. Zachęcają wszystkie zainteresowane strony do odpowiedzialnego postępowania przy projektowaniu technologii w obszarze robotyki. Nie zastąpią jednak norm prawnych, które w przyszłości powinny być wypracowane na poziomie unijnym, po to by zapewnić bezpieczne i etyczne projektowanie robotów oraz systemów autonomicznych. Takie prace w sposób kompleksowy jeszcze nie zostały podjęte.
Kancelaria Domański Zakrzewski Palinka sp. k.
źródło: Automatyka 10/2017
Komentarze
blog comments powered by Disqus