Równość dostępu do sztucznej inteligencji
dr Aleksandra Auleytner drukuj
Opinia Europejskiego Komitetu Ekonomiczno-Społecznego „Sztuczna inteligencja: wpływ sztucznej inteligencji na jednolity rynek (cyfrowy), produkcję, konsumpcję, zatrudnienie i społeczeństwo” z maja i czerwca 2017 r. wśród takich zagadnień jak etyka, bezpieczeństwo, praca, prywatność, w których AI stwarzać będzie w najbliższej przyszłości wyzwania społeczne i prawne, wymienia również nierówność i wykluczenie społeczne.
Opinia komitetu powtarza stawianą w ostatnich latach przez obserwatorów tezę o tym, że bardzo duża część procesów rozwoju AI i powiązane z nią elementy, takie jak „platformy rozwoju, dane, wiedza, know-how” pozostają w rękach zaledwie pięciu czołowych producentów z branży IT. Mimo że te podmioty „opowiadają się za otwartym rozwojem sztucznej inteligencji, a niektóre z nich udostępniają swoje platformy rozwoju sztucznej inteligencji jako otwarte oprogramowanie, nie gwarantuje to pełnej dostępności systemów sztucznej inteligencji”.
Dostępność i „stronniczość algorytmiczna”
Opinia wskazuje również, że „(…) sztuczna inteligencja jest rozwijana w jednorodnym środowisku” przeważnie w kilku najbardziej rozwiniętych ośrodkach na świecie „(….) przez co wpisuje się w nią (świadomie czy nie) różnice kulturowe i związane z płcią społeczno-kulturową, m.in. dlatego, że systemy sztucznej inteligencji uczą się na podstawie danych treningowych. Dane te muszą być prawidłowe, a także cechować się wysoką jakością i bezstronnością oraz być zróżnicowane i wystarczająco gruntowne. Powszechnie sądzi się, że dane są z definicji obiektywne, jest to jednak mylne wyobrażenie. Łatwo jest nimi manipulować, mogą być tendencyjne, odzwierciedlać uprzedzenia i preferencje kulturowe, płciowe i inne oraz zawierać błędy”.
Powyższy problem sygnalizuje też Wysoki Komisarz ds. Praw Człowieka ONZ (m.in. w raporcie z 5 maja 2017 r. „Promotion, protection and enjoyment of human rights on the Internet: ways to bridge the gender digital divide from a human rights perspective”), posługując się pojęciem „stronniczości algorytmicznej”. Wskazuje, że wraz z rozwojem systemów sztucznej inteligencji mogą wystąpić nieproporcjonalne i różnorodne skutki dla niektórych grup, które już obecnie borykają się z nierównościami systemowymi, w tym kobiet czy niepełnosprawnych. Wspomniany raport przytacza szereg badań naukowych przedstawiających dowody dyskryminacji ze względu na płeć w zakresie kierowania reklam związanych z pracą on-line, a także niedostatecznej reprezentacji kobiet w wynikach wyszukiwania w Internecie w przypadku niektórych zawodów.
Zarówno Europejski Komitet Ekonomiczno-Społeczny, jak i Wysoki Komisarz ds. Praw Człowieka wskazują, że nierówności w dostępie do sztucznej inteligencji krótko- i długofalowo mogą stać się przyczyną nierówności między ludźmi w zakresie edukacji, miejsc pracy, dochodów i ochrony zdrowia na ogromną skalę, znacznie wykraczającą poza lokalne społeczności.
Niepełnosprawni
Na tym tle ujawnia się szczególna potrzeba zapewnienia dostępu osób niepełnosprawnych do produktów AI. Tym bardziej, jeżeli uwzględni się treść art. 9.2. lit. g Konwencji o prawach osób niepełnosprawnych z 13 grudnia 2006 r., zgodnie z którą państwa-strony podejmą odpowiednie środki w celu „popierania dostępu osób niepełnosprawnych do nowych technologii i systemów informacyjno-komunikacyjnych, w tym do Internetu”.
Konwencja jest częściowo wdrażana w państwach członkowskich UE zgodnie z Dyrektywą Parlamentu Europejskiego i Rady (UE) 2016/2012 z 26 października 2016 r. w sprawie dostępności stron internetowych i mobilnych aplikacji organów sektora publicznego. Na mocy dyrektywy państwa członkowskie zobowiązały się zapewnić, aby organy sektora publicznego podjęły środki niezbędne do zwiększenia dostępności swoich stron internetowych i aplikacji mobilnych przez uczynienie ich łatwiej postrzegalnymi, funkcjonalnymi, zrozumiałymi i rzetelnymi. Zgodnie z pkt. 37 preambuły te cztery zasady dostępności przekładają się na możliwe do testowania kryteria określone w normie EN 301 549 V1.1.2 „Wymagania dostępności dotyczące publicznych dostaw produktów i usług ICT w Europie” (2015-04), norma europejska EN 301 549 V1.1.2 (2015-04), z zastosowaniem norm zharmonizowanych i wspólnej metodyki, służących badaniu zgodności treści stron internetowych oraz aplikacji mobilnych z tymi zasadami.
Dyrektywa stanowi jeden z elementów skoordynowanych działań na poziomie UE mających na celu zapewnienie, by produkty i usługi powiązane z technologiami, w tym sztuczną inteligencją, jak również treści elektroniczne były w pełni dostępne dla osób niepełnosprawnych. W Polsce obecnie trwają prace nad ustawą wdrażającą Dyrektywę 2016/2012. Termin implementacji dyrektywy minął 23 września 2018 r.
Kobiety
Kolejną szczególną grupą wymagającą wsparcia w kontekście dostępu do sztucznej inteligencji są kobiety. Grupa ta jest wskazywana jako generalnie mająca mniejszy dostęp do nowoczesnych technologii i cyfrowych form komunikacji. Wspomniany raport z 5 maja 2017 r potwierdza, że dostęp do technologii teleinformatycznych – nawet tych tradycyjnych, które nie bazują na AI – jest bardzo nierównomierny. Mimo powszechnego wzrostu podstawowej dostępności Internetu korzysta z niego tylko 47% światowej populacji. Populacja pozostająca off-line jest nieproporcjonalnie uboga, wiejska, starsza i żeńska, a przepaść między nią a tą częścią populacji, która ma dostęp do Internetu, stale się zwiększa. Raport szacuje, że na całym świecie populacja kobiet korzystających z Internetu jest o 250 mln mniejsza niż populacja mężczyzn (jeszcze w 2013 r. według danych OECD i IGNITE Global Fund for Women Project było to 200 mln). Brak możliwości korzystania z Internetu pogłębia nierówności między kobietami i mężczyznami.
Według danych z Raportu Wysokiego Komisarza ds. Praw Człowieka ONZ różnica w dostępie do Internetu z podziałem na płeć wzrosła z 11% w 2013 r. do 12% w 2016 r. z korzyścią dla mężczyzn. Chociaż wskaźniki penetracji Internetu są wyższe w przypadku mężczyzn niż kobiet we wszystkich regionach, różnica między płciami jest najniższa w krajach rozwiniętych (2,8% w 2016 r.), większa w krajach rozwijających się (16,8% w 2016 r.), a najwyższa w krajach najmniej rozwiniętych (30,9% w 2016 r.). Raport wskazuje ponadto, że wskaźniki penetracji Internetu są tylko jednym z elementów wykluczenia cyfrowego ze względu na płeć. Istnieją też inne, równie poważne, o ile nawet nie groźniejsze, nierówności dotyczące już samego korzystania z Internetu i umiejętności z tym związanych. Z uwagi na to, że sposób wykonywania lub zamawiania wielu podstawowych usług drastycznie się zmienia w ostatnich latach – powstają np. takie platformy jak Uber, AirBnb, czy Booksy, gdzie zamówienie usługi możliwe jest jedynie on-line – a ponadto powstaje coraz więcej zawodów opartych na nowych technologiach, zagadnienie wykluczenia cyfrowego staje się bardzo istotne.
Problem z dostępem do tradycyjnej technologii teleinformatycznej zostanie powielony, a nawet nasili się w związku z pracami nad sztuczną inteligencją i powstaniem produktów i usług na niej opartych.
Dywidenda od sztucznej inteligencji
Systemy sztucznej inteligencji są neutralne, jeżeli chodzi o wartości etyczne. Normy prawne i kodeksy etyczne powinny określać warunki i zasady prowadzenia dalszych prac w tym obszarze. Szczególnie powinny być osadzone w już istniejących międzynarodowych regulacjach dotyczących wspólnych wartości, praw podstawowych i swobód obywatelskich. Dostęp do tych systemów powinien być równy i niedyskryminujący, biorący pod uwagę m.in. godność człowieka, różnorodność kulturową i płciową. W takim kierunku zmierzają postanowienia Rezolucji Parlamentu Europejskiego z dnia 16 lutego 2017 r. zawierające zalecenia dla Komisji Europejskiej w sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL)). Rezolucja wzywa Komisję Europejską m.in. do uzupełnienia obecnych unijnych ram prawnych o zasady etyczne, które odzwierciedlałyby złożoność AI i jej implikacje społeczne. Wskazuje też, że zasady etyczne powinny opierać się na wartościach wynikających z art. 2 Traktatu o Unii Europejskiej oraz Karty Praw Podstawowych, w szczególności takich jak równość, sprawiedliwość, równouprawnienie, brak dyskryminacji czy brak stygmatyzacji.
W zakresie postulatów Europejskiego Komitetu Ekonomiczno-Społecznego dotyczących złagodzenia skutków nierówności dostępu do systemów AI wskazuje się m.in. opodatkowanie sztucznej inteligencji, dywidendę od sztucznej inteligencji lub podział własności systemów sztucznej inteligencji między pracowników i pracodawców. Wprowadzenie tego rodzaju mechanizmów byłoby jednym z elementów zapewnienia równowagi miedzy rozwojem AI służącym człowiekowi a ewentualnymi utrudnieniami będącymi skutkiem tych rozwiązań.
Kancelaria Domański Zakrzewski Palinka sp.k.
źródło: Automatyka 11/2018
Komentarze
blog comments powered by Disqus