AI – szanse i zagrożenia
Michał Majcher print
Sztuczna inteligencja, której początki sięgają lat 50. XX w., stała się nieodłącznym elementem życia człowieka. Dynamiczny rozwój badań nad tą dziedziną nauki w ostatnich latach sprawił, że trudno jest wyobrazić sobie dalszy postęp cyfrowy lub technologiczny bez obecności sztucznej inteligencji, zaś futurystyczne wizje, przedstawiane w filmach science fiction, są coraz bardziej realne. W poprzednim artykule pisaliśmy o przyjętym niedawno przez Parlament Europejski Akcie AI. Teraz rozwijamy ten temat, przybliżając jednocześnie możliwe zastosowania AI, nie zawsze korzystne z punktu widzenia bezpieczeństwa.
W idealnym założeniu sztuczna inteligencja miała służyć ludziom. Zakres jej stosowania jest niezwykle szeroki. Dziś trudno wymienić dziedzinę życia, w której nie byłaby ona wykorzystywana. Zastosować ją można zarówno w codziennym życiu człowieka, jak i do szerszych celów, szczególnie odpowiadających na istotne problemy społeczne. AI, czyli artificial intelligence możemy stosować w tzw. inteligentnych budynkach, infrastrukturze, urządzeniach domowych czy samochodach oraz w transporcie. AI służy nam również w medycynie i systemie opieki zdrowotnej. Usprawnia produkcję przemysłową, wspiera usługi i rolnictwo.
Sztuczna inteligencja jest także stosowana przez administrację publiczną, a niezwykle istotną rolę pełni w zarządzaniu kryzysowym i wykrywaniu zagrożeń. Wystarczy zauważyć, że sztuczna inteligencja pozwoliła na ocenę rozwoju pandemii COVID-19.1
Z drugiej strony sztuczna inteligencja powoduje pokusę wykorzystywania jej w celach nieetycznych lub nawet nielegalnych. AI może wprost zagrażać podstawowym prawom obywateli i powodować szkody o szerokim zasięgu. W atakach hakerskich można wykorzystywać słabe punkty systemu sztucznej inteligencji, wykradać dane albo szerzyć dezinformację przy wykorzystaniu nieprawdziwych danych. W ten sposób sztuczna inteligencja może poważnie zagrażać cyberbezpieczeństwu.
Akt w sprawie sztucznej inteligencji
Wobec tak wielu korzyści, ale i niezwykle poważnych zagrożeń, sztuczna inteligencja jest określana jako centralny element cyfrowej transformacji społeczeństwa i z tego względu stała się przedmiotem zainteresowania Unii Europejskiej.2 W celu zapewnienia bezpiecznego rozwoju nowych technologii, odpowiedniego wykorzystania szans, które daje sztuczna inteligencja, a jednocześnie zminimalizowania zagrożeń, Parlament Europejski uchwalił Akt w sprawie sztucznej inteligencji (AI Act).3
Prawodawca europejski wymienił w art. 5 AI Act zakazane sposoby wykorzystania sztucznej inteligencji. Niedozwolone są wszelkie działania, które mają na celu manipulację ludźmi przez techniki przekazu podprogowego, zaburzające ich możliwość podejmowania świadomych decyzji lub wykorzystujące słabość odbiorców danych treści (np. ze względu na wiek odbiorców).
Niedopuszczalne będzie również tworzenie systemów oceny lub klasyfikacji osób bądź pewnych grup społecznych na podstawie ich zachowań, cech lub innych danych. W szczególności nie będzie można tak postępować w celu wykorzystania danych w innym kontekście niż pierwotnie miały służyć. Dzięki temu zachowana zostanie proporcjonalność sposobów wykorzystania danych do ich pierwotnego celu.
Istotnym zakazem jest ten, który dotyczy wykorzystania AI w celu oceny ryzyka lub prawdopodobieństwa popełnienia przestępstw wyłącznie w oparciu o cechy oraz dane ludzi. Zakaz „prognozowania” ryzyka popełnienia przestępstwa nie dotyczy jednak tych systemów sztucznej inteligencji, których celem jest wsparcie wykrywania działalności przestępczej na podstawie obiektywnych i weryfikowalnych informacji oraz fakty pozostające w bezpośrednim związku z działalnością przestępczą. Dzięki temu odpowiednie służby mogą podejmować działania w celu wykrywania i zwalczania działań nielegalnych. Ten aspekt jest kluczowy szczególnie w erze rozwoju Internetu i przeniesienia części działań przestępczych do strefy on-line.
Kluczową rolę w AI Act odgrywają zakazy związane ze zbieraniem i wykorzystywaniem danych biometrycznych. Zabronione jest tworzenie lub rozszerzanie bazy danych rozpoznawania twarzy przez nieukierunkowane przeszukiwanie obrazów twarzy z Internetu lub z nagrań z monitoringu wizyjnego, co ma na celu poszanowanie podstawowych praw i wolności człowieka, w tym prawa do prywatności. Stosowanie danych biometrycznych będzie jednak dozwolone w przypadku konieczności zapewnienia egzekwowania prawa, jeżeli AI będzie stosowana do poszukiwania ofiar uprowadzeń, handlu ludźmi lub wykorzystania seksualnego albo w celu poszukiwania zaginionych osób. Dodatkowo dopuszczono działania mające na celu zapobieżenie istniejącym lub dającym się przewidzieć zagrożeniom atakami terrorystycznymi. Możliwe w tym zakresie są również działania umożliwiające zlokalizowanie lub identyfikację osoby podejrzanej o popełnienie przestępstwa w celu przeprowadzenia śledztwa lub ścigania podejrzanego za popełnienie niektórych przestępstw. Interesujący zakaz został sformułowany w odniesieniu do wnioskowania o emocjach ludzi. Nieuprawnione będą te działania, które wykorzystują AI do „czytania” emocji ludzi w ich miejscach pracy, placówkach edukacyjnych z wyjątkiem sytuacji, gdy zastosowanie to będzie zapewniać bezpieczeństwo lub właściwą ochronę medyczną. Unia Europejska zapobiega również niewłaściwemu wykorzystaniu sztucznej inteligencji w celu segregacji ludzi ze względu na rasę, przekonania religijne bądź polityczne, orientację seksualną lub inne dane wrażliwe.
Działania prawodawcze Unii należy ocenić pozytywnie, szczególnie ze względu na fakt dostrzeżenia przez UE wielu zagrożeń, które niesie za sobą sztuczna inteligencja.
Trzeba pamiętać, że ostateczny kształt Aktu AI nie jest przesądzony. Nie jest też pewne, czy planowana data wejścia w życie przepisów w 2026 r. będzie zachowana. O skuteczności przepisów przesądzi praktyka ich stosowania i egzekwowania.
Deepfake
W społeczeństwie informacyjnym niezwykle niebezpiecznym sposobem użycia sztucznej inteligencji jest tzw. deepfake. Fałszywe obrazy, które są tworzone przez AI, mogą być wykorzystywane w celu szerzenia dezinformacji, propagandy czy manipulacji związanej z wyborami. Narzędzie to służyć może także kradzieży tożsamości.
Niebezpieczeństwo używania deepfake’ów sprowadza się często do wykorzystania pozycji społecznej danej osoby i zaufania, którym społeczeństwo tę osobę darzy. Celem twórców deepfake’ów może być zachęcenie do korzystania z określonych usług lub nabywania towarów, których bezpieczeństwo można podać w wątpliwość. AI może być stosowana w celu dokonania oszustw na szeroką skalę – np. zachęcania odbiorców do inwestowania w niebezpieczne instrumenty finansowe i lokowania swoich oszczędności w niesprawdzonych źródłach. Należy jednak podkreślić, że działania takie są bezprawne, zaś norm zakazujących ich stosowania można szukać nie tylko w Akcie AI, lecz także w innych przepisach – zarówno karnych, jak i cywilnych, które tworzą reżim prawny odpowiedzialności za nielegalne wykorzystanie deepfake’ów.
Wśród instrumentów cywilnoprawnych można wskazać przede wszystkim przepisy dotyczące ochrony dóbr osobistych, w szczególności wizerunku osoby fizycznej lub jej dobrego imienia, zaś w przypadku przedsiębiorców – ich renomy. Deepfaki mogą stanowić działania bezprawne również w kontekście przepisów ustawy o zwalczaniu nieuczciwej konkurencji, w szczególności przez wprowadzanie odbiorców w błąd, pasożytnicze wykorzystanie renomy innego przedsiębiorstwa lub niedozwolone formy reklamy.
W zależności od celu i sposobu wykorzystania deepfake’ów należy również ocenić ewentualną odpowiedzialność karną ich twórców, którą można rozpatrywać na różnych podstawach prawnych. Przykładowo można wskazać przestępstwa przeciwko czci (zniesławienie, zniewaga) albo przestępstwa przeciwko mieniu (oszustwo lub oszustwo komputerowe).
Działania te mogą godzić zarówno w dobra indywidualne każdej osoby, jak i w ogólne bezpieczeństwo większej grupy osób lub całego społeczeństwa. W celu zapewnienia bezpiecznego środowiska internetowego, Akt o sztucznej inteligencji wprowadza obowiązki oznaczania treści generowanych przez AI.
Przyszłość AI
Zastosowanie sztucznej inteligencji w przyszłości będzie zależało w znacznej mierze od prawodawców, którzy wyznaczą dozwolone ramy użycia AI. Choć sztuczna inteligencja niesie za sobą niewyobrażalne możliwości i korzyści z jej stosowania, to nie można ignorować zagrożeń i pokus związanych z nielegalnym jej użyciem. Poza skutecznością egzekwowania zakazów i nieuchronnością kar za nielegalne wykorzystanie AI, wymagana jest odpowiedzialna postawa całego społeczeństwa. Trudności sprawiać może jednak często niezwykle cienka granica między działaniami niedozwolonymi a legalnym wykorzystaniem AI. Interesującym zjawiskiem, które może rodzić odpowiedzialność karną korzystających z AI – szczególnie za poświadczenie nieprawdy w kwestii autorstwa – jest wykorzystanie sztucznej inteligencji do tworzenia prac dyplomowych i publikacji naukowych. Wydaje się jednak, że AI może być wykorzystana w celu inspiracji, poszukiwania tematów lub określonych zjawisk. Dodatkowe trudności sprawia brak jednoznacznego statusu sztucznej inteligencji i utworów, które powstają z jej udziałem w stosunkach cywilnoprawnych. Aktualne pozostają również spory co do odpowiedzialności pojazdów poruszających się jedynie przy wykorzystaniu sztucznej inteligencji. Kwestie te wymagają jednak szczegółowej analizy i oceny, co będzie łatwiejsze po opracowaniu przez prawodawców kompleksowej regulacji sztucznej inteligencji oraz właściwego i wyważonego określenia jej ram.
Przypisy
1 Panjeta M, Reddy A, Shah R, Shah J. Artificial intelligence enabled COVID-19 detection: techniques, challenges and use cases. Multimed Tools Appl. 2023 May 27:1-28. doi: 10.1007/s11042-023-15247-7.
2 Rezolucja Parlamentu Europejskiego z dnia 12 lutego 2019 r. w sprawie kompleksowej europejskiej polityki przemysłowej w dziedzinie sztucznej inteligencji i robotyki (2018/2088(INI).
3 Rezolucja ustawodawcza Parlamentu Europejskiego z dnia 13 marca 2024 r. w sprawie wniosku dotyczącego rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniającego niektóre akty ustawodawcze Unii (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)).
W społeczeństwie informacyjnym niezwykle niebezpiecznym sposobem użycia sztucznej inteligencji jest tzw. deepfake.
Michał Majcher
Specjalizuje się w prawie cywilnym materialnym i procesowym, a także w ochronie dóbr osobistych osób fizycznych i prawnych. Zajmuje się prowadzeniem procesów cywilnych i gospodarczych. Jest zaangażowany w sprawy o naruszenia dóbr osobistych osób fizycznych i prawnych oraz w spory dotyczące nieuczciwej konkurencji.
Doradza również podmiotom z branży kreatywnej i rozrywkowej. Prowadzi bieżącą obsługę prawną w zakresie projektów audiowizualnych.
Kontakt: m.majcher@skplaw.pl. Strony internetowe: www.skplaw.pl, www.skpipblog.pl.
source: Automatyka 5/2024