2,10,30

ZAPISZ SIĘ DO NEWSLETTERA SERWISU AUTOMATYKAONLINE.PL I POBIERZ DARMOWY NUMER "AUTOMATYKI"!

okładka Automatyka

*Wyrażam zgodę na przetwarzanie moich danych osobowych przez Przemysłowy Instytut Automatyki i Pomiarów PIAP, z siedzibą w Warszawie przy ul. Al. Jerozolimskie 202, 02-486 Warszawa, w celach marketingowych, w tym marketingu bezpośredniego. Oświadczam, że zostałem poinformowany/a o prawie do wglądu, modyfikacji oraz usuwania moich danych osobowych.

*Wyrażam zgodę na przesyłanie mi informacji handlowej (w tym informacji handlowej partnerów portalu AutomatykaOnline.pl) za pomocą środków komunikacji elektronicznej w rozumieniu ustawy z dnia 18 lipca 2002 r. o świadczeniu usług drogą elektroniczną (Dz.U. 2002 nr 144, poz. 1204).

*Wyrażam zgodę na używanie przez Przemysłowy Instytut Automatyki i Pomiarów PIAP, z siedzibą w Warszawie przy ul. Al. Jerozolimskie 202, 02-486 Warszawa, telekomunikacyjnych urządzeń końcowych, których jestem użytkownikiem, dla celów marketingu bezpośredniego zgodnie z art. 172 ustawy z dnia 16 lipca 2004 r. Prawo telekomunikacyjne (Dz.U. 2004 nr 171 poz. 1800).

*Akceptuję regulamin portalu AutomatykaOnline.pl oraz politykę prywatności serwisu.




ZAMKNIJ OKNO

Dziękujemy!

Prawie gotowe ... Musimy potwierdzić Twój adres email. Aby zakończyć proces subskrypcji, należy kliknąć link w mailu, który właśnie wysłaliśmy do Ciebie.

Po akceptacji zapisu na newsletter zostanie przesłany do Ciebie numer promocyjny miesięcznika Automatyka.

ZAMKNIJ OKNO

Dziękujemy za próbę ponownego zapisu na nasz newsletter.

Twój mail już jest w naszej bazie!

W przypadku pytań, prosimy o kontakt:
redakcja@automatykaonline.pl

ZAMKNIJ OKNO

This website uses cookies

W celu zapewnienia najwyższej jakości usług strona używa plików cookies. Szczegóły w polityce prywatności serwisu.

POL ENG
a a a
Search
  • Login
  • Sign up
Site map Site map
AutomatykaOnline.pl
  • Home page
  • News
  • Interviews
  • Application
  • Articles
  • Events
  • Companies
  • Products
Search
Automatyka 6/2025

Automation6/2025

In this issue:
  • Interview with Paweł Hoerner de Roithberger and Paweł Reszel, National Instruments
  • Cybersecurity of industrial control systems
  • Signaling columns
  • Magazine
  • Subscription
  • Contact
  • Advertisement
Articles
  • Building Automation
  • Safety
  • Druk 3D
  • Electrics
  • Energy
  • Energia
  • Building Automation
  • Communication
  • Computers and HMI
  • Building Automation
  • Assembly and Conveyance
  • Software
  • Pneumatics
  • Measurements
  • Prawo i normy
  • Przemysł 4.0
  • Robotics
  • Control
  • Visions Systems
  • Drives
  • Technika łożyskowa
  • Technologia obróbki
  • Services
  • Building Automation
  • Others
Expand all
  • Home page
  • Articles
  • Prawo i normy

Jakich systemów AI zakazuje AI Act?

Marlena Kudła print

Wednesday May 14 2025
Marlena Kudła, SKP Ślusarek Kubiak Pieczyk
Tweet

Sztuczna inteligencja to dziedzina, która nieustannie się rozwija i oferuje coraz więcej możliwości oraz korzyści dla ludzkości. Nie wszystkie rozwiązania są jednak bezpieczne i pożądane z perspektywy społeczeństwa, a w szczególności zdrowia, bezpieczeństwa czy praw podstawowych. Akt o sztucznej inteligencji adresuje ten problem przez wskazanie tzw. zakazanych praktyk w zakresie AI.

Odpowiedzi na pytanie, jakie systemy AI będą już wkrótce zakazane w Unii Europejskiej, należy szukać w treści art. 5 Aktu o sztucznej inteligencji1 (dalej AI Act). Artykuł ten wyszczególnia bowiem kolejno w swojej treści praktyki uznane za szkodliwe i stanowiące nadużycie, przez co powinny być zakazane.

Aby filmy sci-fi nie stały się rzeczywistością

Artykuł 5 rozpoczyna się od omówienia systemów AI stosujących techniki podprogowe (wykorzystujące bodźce wykraczające poza ludzką percepcję), manipulacyjne czy wprowadzające w błąd. Jak wskazano w motywie 29 do AI Act, ma to na celu uniknięcie nakłaniania przez systemy AI osób do niepożądanych zachowań czy skłaniania do podjęcia decyzji wbrew ich swobodzie wyboru. Co istotne, przepis mówi jednak, że systemy wykorzystujące takie techniki muszą prowadzić do istotnego zniekształcenia zachowania danej osoby lub grupy, np. sprawiając, że osoba podejmuje decyzję, której w innym wypadku by nie podjęła, co w konsekwencji powoduje lub może spowodować dla niej „poważną szkodę”. Co ciekawe, w motywie 29 wyjaśniono, że zakaz praktyk polegających na manipulacji nie powinien mieć wpływu na zgodne z prawem praktyki w kontekście leczenia – jak np. terapia psychologiczna czy rehabilitacja fizyczna – jeżeli są prowadzone zgodnie z prawem i za zgodą danej osoby. Podobnie z legalnymi i zasadnymi praktykami w dziedzinie reklamy.

Innym przykładem zakazanych praktyk w ramach systemów AI są systemy wykorzystujące tzw. social scoring, który może być nam znany z popkultury (np. film „Raport mniejszości”). Klasyfikowanie osób na podstawie ich zachowania lub ich wnioskowanych cech osobowości będzie wkrótce prawnie zakazane, jeżeli miałoby prowadzić do dyskryminowania niektórych osób w jakimś innym kontekście lub w sposób nieuzasadniony do zachowania tej osoby.

AI Act zakazuje ponadto systemów AI, które wykorzystują słabości danej osoby lub grupy, ze względu na ich wiek, niepełnosprawność, czy szczególną sytuację społeczną lub ekonomiczną, co także miałoby skutkować zniekształceniem zachowania takiej osoby/grupy i prowadzić lub móc prowadzić do spowodowania „poważnej szkody”. Jak wskazano w motywie 29, osoby żyjące w skrajnym ubóstwie, osoby z mniejszości etnicznych lub religijnych, mogą być potencjalnie bardziej narażone na ich wykorzystanie.

AI to nie wróżka

Artykuł 5 AI Act pochyla się ponadto nad systemami AI wykorzystywanymi do predykcji kryminalnej, czyli do przewidywania ryzyka ponownego popełnienia przestępstwa na podstawie profilowania danej osoby, jej cech osobowości czy cech charakterystycznych, takich jak narodowość, miejsce urodzenia, miejsce zamieszkania, liczba dzieci, poziom zadłużenia lub rodzaj samochodu2. Takie systemy AI również są uznawane za niedozwolone. Wyjątek dotyczy wspierania przez takie systemy dokonywanej przez człowieka oceny zaangażowania danej osoby w działalność przestępczą, o ile mamy uzasadnione podejrzenie co do tego, dodatkowo oparte na obiektywnie możliwych do zweryfikowania faktach. Zakaz ten nie dotyczy jednak analizy ryzyka, która nie opiera się na profilowaniu czy cechach osobistych lub charakterystycznych danej osoby. Przykładowo dopuszczalne są sytuacje, gdy analizowane są podejrzane transakcje w celu oceny prawdopodobieństwa nadużyć finansowych przez daną osobę2.

Za niedozwolone uznano systemy AI służące do rozpoznawania lub wyciągania wniosków na temat emocji osób w ich miejscu pracy, szkołach lub uczelniach, chyba że ma to związek ze względami medycznymi (np. do użytku terapeutycznego) czy bezpieczeństwa. Unijny ustawodawca dostrzega ryzyka związane z takimi systemami AI, mają one bowiem ograniczoną wiarygodność i są nieprecyzyjne, choćby z uwagi na to, że wyrażanie emocji różni się w zależności od danej kultury czy sytuacji. Taki system AI wiąże się zatem z ryzykiem uzyskania dyskryminacyjnych wyników, a w efekcie prowadzi do niekorzystnego traktowania niektórych osób lub grup.

AI Act zakazuje systemów AI, które pozyskują wizerunki twarzy z Internetu lub nagrań z telewizji przemysłowej w celu tworzenia lub rozbudowywania baz danych służących rozpoznawaniu twarzy. Praktyka ta bowiem wprowadza poczucie masowego nadzoru i może prowadzić do naruszeń prawa do prywatności.

Skomplikowane meandry biometrii

Dosyć szczegółowa wydaje się kwestia związana z systemami AI wykorzystującymi biometrię. Zakazane są systemy kategoryzacji biometrycznej, które wykorzystują dane biometryczne osób fizycznych do wnioskowania informacji na temat ich „rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub filozoficznych, życia seksualnego lub orientacji seksualnej”. Zakaz ten nie dotyczy ścigania przestępstw czy etykietowania legalnie zdobytych danych biometrycznych, np. w postaci sortowania obrazów według koloru włosów czy oczu, co można potem wykorzystać w ściganiu przestępstw (motyw 30).

Temat biometrii przewija się także w kontekście zakazu systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw. Ustawodawca unijny zauważa, że takie systemy mogły wywoływać „poczucie stałego nadzoru i pośrednio zniechęcać do korzystania z wolności zgromadzeń i innych praw podstawowych” (motyw 32). Aby nie było tak łatwo, unijny ustawodawca wskazuje wyjątki, umożliwiające wykorzystywanie takich systemów. Są nimi sytuacje, gdy wykorzystanie jest „absolutnie niezbędne” do któregoś z poniższych celów:

  1. poszukiwania konkretnych ofiar uprowadzeń, handlu ludźmi, wykorzystywania seksualnego, poszukiwania zaginionych,
  2. zapobiegania „konkretnemu, poważnemu i bezpośredniemu” zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych albo rzeczywistemu zagrożeniu atakiem terrorystycznym,
  3. lokalizowania lub identyfikowania osoby podejrzanej o popełnienie przestępstwa w celu prowadzenia postępowania przygotowawczego, ścigania lub wykonania kar w odniesieniu do takich przestępstw, jak np. terroryzm, handel ludźmi, wykorzystywanie seksualne dzieci, nielegalny obrót środkami odurzającymi lub bronią, zabójstwo, nielegalny obrót organami ludzkimi, zgwałcenie, sabotaż, rozbój przy użyciu broni.

AI Act wskazuje również, że jakiekolwiek wykorzystanie takich systemów AI do wyżej wymienionych celów musi przebiegać z zachowaniem niezbędnych i proporcjonalnych zabezpieczeń, a także zgodnie z prawem krajowym. Co istotne, aby taki system mógł być zastosowany, musi najpierw zostać zarejestrowany w unijnej bazie danych, chyba że mamy do czynienia z nadzwyczajną sytuacją – wówczas można zarejestrować taki system później, jednak bez zbędnej zwłoki.

Warto również odnotować, że każde wykorzystanie systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej, wymaga uprzedniego zezwolenia udzielonego przez sąd lub odpowiedni organ administracyjny. Tak jak w przypadku rejestracji w unijnej bazie, tak samo w przypadku wspomnianego zezwolenia w nadzwyczajnych przypadkach system może zostać wykorzystany bez zezwolenia, przy czym taki wniosek musi zostać następnie złożony w ciągu 24 godzin. Gdy odpowiedni sąd lub organ nie wyda takiego zezwolenia, wykorzystywanie systemu musi zostać wstrzymane natychmiast, a wszystkie dane i wyniki muszą zostać usunięte.

O użyciu takiego systemu AI informuje się dodatkowo właściwy organ nadzoru rynku i krajowy organ ochrony danych, oczywiście bez podawania wrażliwych danych operacyjnych. Te organy natomiast mają corocznie raportować takie wykorzystania do Komisji Europejskiej, która następnie publikuje roczne sprawozdania na ten temat.

Ochrona osób fizycznych w przypadku wykorzystania systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej ma jeszcze jeden aspekt. W przepisie wprost wskazano bowiem, że nie można podjąć decyzji wywołującej niepożądane skutki prawne dla danej osoby wyłącznie na podstawie wyników uzyskanych z takiego systemu.

Istotnie jednak państwa członkowskie mogą podjąć decyzję o wprowadzeniu możliwości pełnego lub częściowego zezwolenia na wykorzystywanie takich systemów w granicach i na warunkach określonych w AI Act. W związku z tym, jak wyjaśnia motyw 37, państwa członkowskie mogą w ogóle nie przewidywać takiej możliwości lub przewidzieć ją jedynie w odniesieniu do niektórych celów mogących uzasadniać dozwolone wykorzystanie.

Na koniec rozważań dotyczących danych biometrycznych, warto wskazać, że zgodnie z AI Act nie jest tak, że automatycznie wszystkie systemy zdalnej identyfikacji biometrycznej są zakazane. Zakazane są bowiem te dokonujące tego w czasie rzeczywistym w przestrzeni publicznej. Inne zostały bowiem skategoryzowane jako systemy AI wysokiego ryzyka, na które to został nałożony szereg obowiązków. Nie są one jednak niedozwolone. Podobnie systemem AI wysokiego ryzyka będą systemy AI przeznaczone do stosowania przy kategoryzacji biometrycznej, według wrażliwych lub chronionych cech lub na podstawie wnioskowania o nich, a także systemy AI przeznaczone do stosowania przy rozpoznawaniu emocji.

Kiedy wejdzie w życie zakaz?

Zgodnie z treścią AI Act, przepisy rozporządzenia co do zasady będą stosowane od 2 sierpnia 2026 r. W przypadku zakazanych praktyk w zakresie AI, określonych w art. 5, jest jednak inaczej. Regulacja ta będzie obowiązywać już od 2 lutego 2025 r. 

1 https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=OJ%3AL_202401689.

2 Motyw 42 AI ACT.

Marlena Kudła

Marlena Kudła

Specjalizuje się w ochronie dóbr osobistych osób fizycznych i prawnych. Bliskie są jej zagadnienia ochrony wizerunku, renomy i dobrego imienia. Zaangażowana w postępowania z zakresu zwalczania nieuczciwej konkurencji. Zajmuje się także prawem własności intelektualnej, ze szczególnym uwzględnieniem prawa autorskiego, prawa reklamy i mediów. W zakresie jej zainteresowań znajduje się również prawo nowych technologii. Kontakt: m.kudla@skplaw.pl. Strony internetowe: www.skplaw.pl, www.skpipblog.pl.

source: Automatyka 10/2024

Keywords

AI ACT, Jakich systemów AI zakazuje AI ACT?, Kancelaria SKP Ślusarek Kubiak Pieczyk

Related articles

  • Co AI ACT oznacza dla biznesu?
  • Prawo komunikacji elektronicznej
  • Prawo komunikacji elektronicznej
  • Cyberbezpieczeństwo: zmiany w 2024 r.
  • Ustawa o ochronie sygnalistów

Newsletter

Stay up to date with current information.

Comau videos YouTube

Show more videos
Inżynier wie

Events

Show more events
1 Jan Training

Zwiedzanie centrum efektywnej prefabrykacji szaf sterowniczych

1 January 2025 – 31 December 2025
2 Jul Training

Bezpieczeństwo układów sterowania maszyn wg EN ISO 13849

2–11 July 2025
10 Jul Training

Bezpieczeństwo układów sterowania maszyn: ćwiczenia z użyciem programu SISTEMA

10–11 July 2025
24 Jul Workshops

Podstawy prefabrykacji szaf sterowniczych

Wrocław 24 July 2025
  • facebook
  • Tweeter
  • google+
  • RSS AutomatykaOnline
  • About Us
  • Sales and customer service
  • Privacy Policy
  • Presentation
  • Terms of Use
  • Accessibility Statement
  • Contact Us
  • Contact form
  • Media cooperation
  • Portal Editorial
  • Automatyka Editorial
  • Advertising
  • Advertising contact
  • Advertising in "Automatyka"
  • Newsletter
AutomatykaOnline.pl

© 2014 by Przemysłowy Instytut Automatyki i Pomiarów PIAP. All rights reserved.
created by: TOMP