2,10,30

ZAPISZ SIĘ DO NEWSLETTERA SERWISU AUTOMATYKAONLINE.PL I POBIERZ DARMOWY NUMER "AUTOMATYKI"!

okładka Automatyka

*Wyrażam zgodę na przetwarzanie moich danych osobowych przez Przemysłowy Instytut Automatyki i Pomiarów PIAP, z siedzibą w Warszawie przy ul. Al. Jerozolimskie 202, 02-486 Warszawa, w celach marketingowych, w tym marketingu bezpośredniego. Oświadczam, że zostałem poinformowany/a o prawie do wglądu, modyfikacji oraz usuwania moich danych osobowych.

*Wyrażam zgodę na przesyłanie mi informacji handlowej (w tym informacji handlowej partnerów portalu AutomatykaOnline.pl) za pomocą środków komunikacji elektronicznej w rozumieniu ustawy z dnia 18 lipca 2002 r. o świadczeniu usług drogą elektroniczną (Dz.U. 2002 nr 144, poz. 1204).

*Wyrażam zgodę na używanie przez Przemysłowy Instytut Automatyki i Pomiarów PIAP, z siedzibą w Warszawie przy ul. Al. Jerozolimskie 202, 02-486 Warszawa, telekomunikacyjnych urządzeń końcowych, których jestem użytkownikiem, dla celów marketingu bezpośredniego zgodnie z art. 172 ustawy z dnia 16 lipca 2004 r. Prawo telekomunikacyjne (Dz.U. 2004 nr 171 poz. 1800).

*Akceptuję regulamin portalu AutomatykaOnline.pl oraz politykę prywatności serwisu.




ZAMKNIJ OKNO

Dziękujemy!

Prawie gotowe ... Musimy potwierdzić Twój adres email. Aby zakończyć proces subskrypcji, należy kliknąć link w mailu, który właśnie wysłaliśmy do Ciebie.

Po akceptacji zapisu na newsletter zostanie przesłany do Ciebie numer promocyjny miesięcznika Automatyka.

ZAMKNIJ OKNO

Dziękujemy za próbę ponownego zapisu na nasz newsletter.

Twój mail już jest w naszej bazie!

W przypadku pytań, prosimy o kontakt:
redakcja@automatykaonline.pl

ZAMKNIJ OKNO

This website uses cookies

W celu zapewnienia najwyższej jakości usług strona używa plików cookies. Szczegóły w polityce prywatności serwisu.

POL ENG
a a a
Search
  • Login
  • Sign up
Site map Site map
AutomatykaOnline.pl
  • Home page
  • News
  • Interviews
  • Application
  • Articles
  • Events
  • Companies
  • Products
Search
Automatyka 6/2025

Automation6/2025

In this issue:
  • Interview with Paweł Hoerner de Roithberger and Paweł Reszel, National Instruments
  • Cybersecurity of industrial control systems
  • Signaling columns
  • Magazine
  • Subscription
  • Contact
  • Advertisement
Articles
  • Building Automation
  • Safety
  • Druk 3D
  • Electrics
  • Energy
  • Energia
  • Building Automation
  • Communication
  • Computers and HMI
  • Building Automation
  • Assembly and Conveyance
  • Software
  • Pneumatics
  • Measurements
  • Prawo i normy
  • Przemysł 4.0
  • Robotics
  • Control
  • Visions Systems
  • Drives
  • Technika łożyskowa
  • Technologia obróbki
  • Services
  • Building Automation
  • Others
Expand all
  • Home page
  • Articles
  • Prawo i normy

Akt w sprawie sztucznej inteligencji. Pierwszy kompleksowy akt prawny UE regulujący stosowanie systemów AI

Marcin Karolak print

Monday September 02 2024
Marcin Karolak, SKP Ślusarek Kubiak Pieczyk
Tweet

Kiedy dyskutujemy na temat prawnego regulowania stosowania systemów AI, możemy czasem usłyszeć od osób, które nie są prawnikami pytanie zadane z dozą ironii: I co, będziecie aresztować komputery? Krótka odpowiedź na to pytanie, sformułowana w stylu dowcipów o Radiu Erewan, brzmi: „Wszystko się zgadza, oprócz trzech drobnych szczegółów – nie komputery, tylko ludzi, nie aresztować tylko chronić, i nie wsadzać do więzienia, lecz nakładać kary pieniężne na niektórych uczestników rynku”. Podchodząc do tej tematyki nieco poważniej, po kilku latach analiz na poziomie decyzyjnym UE zaobserwowano, że społeczne obawy związane z wykorzystywaniem systemów AI okazały się na tyle poważne, aby skutkowało to podjęciem prac nad prawnymi ramami użytkowania AI.

Proponowane rozwiązania systemowe dotyczące regulacji prawnych posługiwania się systemami AI mają dwa zasadnicze filary – mają chronić prawa podstawowe, demokrację, praworządność i środowisko przed zagrożeniami powodowanymi przez działanie systemów AI wysokiego ryzyka, ale jednocześnie wspierać innowacyjne rozwiązania i wspomagać rozwój systemów AI na terytorium Unii Europejskiej, tak aby stała się ona liderem w dziedzinie AI. W ocenie większości podmiotów zaangażowanych w prace nad takimi regulacjami, przepisy regulujące stosowanie systemów AI nie mogą doprowadzić do zahamowania prac nad rozwojem takich systemów i technologii, które mogą przysłużyć się człowiekowi i przyspieszyć prace nad istotnymi odkryciami naukowymi. W opinii legislatorów większość systemów sztucznej inteligencji nie stwarza zagrożenia dla człowieka i może przyczynić się do rozwiązania wielu problemów społecznych, natomiast prawo powinno w pierwszej linii regulować wykorzystanie takich systemów AI, które mogą spowodować powstanie różnego rodzaju ryzyk.

Zharmonizowane ramy prawne

13 marca 2024 r. Parlament Europejski przyjął tekst rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (Akt o sztucznej inteligencji – AI Act). Zgodnie z procedurą uchwalania aktów prawnych, rozporządzenie musi jeszcze zostać zatwierdzone przez Radę UE, aby stało się prawem obowiązującym w Unii Europejskiej.

AI Act zawiera prawną definicję systemu AI. Pod tym pojęciem należy rozumieć system maszynowy, zaprojektowany do działania na różnym poziomie autonomii, który po wdrożeniu może wykazywać zdolność adaptacji i który wnioskuje – do wyraźnych lub dorozumianych celów – jak generować na podstawie danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne albo wirtualne. Jest to definicja stworzona na potrzeby aktu prawnego i prawdopodobnie naukowcy zajmujący się nowoczesnymi technologiami mogliby długo dyskutować, czy powinno się do niej dodać jakieś elementy, czy też może część z nich jest zbędna. W ocenie autora tego artykułu, definicja z AI Act nie zawiera jednego istotnego elementu, a mianowicie odwołania do działania systemu zgodnie z wbudowanym algorytmem. W opisach działania systemów AI wskazuje się bowiem, że „kluczowa siła systemu sztucznej inteligencji znajduje się w jego logice operacyjnej (modelach algorytmów), która dla danego zestawu celów i na podstawie danych wejściowych z czujników zapewnia ekstrakcję (wynik) dla siłowników – jako zalecenia, przewidywania lub decyzje, które mogą wpłynąć na stan środowiska.”1

Trzy poziomy ryzyka

AI Act definiuje trzy poziomy ryzyka w stosowaniu sztucznej inteligencji: niedopuszczalny, wysoki oraz ograniczony. W odniesieniu do każdego z trzech poziomów akt prawny przewiduje odmienne regulacje. W rozdziale II AI Act odnosi się bezpośrednio do najwyższego poziomu ryzyka (niedopuszczalnego), wskazując rodzaje zakazanych praktyk w zakresie sztucznej inteligencji i kierując się ogólnie przyjętymi założeniami dotyczącymi praw człowieka. Zakazane jest przede wszystkim wykorzystanie systemów kategoryzacji biometrycznej, które indywidualnie kategoryzują osoby fizyczne, aby wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub filozoficznych, życia seksualnego lub preferencji seksualnych. Zakazane jest również wykorzystywanie zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ściągania przestępstw (AI Act przewiduje jednak wyjątki, np. zapobieganie zagrożeniu atakiem terrorystycznym).

Zakazane na podstawie AI Act jest również wykorzystanie systemów sztucznej inteligencji do takich celów, jak rozpoznawanie emocji w miejscu pracy i instytucjach edukacyjnych, klasyfikacja punktowa obywateli, prognozowanie przestępczości (wyłącznie na podstawie profilowania osoby lub oceny jej cech). Nie będzie też dozwolone wykorzystanie systemów AI, które pozwalają manipulować zachowaniem ludzi lub wykorzystywać ich słabości.

Oprócz ogólnego rygoru dla wszelkich systemów AI, rozporządzenie wyróżnia szczególną kategorię – systemy AI wysokiego ryzyka. Do tej grupy kwalifikuje się znaczna liczba systemów AI, takich jak m.in. systemy biometryczne (w wąskim zakresie, kiedy mogą być wykorzystywane na podstawie AI Act i innych aktów unijnych oraz krajowych), systemy związane z zarządzaniem krytyczną infrastrukturą cyfrową, ruchu drogowego, zaopatrzenia w wodę, gaz, ciepło lub energię elektryczną, a także zarządzające migracją, azylem i kontrolą graniczną. Znamienne jest to, że rozporządzenie w tym kontekście wymienia również systemy AI przeznaczone do stosowania przez organy sądowe w celu wspomagania organu sądowego w badaniu i interpretacji stanu faktycznego i przepisów prawa oraz w stosowaniu prawa do konkretnego stanu faktycznego lub do wykorzystywania w podobny sposób w alternatywnych metodach rozwiązywania sporów. Unijny prawodawca reaguje w ten sposób na rozwój systemów AI, projektowanych m.in. dla potrzeb pomocniczego wykorzystywania przez poszczególne organy wymiaru sprawiedliwości, jak również przez sądy arbitrażowe.

Systemy AI wysokiego ryzyka muszą spełniać szczegółowe wymogi ustalone przepisami AI Act. W odniesieniu do systemów tej kategorii należy przede wszystkim wdrożyć system zarządzenia ryzykiem rozumiany jako ciągły, iteracyjny proces, planowany i realizowany przez cały cykl użytkowania systemów, wymagający systematycznego przeglądu i aktualizacji. Użytkownicy takich systemów muszą dokonać identyfikacji i analizy dającego się racjonalnie przewidzieć ryzyka, jakie mogą one stwarzać, a następnie przyjąć odpowiednie i ukierunkowane środki zarządzania ryzykiem.

Nieodzowna kontrola człowieka

AI Act wymaga, aby systemy AI wysokiego ryzyka zostały zaprojektowane w odpowiedni sposób, z uwzględnieniem użycia odpowiednich narzędzi interfejsu człowiek–maszyna, aby w okresie wykorzystywania systemu AI wysokiego ryzyka mogły je skutecznie nadzorować osoby fizyczne. W tym miejscu, przynajmniej w teorii, prawo ma wymagać stosowania odpowiednich środków, aby zapobiegać sytuacjom kojarzącym się z buntem systemu Skynet przedstawionym w filmie „Terminator”. Niezwykłe jest, że film ten powstał dokładnie 40 lat temu i już wtedy obawiano się, że maszyny wymkną się spod kontroli ludzi. Aby ułatwić małym i średnim przedsiębiorstwom, w szczególności start–upom, projektowanie systemów AI, mają być tworzone tzw. piaskownice regulacyjne (regulatory sandbox), czyli specjalne otoczenie – zarówno prawne, jak i technologiczne – ułatwiające kontrolowany i bezpieczny rozwój innowacji.

Należy pamiętać, że na najwyższym szczeblu najbardziej skomplikowanego procesu decyzyjnego podjętego z użyciem systemów AI, zawsze znajduje się człowiek, działający indywidualnie albo kolektywnie. Każda osoba, której dotyczy decyzja podjęta przez jedną lub więcej osób stosujących systemy AI na podstawie wyników działania systemu AI wysokiego ryzyka (która to decyzja generuje skutki prawne lub w podobny sposób oddziałuje na tę osobę na tyle znacząco, że uważa ona, iż ma to niepożądany wpływ na jej zdrowie, bezpieczeństwo lub prawa podstawowe) ma prawo uzyskania od podmiotu stosującego AI merytorycznego wyjaśnienia roli tego systemu AI w procedurze podejmowania decyzji.

Nieprzestrzeganie obowiązków nałożonych na podmioty wykorzystujące technologie i systemy AI, może prowadzić na różnych poziomach (wytwórcy, dostawcy, importerzy, operatorzy) do nałożenia przez organy kontrolne surowych sankcji. W przypadku udowodnienia zakazanych praktyk w zakresie praw człowieka, takich jak opisane w niniejszym artykule kategoryzacje biometryczne czy manipulowanie ludzkimi emocjami, maksymalna kara pieniężna przewidziana przepisami tego aktu może wynosić nawet 35 000 000 euro lub – jeżeli naruszenia dokonuje przedsiębiorstwo – do 7 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.

Podawanie nieprawdziwych informacji krajowym organom kontrolnym w odpowiedzi na ich wezwania może skutkować nałożeniem kary pieniężnej do 7 500 000 euro lub – jeżeli naruszenia dokonuje przedsiębiorstwo – do 1 % jego całkowitego rocznego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.

AI Act to pierwsza kompleksowa regulacja UE w zakresie stosowania systemów sztucznej inteligencji. Niezwykle dynamiczny rozwój systemów AI, które znajdują zastosowanie w kolejnych gałęziach nauki, przemysłu czy też edukacji, wskazuje na to, że stoimy dopiero na początku drogi do regulacji tego zjawiska. 

Przypisy

1 Czym jest sztuczna inteligencja – Portal sztucznej inteligencji – Portal Gov.pl (www.gov.pl)

Marcin Karolak

Marcin Karolak

Działa w praktyce TMT, doradzając w zakresie prawa mediów (tradycyjnych oraz elektronicznych), jak również prawa telekomunikacyjnego, ze szczególnym uwzględnieniem gospodarki zasobami częstotliwości. Doradza także w zakresie prawa własności intelektualnej, w szczególności w sprawach dotyczących prawa autorskiego. W praktyce zawodowej ma również obsługę podmiotów z branży social media/modeling, w zakresie działalności influencerów, budowania marki osobistej, ochrony wizerunku oraz reklamy. Kontakt: m.karolak@skplaw.pl. Strony internetowe: www.skplaw.pl, www.skpipblog.pl.

source: Automatyka 4/2024

Keywords

automatyka, Kancelaria SKP Ślusarek Kubiak Pieczyk, prawo, sztuczna inteligencja

Related articles

  • Jakich systemów AI zakazuje AI Act?
  • Prawo komunikacji elektronicznej
  • Prawo komunikacji elektronicznej
  • Cyberbezpieczeństwo: zmiany w 2024 r.
  • Ustawa o ochronie sygnalistów

Newsletter

Stay up to date with current information.

Comau videos YouTube

Show more videos
Inżynier wie

Events

Show more events
1 Jan Training

Zwiedzanie centrum efektywnej prefabrykacji szaf sterowniczych

1 January 2025 – 31 December 2025
24 Jun Conference

"Niezawodność i Utrzymanie Ruchu w zakładach produkcyjnych" w Szklarskiej Porębie

Szklarska Poręba 24 June 2025
24 Jun Training

Szkolenie z programowania sterowników PLCnext - podstawy

Wrocław 24–25 June 2025
24 Jun Webinar

Monitorowanie i efektywne zarządzanie zużyciem energii w zakładach przemysłowych

24 June 2025
  • facebook
  • Tweeter
  • google+
  • RSS AutomatykaOnline
  • About Us
  • Sales and customer service
  • Privacy Policy
  • Presentation
  • Terms of Use
  • Accessibility Statement
  • Contact Us
  • Contact form
  • Media cooperation
  • Portal Editorial
  • Automatyka Editorial
  • Advertising
  • Advertising contact
  • Advertising in "Automatyka"
  • Newsletter
AutomatykaOnline.pl

© 2014 by Przemysłowy Instytut Automatyki i Pomiarów PIAP. All rights reserved.
created by: TOMP