Unijny AI Act – uregulowanie sztucznej inteligencji

Unijny AI Act – uregulowanie sztucznej inteligencji
Marek Cieślak

Marek Cieślak

Prezes CGO Finance

Na początku roku parlament UE przyjął rozporządzenie dotyczące sztucznej inteligencji. Czym jest unijny AI Act? Jakie ma znaczenie i zastosowanie? Jak wygląda harmonogram implementacji rozporządzenia? Przedstawiamy najważniejsze informacje poniżej.

Unijny AI Act – znaczenie rozporządzenia

Rozporządzenie będzie miało znaczący wpływ na rozwój i stosowanie systemów AI w Europie i na całym świecie. Unijny AI Act to ważny krok w kierunku zapewnienia, aby sztuczna inteligencja była wykorzystywana w sposób:

  • odpowiedzialny,
  • bezpieczny,
  • etyczny,
  • zgodny z prawami człowieka.

Unijny AI Act – zakres podmiotowy

Unijny AI Act obejmuje szeroki wachlarz podmiotów zaangażowanych w systemy sztucznej inteligencji (SI), w tym:

  • dostawców wprowadzających systemy AI na rynek lub udostępniających je,
  • użytkowników systemów AI,
  • importerów i dystrybutorów systemów AI,
  • upoważnionych przedstawicieli dostawców spoza UE,
  • producentów wprowadzających systemy AI pod własną marką.

Unijny AI Act ma zastosowanie zarówno do podmiotów z UE, jak i spoza UE.

unijny AI Act

Unijny AI Act – najważniejsze aspekty zastosowania

Rozporządzenie w sprawie sztucznej inteligencji dotyczy systemów AI wprowadzanych na rynek UE lub działających na jej terenie, niezależnie od siedziby podmiotu. Do najważniejszych aspektów zastosowania AI Act należy zaliczyć:

ochronę użytkownikówAI Act kładzie nacisk na ochronę praw i bezpieczeństwa osób fizycznych w UE, których dotyczą systemy AI
konieczność dostosowania się do nowych obowiązkówpodmioty objęte AI Act będą musiały dostosować się do szeregu nowych obowiązków, m.in. ocenę ryzyka systemów AI
klasyfikację ryzyk systemów AIrozporządzenie dzieli systemy AI na cztery kategorie ryzyka:
– nieakceptowalne,
– wysokie,
– ograniczone,
– minimalne.
Systemy stwarzające nieakceptowalne ryzyko, takie jak te oparte na technikach podprogowych lub wykorzystujące dane biometryczne do identyfikacji osób w tłumie, będą całkowicie zakazane
wymogi dla systemów wysokiego ryzykasystemy wysokiego ryzyka, np. stosowane w sektorze opieki zdrowotnej, transporcie i wymiarze sprawiedliwości, muszą spełniać szereg rygorystycznych wymagań
wsparcie innowacjiAI Act ma również na celu wspieranie rozwoju i innowacji w dziedzinie sztucznej inteligencji. Komisja Europejska ma za zadanie opracować wytyczne i standardy dla systemów AI, a także promować badania i rozwój w tej dziedzinie
Najważniejsze aspekty zastosowania AI Act

Unijny AI Act – zasady implementacji

Rozporządzenie AI Act wprowadza jednolite zasady implementacji rozwiązań w całej Unii Europejskiej. Oznacza to, że:

  • nie ma potrzeby wprowadzania dodatkowych przepisów krajowych – treść rozporządzenia będzie bezpośrednio obowiązywać we wszystkich państwach członkowskich,
  • zasady stosowania sztucznej inteligencji w całej UE będą spójne i przejrzyste dla firm i obywateli.

Podobnie jak w przypadku Ogólnego Rozporządzenia o Ochronie Danych Osobowych (RODO), rozporządzenie AI Act będzie bezpośrednio stosowane we wszystkich państwach członkowskich.

unijny AI Act

Unijny AI Act – kategorie ryzyk stosowania systemów sztucznej inteligencji

Rozporządzenie w sprawie sztucznej inteligencji ustanawia cztery kategorie ryzyka dla systemów opartych na sztucznej inteligencji. Określa poziom zagrożenia stwarzanego przez takie systemy dla praw i bezpieczeństwa osób fizycznych. Każda kategoria wiąże się z określonymi obowiązkami i wymogami dla dostawców i użytkowników systemów SI.

Kategoria ryzykaOpis
Niskie ryzykoObejmuje systemy SI, które nie stwarzają znaczącego zagrożenia dla praw i bezpieczeństwa osób fizycznych, np. kalkulatory, proste gry, systemy rekomendacji oparte na popularnych produktach.
Średnie ryzykoObejmuje systemy SI, które mogą mieć ograniczony wpływ na prawa i bezpieczeństwo osób fizycznych, np. chatboty, systemy rozpoznawania twarzy, systemy filtrowania treści w mediach społecznościowych.  
Wysokie ryzykoObejmuje systemy SI, które mogą mieć znaczący wpływ na prawa i bezpieczeństwo osób fizycznych, np. systemy wspomagania decyzji w rekrutacji, oceny zdolności kredytowej, orzekania w sprawach sądowych.
Niedopuszczalne ryzykoObejmuje systemy SI, które stwarzają niedopuszczalne ryzyko dla bezpieczeństwa i praw osób fizycznych, np. systemy oparte na scoringu społecznym, systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym. Wprowadzono zakaz stosowania takich systemów.
Kategorie ryzyka dla systemów opartych na sztucznej inteligencji

Unijny AI Act – kategorie wysokiego ryzyka

Załącznik III do AI Act uznaje za systemy sztucznej inteligencji wysokiego ryzyka te, które mogą mieć istotny wpływ na prawa i wolności osób fizycznych. Obejmuje to m.in.:

systemy identyfikacji biometrycznejnp. rozpoznawanie twarzy, odciski palców, tęczówki oka i inne cechy biometryczne; zakazane są systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym
systemy zarządzania infrastrukturą krytycznąobejmuje systemy kontroli ruchu lotniczego, sieci energetyczne, systemy zaopatrzenia w wodę itp.; wymagane są rygorystyczne środki bezpieczeństwa i nadzór człowieka
systemy edukacyjnem.in. systemy stosowane w rekrutacji, ocenie uczniów i personalizacji nauczania; wymagana jest przejrzystość, uczciwość i niedyskryminacja
systemy rekrutacji i zarządzania pracownikamiobejmuje systemy oceny kandydatów, doboru pracowników i zarządzania wydajnością; wymagana jest przejrzystość, uczciwość i niedyskryminacja
systemy oceny zdolności kredytowej i dostępu do usługobejmuje systemy oceny ryzyka kredytowego i dostępu do innych usług finansowych i publicznych; wymagana jest przejrzystość, uczciwość i niedyskryminacja oraz prawo do wyjaśnienia decyzji
systemy ścigania przestępstwobejmuje systemy przewidywania przestępczości, analizy dowodów i podejmowania decyzji o aresztowaniu; wymagana jest rygorystyczna kontrola nadzoru człowieka, przejrzystość i zapobieganie uprzedzeniom
systemy zarządzania migracją, azylem i kontrolą granicznąobejmuje systemy oceny wniosków o azyl i przyznawanie wiz; wymagana jest rygorystyczna kontrola nadzoru człowieka, przejrzystość, uczciwość i niedyskryminacja
systemy wymiaru sprawiedliwości i procesów demokratycznychobejmuje systemy orzekania w sądach, przewidywania wyroków i oceny ryzyka recydywy; wymagana jest rygorystyczna kontrola nadzoru człowieka, przejrzystość, uczciwość i niedyskryminacja
Systemy sztucznej inteligencji wysokiego ryzyka
unijny AI Act

Unijny AI Act – obowiązki podmiotów wykorzystujących systemy SI wysokiego ryzyka

Rozporządzenie w sprawie sztucznej inteligencji wprowadza na podmioty wykorzystujące SI wysokiego ryzyka określone obowiązki. Są to:

  • przeprowadzenie oceny ryzyka i wpływu na prawa podstawowe,
  • wdrożenie odpowiednich środków bezpieczeństwa i zarządzania ryzykiem,
  • zapewnienie przejrzystości działania systemów SI,
  • szanowanie praw osób do informacji, dostępu, sprostowania, usunięcia danych i ograniczenia przetwarzania,
  • umożliwienie osobom, których prawa zostały naruszone, wniesienia skargi do organu nadzoru i dochodzenia praw przed sądem.

Unijny AI Act – zalety zastosowania

Wprowadzenie rozporządzenia w sprawie sztucznej inteligencji przyniesie wiele korzyści, m.in.:

pewność prawna i poczucie bezpieczeństwa obywatelifirmy i obywatele będą mieli pewność co do obowiązujących zasad dotyczących sztucznej inteligencji we wszystkich państwach członkowskich.
redukcja kosztówbezpośrednie stosowanie przepisów przyczyni się dowyeliminowania potrzeby dostosowywania się do różnych przepisów krajowych
wzmocnienie innowacjiułatwienie rozwoju i wdrażania technologii sztucznej inteligencji w całej UE
Korzyści wynikające z wprowadzenia AI Act

Unijny AI Act – termin wejścia w życie

Rozporządzenie w sprawie sztucznej inteligencji będzie wdrażane stopniowo w ciągu najbliższych kilku lat. Oto szczegółowy harmonogram:

TerminZakres obowiązywania przepisów
20 dni od ogłoszenia w Dzienniku Urzędowym UE (około 21 czerwca 2024 r.)  – wejście w życie rozporządzenia,
– zakaz stosowania systemów AI o niedopuszczalnym ryzyku, takich jak systemy oparte na scoringu społecznym i zdalnej identyfikacji biometrycznej w czasie rzeczywistym.
6 miesięcy od wejścia w życie (grudzień 2024 r.)– ustanowienie organów nadzoru AI w państwach członkowskich,
– rozpoczęcie działalności Grupy Europejskiej ds. Sztucznej Inteligencji.
12 miesięcy od wejścia w życie (czerwiec 2025 r.)  – obowiązki przejrzystości dla dostawców systemów AI ogólnego przeznaczenia,
– obowiązki dotyczące systemów monitorowania i rejestrowania interwencji człowieka w działanie systemów AI wysokiego ryzyka,
– niektóre przepisy dotyczące kar za naruszenia rozporządzenia.
36 miesięcy od wejścia w życie (czerwiec 2027 r.)  – pełne wejście w życie obowiązków dotyczących systemów AI wysokiego ryzyka, w tym:
– wymagania dotyczące oceny ryzyka i wdrażania środków bezpieczeństwa,
– obowiązki dotyczące nadzoru człowieka i dokumentacji,
– zasady dotyczące systemów AI stosowanych w wymiarze sprawiedliwości i procesach demokratycznych.
Harmonogram wdrażania AI Act

Należy pamiętać, że:

  • terminy te mogą ulec zmianie,
  • dokładne daty wejścia w życie poszczególnych przepisów zostaną ogłoszone w późniejszym terminie,
  • Komisja Europejska będzie opracowywać wytyczne i narzędzia ułatwiające wdrażanie rozporządzenia.

Unijny AI Act – podsumowanie

Unijny AI Act to kompleksowy akt prawny, który ma na celu zapewnienie bezpieczeństwa i etyki sztucznej inteligencji. Rozporządzenie wprowadza szereg nowych wymagań dla systemów AI, a także zakazuje stosowania niektórych szkodliwych praktyk. AI Act będzie miał znaczący wpływ na rozwój i stosowanie sztucznej inteligencji w Europie i na całym świecie.

AI to nowe i ciekawe zagadnienie, dlatego jeśli chcesz dowiedzieć się więcej o tym rozporządzeniu, nasi specjaliści są do Twojej dyspozycji. Zapraszamy do kontaktu!

FAQ – Pytania i odpowiedzi na temat: Unijny AI Act

Co to jest unijny AI Act?

Unijny AI Act, czyli rozporządzenie w sprawie sztucznej inteligencji, to pierwszy na świecie tak kompleksowy akt prawny regulujący rozwój i stosowanie systemów AI. Celem rozporządzenia jest zapewnienie, aby sztuczna inteligencja była bezpieczna, etyczna i zgodna z prawami człowieka.

Jakie są kategorie ryzyka systemów AI?

Rozporządzenie dzieli systemy AI na cztery kategorie ryzyka:
nieakceptowalne – systemy stwarzające nieakceptowalne ryzyko, takie jak te oparte na technikach podprogowych lub wykorzystujące dane biometryczne do identyfikacji osób w tłumie, są całkowicie zakazane
wysokie – systemy wysokiego ryzyka, takie jak systemy stosowane w sektorze opieki zdrowotnej, transporcie i wymiarze sprawiedliwości, muszą spełniać szereg rygorystycznych wymagań
ograniczone – systemy o ograniczonym ryzyku, takie jak chatboty i systemy rekomendacji, podlegają mniej rygorystycznym wymaganiom
minimalne – systemy o minimalnym ryzyku, takie jak kalkulatory i gry, nie podlegają szczególnym wymogom

Jakie są obowiązki dla systemów wysokiego ryzyka?

Podmioty korzystające z systemów wysokiego ryzyka muszą m.in.:
– przeprowadzić ocenę zgodności, aby upewnić się, że systemy te są bezpieczne, niezawodne i zgodne z prawem,
– zapewnić przejrzystość działania systemów,
– stosować się do wymogów dotyczących zarządzania danymi i cyberbezpieczeństwa,
– poddać systemy nadzorowi przez człowieka.

Jaki jest zakres zakazu systemów scoringu społecznego?

Rozporządzenie zakazuje stosowania systemów scoringu społecznego, które oceniają wiarygodność społeczną osób fizycznych. Oznacza to, że systemy te nie mogą być wykorzystywane do podejmowania decyzji o takich sprawach jak dostęp do kredytów, ubezpieczeń czy zatrudnienia.

W jaki sposób unijny AI Act wspiera innowacje?

Unijny AI Act ma na celu wspieranie rozwoju i innowacji w dziedzinie sztucznej inteligencji. Komisja Europejska ma za zadanie opracować wytyczne i standardy dla systemów AI, a także promować badania i rozwój w tej dziedzinie.

Gdzie mogę znaleźć więcej informacji o AI Act?

Więcej informacji o AI Act można znaleźć na stronach internetowych Komisji Europejskiej i Parlamentu Europejskiego.

Wyróżniony ekspert

Marek Cieślak

Prezes CGO Finance