AI ACT: co musisz wiedzieć

by Julia Bokacka
0 komentarz
wizualizacja sztucznej inteligencji

Sztuczna inteligencja budzi mieszane uczucia. Szczególnie istotny pozostawał brak regulacji prawnych, określających granice wykorzystania AI. Od 1 sierpnia wszedł w życie AI ACT, który ma raz na zawsze rozwikłać tę kwestię.

12 lipca 2024 w dzienniku urzędowym Komisji Europejskiej zostało opublikowane Rozporządzenie o sztucznej inteligencji, a 1 sierpnia akt ten wszedł w życie. To kluczowy dokument, który pozwoli na bezpieczny rozwój sztucznej inteligencji na terenie Unii Europejskiej.

Czym jest AI ACT?

Po raz pierwszy otrzymaliśmy tak kompleksową regulację prawną, dotyczącą sztucznej inteligencji. Rolą AI Act jest usystematyzowanie działania rynku wewnętrznego AI, by zapewnić jego prawidłowe funkcjonowanie.

Rozporządzenie ustala zasady prawne dotyczące rozwoju, wdrażania i użytkowania sztucznej inteligencji na obszarze Unii Europejskiej. 

Podmioty podlegające pod AI ACT 

AI ACT powinien szczególnie zainteresować osoby, które zamierzają wprowadzić do obrotu lub oddać do użytku systemy sztucznej inteligencji wysokiego ryzyka w UE. Rozporządzenie obowiązuje wszystkich dostawców, importerów, dystrybutorów oraz użytkowników (podmioty wdrażające) sztucznej inteligencji. Co ważne, nie ma znaczenia, gdzie znajduje się siedziba dostawcy. Jeżeli dane wyjściowa systemu sztucznej inteligencji są wykorzystywane w UE, przepisy obowiązują także dystrybutorów spoza państw Wspólnoty. Taka sama sytuacja ma miejsce w przypadku użytkowników.

Warto zaznaczyć, że użytkownicy to osoby fizyczne lub prawne, które wdrażają system sztucznej inteligencji w celach zawodowych, a nie użytkownicy końcowi.

AI Act w datach — kiedy zacznie obowiązywać 

Większość postanowień z AI Act zacznie obowiązywać po upływie 2 lat od wejścia ustawy w życie. Jest to czas dla państw i przedsiębiorców na dostosowanie się do nowej regulacji. Spotkamy się jednak z kilkoma odstępstwami od tej zasady.

1 sierpnia 2024

AI Act wchodzi w życie.

6 miesięcy po wprowadzeniu AI Act 

Obowiązywać zaczną przepisy ogólne oraz te dotyczące praktyk zakazanych i niedopuszczalnych systemów AI.

12 miesięcy po wprowadzeniu AI Act 

Po upływie roku w życie wejdą przepisy dotyczące organów notyfikujących i jednostek notyfikowanych, modeli AI ogólnego przeznaczenia, Europejskiej Rady ds. Sztucznej Inteligencji oraz kar.

36 miesięcy po wprowadzeniu AI Act 

Po 3 latach tj. w sierpniu 2027 wejdą w życie przepisy określone w art. 6 ust. 1 rozporządzenia, odnoszące się do systemów AI wysokiego ryzyka.

Klasyfikacja AI według ryzyka — AI ACT 

Ustawa o sztucznej inteligencji klasyfikuje sztuczną inteligencję według ryzyka. 

Systemy AI o niedopuszczalnym ryzyku

Zabronione są praktyki AI stwarzające niedopuszczalne ryzyko. Dotyczy to:

  • stosowania technik podprogowych, manipulacyjnych lub zwodniczych;
  • kategoryzacji biometrycznej ze względu na rasę, poglądy polityczne, przynależność do związków zawodowych, przekonania religijne, życie seksualne lub orientację seksualną;
  • oceny społecznej na podstawie zachowań społecznych lub cech osobistych;
  • określania prawdopodobieństwa popełnienia przestępstwa przez daną osobę wyłącznie na podstawie profilowania lub cech osobowości;
  • tworzenia baz danych do rozpoznawania twarzy poprzez zbieranie obrazów twarzy z Internetu lub nagrań CCTV;
  • zdalnej identyfikacji biometrycznej (RBI) w czasie rzeczywistym w publicznie dostępnych przestrzeniach dla organów ścigania;
  • wykorzystywania słabości osób fizycznych ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną, lub ekonomiczną;
  • rozpoznawania emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych.

Systemy AI o wysokim ryzyku

Regulacjom podlegają przede wszystkim systemy AI wysokiego ryzyka. Są to takie systemy, które mimo stwarzania ryzyka dla bezpieczeństwa mogą przynieść znaczące korzyści i dlatego są dopuszczone do obrotu.

System sztucznej inteligencji uznaje się za obarczony wysokim ryzykiem w dwóch przypadkach. Po pierwsze, gdy jest związany z bezpieczeństwem produktu lub sam jest produktem objętym przepisami UE wymienionymi w Załączniku I do AI Act i wymaga obowiązkowej oceny zgodności dokonanej przez stronę trzecią na podstawie tych przepisów. Po drugie, gdy system AI określono bezpośrednio w Załączniku III do AI Act, z wyjątkiem wyłączeń również oznaczonych w tym załączniku.

Systemy AI o ograniczonym ryzyku

W przypadku systemów AI o ograniczonym ryzyku podlegają one mniejszym ograniczeniom. Głównie są objęte obowiązkiem zapewnienia przejrzystości. Użytkownicy końcowi mają być świadomi, że wchodzą w interakcję ze sztuczną inteligencją np.: gdy mają do czynienia z chatbotem lub deepfake.

Systemy AI o minimalnym ryzyku

Systemy AI o minimalnym ryzyku nie podlegają regulacjom, jednak może się to zmienić w przeszłości wraz z rozwojem generatywnej AI.

Kary za nieprzestrzeganie AI ACT

Za naruszenie rozporządzenia grożą wysokie sankcje:

  • Naruszenie zakazanych praktyk wiąże się z karą nawet do 35 mln euro lub do 7% całkowitego rocznego obrotu światowego (jeśli naruszenia dopuścił się przedsiębiorca);
  • Za naruszenie pozostałych przepisów grozi kara do 15 mln euro lub do 3% całkowitego rocznego obrotu światowego (jeśli naruszenia dopuścił się przedsiębiorca);
  • Przewidziano także kary za przekazywanie nieprawdziwych lub wprowadzających w błąd informacji na wezwanie organu do 7,5 mln euro lub do 1% całkowitego rocznego obrotu światowego (jeśli naruszenia dopuścił się przedsiębiorca).

Wyczekiwany akt prawny 

Po blisko trzech latach prac w Unii Europejskiej pojawiła się regulacja prawna dotycząca sztucznej inteligencji. To jeden z pierwszych aktów prawnych na świecie tak kompleksowo podejmujący temat sztucznej inteligencji. 

AI Act ma zapewnić bezpieczne i etyczne wykorzystanie technologii AI. Publikacja rozporządzenia daje nadzieję na wspieranie innowacji technicznych przy równoczesnym poszanowaniu praw obywateli.

You may also like