W obliczu dynamicznego rozwoju technologii sztucznej inteligencji (AI), Unia Europejska podjęła kroki mające na celu uregulowanie tego obszaru w sposób zapewniający bezpieczeństwo, przejrzystość i odpowiedzialność. W kwietniu 2021 roku Komisja Europejska przedstawiła propozycję regulacji znanej jako AI Act (Artificial Intelligence Act). Od tego czasu regulacja przeszła przez szereg konsultacji, debat i zmian. W niniejszym artykule omówimy, kogo dotyczy AI Act oraz jakie kwestie będzie regulować zgodnie z aktualnym stanem prawnym.
Z tego artykułu dowiesz się:
Kogo dotyczy AI Act?
AI Act ma na celu objęcie szerokiego spektrum podmiotów zaangażowanych w rozwój, dystrybucję oraz użytkowanie systemów sztucznej inteligencji. Regulacja ta dotyczy:
- Twórców systemów AI
Twórcy systemów AI, w tym przedsiębiorstwa, start-upy oraz organizacje badawcze, są głównymi adresatami AI Act. Regulacja wymaga, aby proces projektowania, testowania i wdrażania systemów AI był zgodny z określonymi standardami jakości i bezpieczeństwa. Twórcy muszą zapewnić, że ich systemy spełniają wymogi dotyczące minimalizacji ryzyka i odpowiedzialności.
- Dostawców systemów AI
Dostawcy, którzy wprowadzają systemy AI na rynek Unii Europejskiej, będą musieli zapewnić zgodność swoich produktów z przepisami AI Act. Obejmuje to obowiązek znakowania produktów, dostarczania szczegółowych informacji na temat systemów AI oraz przestrzegania zasad transparentności i odpowiedzialności.
- Użytkowników systemów AI
Użytkownicy systemów AI, zarówno w sektorze publicznym, jak i prywatnym, również będą zobowiązani do przestrzegania przepisów AI Act. Użytkownicy muszą monitorować i oceniać ryzyko związane z wykorzystaniem AI oraz zapewnić odpowiednie środki ochrony danych i prywatności.
- Organy nadzorujące i egzekwujące
AI Act przewiduje ustanowienie organów odpowiedzialnych za nadzór i egzekwowanie przepisów. Organy te będą monitorować rynek, przeprowadzać audyty oraz nakładać sankcje w przypadku naruszeń.
Co będzie regulował AI Act?
AI Act ma na celu stworzenie spójnych ram prawnych dla bezpiecznego i odpowiedzialnego wykorzystania technologii sztucznej inteligencji w Unii Europejskiej. Główne obszary regulacji obejmują:
- Klasyfikacja systemów AI
AI Act wprowadza system klasyfikacji opartej na ryzyku, które systemy AI mogą stwarzać dla użytkowników i społeczeństwa. Systemy te są podzielone na cztery kategorie: minimalne ryzyko, ograniczone ryzyko, wysokie ryzyko oraz niedopuszczalne ryzyko. Każda kategoria podlega odmiennym wymogom regulacyjnym.
- Wymogi dla systemów wysokiego ryzyka
Systemy AI uznane za systemy wysokiego ryzyka muszą spełniać rygorystyczne wymogi dotyczące zarządzania ryzykiem, bezpieczeństwa, transparentności i odpowiedzialności. Wśród tych systemów znajdują się m.in. technologie stosowane w sektorze zdrowia, transportu, edukacji oraz egzekwowania prawa. Wymogi te obejmują obowiązek przeprowadzania ocen zgodności, testowania i walidacji systemów oraz zapewnienia ich transparentności.
- Zakazy dla systemów o niedopuszczalnym ryzyku
AI Act wprowadza zakazy dla określonych zastosowań AI, które uznane są za niedopuszczalne ze względu na naruszenie podstawowych praw i wartości Unii Europejskiej. Przykłady obejmują systemy manipulujące zachowaniem ludzi w sposób zagrażający ich zdrowiu i bezpieczeństwu, technologie stosowane do masowego nadzoru w czasie rzeczywistym oraz systemy oceniające wiarygodność osób na podstawie ich zachowań społecznych.
- Transparentność i informowanie użytkowników
Regulacja kładzie duży nacisk na transparentność systemów AI. Zobowiązuje dostawców do dostarczania jasnych i zrozumiałych informacji na temat działania systemów AI, ich celu oraz ograniczeń. Użytkownicy powinni być informowani o tym, że mają do czynienia z systemem AI, a także o możliwościach interakcji z takim systemem.
- Ochrona danych i prywatności
AI Act stawia silny nacisk na ochronę danych osobowych i prywatności użytkowników systemów. Twórcy i dostawcy są zobowiązani do przestrzegania przepisów RODO oraz zapewnienia, że dane wykorzystywane przez systemy AI są odpowiednio zabezpieczone i przetwarzane zgodnie z obowiązującymi standardami.
- Audyt i monitorowanie
Regulacja wprowadza wymogi dotyczące regularnych audytów i monitorowania systemów AI, aby zapewnić ich zgodność z przepisami oraz minimalizować ryzyko. Wymogi te obejmują zarówno audyty wewnętrzne przeprowadzane przez dostawców, jak i zewnętrzne prowadzone przez niezależne organy nadzorujące.
- Sankcje za naruszenia
AI Act przewiduje surowe sankcje za naruszenia przepisów, które mogą obejmować wysokie grzywny, ograniczenia w działalności gospodarczej, a nawet zakazy sprzedaży określonych systemów AI na rynku Unii Europejskiej. Celem tych sankcji jest zapewnienie wysokiego poziomu przestrzegania regulacji oraz ochrona użytkowników przed ryzykiem związanym z niewłaściwym wykorzystaniem technologii AI.
Dodatkowe zagadnienia
- Wsparcie innowacji i badania
AI Act, poza regulacjami, zawiera również przepisy mające na celu wspieranie innowacji i badań w dziedzinie AI. Przewiduje tworzenie tzw. “piaskownic regulacyjnych” (regulatory sandboxes), gdzie innowacyjne technologie mogą być testowane w kontrolowanych warunkach przed wprowadzeniem ich na rynek.
- Zrównoważony rozwój i etyka
AI Act podkreśla znaczenie zrównoważonego rozwoju i etycznego podejścia do tworzenia i wykorzystania AI. Twórcy i dostawcy są zobowiązani do uwzględniania aspektów etycznych w procesie projektowania systemów AI, aby zapewnić, że technologie te będą działać na korzyść społeczeństwa.
Podsumowanie
AI Act jest ambitną próbą stworzenia kompleksowych ram prawnych dla bezpiecznego i odpowiedzialnego wykorzystania sztucznej inteligencji w Unii Europejskiej. Regulacja ta obejmuje szerokie spektrum podmiotów, w tym twórców, dostawców i użytkowników systemów AI, a także organy nadzorujące. Jej celem jest nie tylko minimalizowanie ryzyka związanego z AI, ale również promowanie innowacji i zapewnienie, że technologia ta będzie wykorzystywana w sposób zgodny z wartościami i prawami Unii Europejskiej. Przedsiębiorstwa i inne podmioty związane z AI powinny już teraz przygotować się na nadchodzące zmiany i dostosować swoje procesy do nowych wymogów, aby zapewnić zgodność z AI Act oraz bezpieczeństwo i zaufanie użytkowników.
Rozpoczynając przygodę z AI warto od początku dbać o zgodność działań z przepisami prawnymi. Z tego powodu warto sięgać po pomoc do specjalistów. Skontaktuj się z naszymi ekspertami, aby skorzystać z fachowego wsparcia we wdrażaniu AI w działalności.
Zespół Follow Legal