Od 2 lutego 2025 roku obowiązują przepisy dotyczące zakazanych systemów sztucznej inteligencji (AI) w ramach unijnego AI Act. Jest to krok milowy w regulacji technologii, która coraz bardziej przenika do różnych obszarów naszego życia. Nowe regulacje mają na celu ochronę bezpieczeństwa publicznego, praw podstawowych oraz wartości demokratycznych, które są fundamentem Unii Europejskiej. Przedsiębiorstwa i organizacje muszą podjąć działania, aby upewnić się, że ich systemy AI są zgodne z nowymi wymogami.
AI Act — porządkowanie systemów AI według ryzyka
AI Act klasyfikuje systemy sztucznej inteligencji na podstawie poziomu ryzyka, jakie mogą stwarzać dla użytkowników i społeczeństwa. Wśród nich znajdują się:
-
Systemy wysokiego ryzyka — objęte rygorystycznymi wymaganiami w zakresie bezpieczeństwa, transparentności i nadzoru.
-
Systemy o ograniczonym ryzyku — wymagające spełnienia podstawowych standardów informacyjnych.
-
Systemy minimalnego ryzyka — takie jak filtry spamu, podlegające jedynie ogólnym zasadom.
Szczególną kategorią są systemy zakazane, których stosowanie jest całkowicie zabronione pod groźbą surowych kar finansowych. To właśnie te przepisy weszły w życie 2 lutego 2025 r.
Zakazane systemy AI — co jest objęte regulacjami?
Zakazane systemy AI to takie, które mogą stanowić zagrożenie dla bezpieczeństwa, praw podstawowych, demokracji czy innych kluczowych wartości UE. Obejmują one technologie wykorzystujące manipulację, naruszające prywatność lub godzące w godność człowieka. W AI Act określono kilka przykładów takich systemów:
-
Systemy prowadzące social scoring — oceniające osoby na podstawie ich cech osobistych, zachowań społecznych czy innych danych, co może prowadzić do dyskryminacji i naruszania praw obywatelskich.
-
Systemy manipulujące zachowaniem — stosujące techniki podprogowe, które wpływają na decyzje ludzi bez ich świadomości, np. w celu wywołania określonych reakcji zakupowych.
-
Systemy wykorzystujące ludzkie słabości — np. aplikacje skierowane do dzieci lub osób starszych, które wykorzystują ich ograniczenia poznawcze w celu wpływania na ich wybory.
-
Systemy do masowego rozpoznawania twarzy — pobierające wizerunki z Internetu do tworzenia baz danych rozpoznawania twarzy bez zgody zainteresowanych.
-
Systemy oceny stanu emocjonalnego — zwłaszcza w miejscu pracy, gdzie mogłoby to prowadzić do naruszenia prywatności i nadużyć w zarządzaniu personelem.
Sankcje za naruszenie przepisów
Zgodnie z AI Act, stosowanie zakazanych systemów AI będzie obarczone surowymi karami finansowymi. Przepisy dotyczące sankcji wejdą w życie 2 sierpnia 2025 r.
Wysokość kar może wynieść:
-
do 35 000 000 EUR lub
-
do 7% całkowitego rocznego obrotu przedsiębiorstwa na świecie, w zależności od tego, która kwota jest wyższa.
Przy ustalaniu wysokości kary organy będą brać pod uwagę m.in.:
-
Czas trwania naruszenia — im dłużej system był wykorzystywany, tym wyższa kara.
-
Wielkość podmiotu — duże korporacje mogą spodziewać się surowszych sankcji niż małe firmy.
-
Liczbę poszkodowanych i rozmiar szkody, jaką poniosły osoby dotknięte naruszeniem.
-
Nałożenie kary w innym kraju UE — jeśli kara została już nałożona w innym państwie członkowskim, może to wpłynąć na decyzję organu krajowego.
Kluczowe wyzwania dla przedsiębiorców
Przedsiębiorstwa i organizacje wykorzystujące technologie AI powinny podjąć konkretne kroki, aby dostosować się do nowych regulacji. Pierwszym krokiem powinna być dokładna analiza stosowanych systemów pod kątem zgodności z AI Act. Warto zidentyfikować potencjalne zagrożenia i ryzyka związane z ich działaniem oraz wdrożyć odpowiednie procedury monitorowania i zgodności.
Nie mniej istotne jest podnoszenie świadomości w organizacji. Szkolenia dla zespołów IT, działów compliance i zarządu pozwolą lepiej zrozumieć nowe przepisy i ich wpływ na działalność firmy. Warto także zadbać o przejrzystość procesów decyzyjnych systemów AI oraz wprowadzić mechanizmy umożliwiające interwencję człowieka w razie potrzeby.
Identyfikacja ryzyk i opracowanie strategii zgodności
Jednym z kluczowych wyzwań będzie identyfikacja zakazanych praktyk:
-
Systemy AI nie mogą wykorzystywać technik podprogowych ani manipulować zachowaniem użytkowników w sposób szkodliwy.
-
Zakazane jest stosowanie systemów AI, które wykorzystują fizyczne lub psychiczne słabości osób, np. ze względu na wiek czy niepełnosprawność.
-
Systemy oceniające osoby na podstawie ich zachowań społecznych, prowadzące do dyskryminacji, są zabronione.
W praktyce oznacza to konieczność regularnych audytów AI, które pozwolą wcześnie wykryć potencjalne zagrożenia. Transparentność i odpowiedzialność to fundamenty nowego podejścia do zarządzania sztuczną inteligencją. Przedsiębiorstwa muszą przygotować się na dokumentowanie procesów decyzyjnych AI oraz zapewnienie zgodności z normami prawnymi.
Podsumowanie
AI Act to przełomowe rozporządzenie, które ma na celu uregulowanie dynamicznie rozwijającego się rynku sztucznej inteligencji w UE. Zakazane systemy AI to tylko jeden z aspektów tej regulacji, ale ich znaczenie dla ochrony praw obywatelskich i demokracji jest nie do przecenienia. Obowiązywanie nowych przepisów powinno być impulsem dla organizacji do podjęcia działań zmierzających do zapewnienia zgodności z nowymi wymogami prawnymi.
Jeśli masz pytania dotyczące dostosowania Twojej organizacji do przepisów AI Act, zapraszamy do kontaktu z Aleksandrem Zielińskim, radcą prawnym i managerem DSK: a.zielinski@dsk-kancelaria.pl