Systemy AI wysokiego ryzyka to systemy sztucznej inteligencji, które mogą mieć znaczący wpływ na życie ludzi, ich zdrowie, bezpieczeństwo czy prawa podstawowe. Są to rozwiązania, które – jeśli nie będą odpowiednio zarządzane i kontrolowane – mogą prowadzić do poważnych konsekwencji, takich jak wypadki z udziałem ludzi, błędne decyzje medyczne czy naruszenie prywatności.
Systemy wysokiego ryzyka będą dozwolone, ale z ich stworzeniem, wprowadzeniem na rynek i korzystaniem będzie wiązało się wiele obowiązków (art od 8 do 50 AI Act) – ich konkretny zakres zależy od tego, jaką rolę pełni Twoja Spółka w łańcuchu dostaw systemu AI.
System AI zostanie uznany za system wysokiego ryzyka, jeśli spełni oba poniższe warunki:
- System AI jest przeznaczony do wykorzystania jako element produktu, który ma wpływ na jego bezpieczeństwo i jest objęty unijnym prawodawstwem wymienionym w załączniku I do AI Act, lub sam system AI jest takim produktem.
- Produkt, w którym system AI pełni rolę elementu wpływającego na bezpieczeństwo musi zostać poddany ocenie zgodności przez niezależną stronę trzecią przed wprowadzeniem go na rynek lub udostępnieniem do użytku, zgodnie z unijnym prawodawstwem wymienionym w załączniku I do AI Act.
W załączniku I do AI Act wymieniono regulacje unijne dot. m.in. transportu lądowego, morskiego, powietrznego, kolejowego, zabawek, urządzeń radiowych, wybuchowych czy urządzeń do diagnostyki medycznej – to właśnie w przypadku tego typu produktów i branż, system AI zostanie uznany za system wysokiego ryzyka, oczywiście o ile ma wpływ na bezpieczeństwo danego produktu.
Inne przykłady systemów AI wysokiego ryzyka
Dodatkowo, do systemów wysokiego ryzyka zaliczymy wszystkie systemy wymienione w Załączniku III do AI Act, w tym:
- Infrastruktura krytyczna: systemy AI przeznaczone do wykorzystywania jako związane z bezpieczeństwem elementy procesów zarządzania krytyczną infrastrukturą cyfrową, ruchem drogowym i procesów ich działania lub zaopatrzenia w wodę, gaz, ciepło lub energię elektryczną,
- systemy do wykorzystywania do celów oceny zdolności kredytowej osób fizycznych lub ustalenia ich scoringu kredytowego, z wyjątkiem systemów AI wykorzystywanych w celu wykrywania oszustw finansowych,
- systemy wykorzystane w celu podejmowania decyzji lub istotnego wpływania na decyzje o nawiązaniu stosunku pracy, awansie i rozwiązaniu stosunku pracy, przydzielania zadań na podstawie indywidualnego zachowania, lub cech osobistych lub cech charakterystycznych, oraz monitorowania i oceny wydajności i zachowania osób pozostających w takich stosunkach,
- systemy wykorzystywane do wyciągania wniosków o cechach osobowych osób fizycznych na podstawie danych biometrycznych lub danych opartych na biometrii, w tym systemy rozpoznawania emocji,
- systemy stosowane w celu oceny uczniów w instytucjach edukacyjnych i instytucji szkolenia zawodowego oraz do oceny uczestników egzaminów powszechnie wymaganych w celu przyjęcia do tych instytucji,
- systemy stosowane w celu podejmowania decyzji lub istotnego wpływania na podejmowanie decyzji w zakresie kwalifikowania się osób fizycznych do ubezpieczenia zdrowotnego i ubezpieczenia na życie.
Zasady klasyfikacji systemów AI wysokiego ryzyka
System AI nie zostanie uznany za system wysokiego ryzyka, jeśli nie stwarza znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, w tym poprzez brak znaczącego wpływu na wynik procesu decyzyjnego.
Ma to miejsce gdy spełniony jest którykolwiek z poniższych warunków:
- system AI jest przeznaczony do wykonywania wąsko określonego zadania proceduralnego;
- system AI jest przeznaczony do poprawienia wyniku zakończonej uprzednio czynności wykonywanej przez człowieka;
- system AI jest przeznaczony do wykrywania wzorców podejmowania decyzji lub odstępstw od wzorców podjętych uprzednio decyzji i nie ma na celu zastąpienia ani wywarcia wpływu na zakończoną uprzednio ocenę dokonaną przez człowieka – bez odpowiedniej weryfikacji przez człowieka; lub
- system AI jest przeznaczony do wykonywania zadań przygotowawczych w kontekście oceny istotnej z punktu widzenia przypadków wykorzystania wymienionych w załączniku III AI Act.
Potrzebujesz wsparcia przy wdrożeniu AI Act w Twojej organizacji? Zapraszamy do kontaktu!
Aleksander Zieliński, radca prawny, manager: a.zielinski@dsk-kancelaria.pl