Od kilku dni trwa gorąca dyskusja na temat tubek z mocnymi alkoholami, które jeden z producentów wprowadził na polski rynek. Tubki te przypominają kształtem i kolorystyką popularne musy owocowe. Prawnicy i politycy dyskutują, czy można sprzedawać produkt szkodliwy i reglamentowany, jakim jest alkohol, w opakowaniu przypominającym zdrową żywność, skierowaną szczególnie do dzieci i młodzieży. Pojawiły się też doniesienia o przypadkach, gdy seniorzy nieświadomie kupowali „alkotubki” swoim wnukom, myląc je z owocowymi deserami. W efekcie, produkty te zostały już wycofane z obrotu; zapowiadane też są zmiany w prawie, które w przyszłości mają zakazać podobnych praktyk.
Nie chcę tu rozwodzić się nad szkodliwością alkoholu ani nad problemem wprowadzania konsumentów w błąd za pomocą opakowań. Chciałbym jednak zwrócić uwagę, że podobnie jak „alkotubki” mogą działać tzw. zakazane systemy sztucznej inteligencji (AI).
W sierpniu 2024 roku Unia Europejska rozpoczęła proces wdrażania przepisów Rozporządzenia o sztucznej inteligencji (AI Act). Wdrożenie to jest stopniowe i potrwa do sierpnia 2027 roku. Pierwsze przepisy wejdą w życie już 2 lutego 2025 roku i będą dotyczyły zakazu używania oraz wprowadzania na rynek systemów AI, które spełniają kryteria zakazanych praktyk. Za ich wykorzystanie, czy dystrybuowanie, firmom grożą wysokie kary pieniężne – nawet do 35 milionów euro lub 7% całkowitego rocznego światowego obrotu z poprzedniego roku.
Praktyki zakazane zostały zdefiniowane w art. 5 AI Act. Przepis jest dość ogólny, Komisja Europejska zobowiązała się więc przedstawić przykłady systemów objętych zakazem oraz podać wytyczne, które ułatwią ocenę, czy dany system spełnia kryteria określone w Rozporządzeniu. Ma to nastąpić na przełomie 2024 i 2025 roku. Firmy powinny jednak już teraz dostosowywać swoje produkty i usługi do nowych regulacji.
Zakazane praktyki w AI – jakie systemy są na cenzurowanym?
Zakazane praktyki to działania, które mogą mieć bardzo nieetyczny lub niebezpieczny charakter. W większości przypadków treść art. 5 AI Act jest jasna i zrozumiała. Wszyscy – podzielający europejski system wartości – zgodzimy się, że zakazane powinny być takie praktyki jak social scoring (przypominający chińską politykę społeczną), predykcja przestępczości (jak w filmie „Raport mniejszości”), tworzenie baz danych do rozpoznawania twarzy czy analiza emocji w miejscach pracy. Jednak w Rozporządzeniu są także przepisy trudniejsze do interpretacji.
AI Act zakazuje wprowadzania do obrotu lub używania systemów AI, które stosują techniki podprogowe, manipulacyjne lub wprowadzające w błąd, skutkujące zniekształceniem decyzji danej osoby w sposób prowadzący do istotnych szkód. Zakaz ten dotyczy również wykorzystywania słabości osób ze względu na wiek, niepełnosprawność lub trudną sytuację społeczną i ekonomiczną, jeśli prowadzi to do zniekształcenia decyzji i szkody.
Szczególnie chodzi tu o narzędzia, które subtelnie wpływają na decyzje zakupowe, aby zwiększyć sprzedaż określonych produktów. Takie systemy mogą stosować techniki podprogowe, analizować nawyki zakupowe, historie transakcji czy dane z mediów społecznościowych, by prezentować produkty w taki sposób, aby użytkownik sądził, że są one dla niego niezbędne lub specjalnie dostosowane do jego potrzeb, mimo ze tak nie jest.
Drugi zakaz odnosi się do osób podatnych na manipulację – np. niepełnosprawnych, trwale chorych, żyjących w ubóstwie lub należących do mniejszości etnicznych czy religijnych. Wpływanie na ich decyzje za pomocą sztucznej inteligencji jest tym bardziej nieetyczne i nielegalne.
Tubki z alkoholem i zakazane systemy AI – manipulacja i wprowadzanie w błąd?
Aby lepiej zrozumieć art. 5 AI Act, warto pomyśleć o przykładzie „alkotubek”. Te produkty działają w sposób manipulacyjny, sugerując, że zawierają zdrowy owocowy mus, choć w rzeczywistości są alkoholem. Działają podprogowo, sugerując osobom nadużywającym alkoholu, że piją coś zdrowego. Powodują, że możemy kupić i wypić więcej alkoholu. Ewidentnie są kierowane również do osób uzależnionych od alkoholu, a więc grupy szczególnie podatnej na manipulację. A efektem może być znaczna szkoda dla zdrowia.
Gdyby „alkotubki” były systemami AI, ich sprzedaż byłaby zakazana. I to właśnie takie narzędzia „AI-owe tubki alkoholowe” – czyli systemy manipulujące użytkownikami w sposób podprogowy, wprowadzający w błąd lub wykorzystujące ich słabości – będą od lutego 2025 roku zakazane.
Artykuł ukazał się w dzienniku Rzeczpospolita 4 października 2024 roku.