Deepfake to wygenerowane lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, przypominające istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe.
Podmioty stosujące system AI, który generuje lub manipuluje treściami deepfake mają obowiązek ujawnić, że treści te zostały sztucznie wygenerowane lub zmanipulowane.
Informacja musi zostać przekazana użytkowników i odbiorcom w jasny i wyraźny sposób, najpóźniej w momencie pierwszej interakcji lub pierwszego stosowania. Informacje te muszą spełniać wymogi dostępności – czyli muszą być możliwe do odczytania za pomocą dostępnych dla danej osoby zmysłów (np. w formie dźwiękowej dla osób z ograniczonym widzeniem czy za pomocą napisów lub formatu wideo z tłumaczeniem na język migowy dla osób głuchych).
Wyłączenia z obowiązku ujawniania
- Walka z przestępstwami
Nie ma obowiązku informowania o użyciu deepfake’ów, jeśli ich zastosowanie jest zgodne z prawem i służy wykrywaniu i zapobieganiu przestępstw, prowadzeniu postępowań przygotowawczych oraz ściganiu sprawców.
- Sztuka, satyra
W przypadku, gdy deepfake jest częścią dzieła o wyraźnie artystycznym, twórczym, satyrycznym, fikcyjnym lub podobnym charakterze, obowiązki dotyczące przejrzystości ograniczają się do ujawnienia istnienia wygenerowanych lub zmanipulowanych treści. Powinno to być zrobione w sposób, który nie zakłóca odbioru utworu (np. poprzez dodanie informacji w dolnym rogu ekranu: „Program/film zawiera treści deepfake” i wskazanie listy użytych deepfake’ów w opisie filmu czy napisach końcowych.
Deepfake jako open source
Systemy generujące deepfake, nawet jeśli zostaną udostępnione na zasadach wolnej licencji lub nieodpłatnie, nie są wyłączone spod AI Act. O tym, kiedy AI Act ma zastosowanie do open source’ów, a kiedy nie – przeczytasz w AI Act Weekly #6.
Potrzebujesz wsparcia przy wdrożeniu AI Act w Twojej organizacji? Zapraszamy do kontaktu!
Aleksander Zieliński, radca prawny, manager: a.zielinski@dsk-kancelaria.pl