Dynamiczny rozwój sztucznej inteligencji sprawia, że staje się ona nieodłącznym elementem współczesnego środowiska pracy. Narzędzia oparte o sztuczną inteligencję okazują się pomocne przy wielu czynnościach. Mogą one ułatwiać wykonywanie powtarzalnych zadań, czy też wspierać procesy rekrutacyjne, m.in. na etapie wstępnej selekcji kandydatów. Mimo, że sztuczna inteligencja niesie za sobą realne korzyści, należy pamiętać, że jej użycie wymaga rozsądnego i odpowiedzialnego podejścia. Jej niewłaściwe wykorzystywanie może prowadzić do poważnych konsekwencji prawnych na wielu obszarach.
| Tego dowiesz się z artykułu: – w jaki sposób sztuczna inteligencja usprawnia codzienne zadania oraz dlaczego jej bezrefleksyjne używanie jest ryzykowne, – jak chronić dane osobowe i tajemnice firmy, – czy treści wygenerowane przez AI są chronione prawem autorskim, – dlaczego to pracodawca, jako administrator danych, ponosi konsekwencje za błędy pracowników w kontakcie z narzędziami AI, – dlaczego warto wdrażać wewnętrzne polityki korzystania z narzędzi sztucznej inteligencji. |
Ochrona danych osobowych i tajemnicy przedsiębiorstwa
Pracownicy korzystający ze sztucznej inteligencji muszą przestrzegać zasad wynikających z przepisów RODO. Nie powinni oni przekazywać do tego typu narzędzi danych osobowych, ani innych poufnych informacji. Wprowadzanie takich danych wiąże się z ryzykiem ich dalszego wykorzystania przez narzędzie np. w wynikach innych użytkowników.
Niektóre narzędzia umożliwiają włączenie tzw. “trybu bezpiecznego”, w którym wprowadzane informacje nie są przechowywane ani dalej wykorzystywane. Jednak nawet taka funkcja nie gwarantuje, że wprowadzane dane nie będą używane dla wewnętrznych celów dostawcy narzędzia.
Z perspektywy RODO należy pamiętać, że to pracodawca pełni rolę administratora danych osobowych, np. swoich klientów. To on odpowiada za zapewnienie zgodności działania pracowników z zasadami ochrony danych osobowych. Aby uniknąć ryzyka nieuprawnionego ujawnienia danych, treści wprowadzane do narzędzia powinny być pozbawione jakichkolwiek informacji pozwalających na identyfikację danego człowieka. Zgodnie z RODO dane osobowe to wszelkie informacje o zidentyfikowanej lub możliwej do zidentyfikowania osobie. Przykładowo mogą to być także dane o miejscu zamieszkania, czy informacje o wykonywanym zawodzie.
Ponadto pracodawcy muszą wiedzieć, że niewłaściwe wykorzystywanie sztucznej inteligencji przez pracowników może prowadzić do ujawnienia tajemnic przedsiębiorstwa. Stąd pracownicy nie powinni wprowadzać do narzędzi poufnych danych finansowych, handlowych ani innych informacji niedostępnych publicznie.
Ryzyko naruszenia autorskich praw majątkowych
Narzędzia sztucznej inteligencji są rozwijane w oparciu o ogromną ilość zbiorów danych, które często zawierają utwory chronione prawem autorskim. Istnieje zatem zagrożenie, że treść wygenerowana przez sztuczną inteligencję może naruszać cudze autorskie prawa majątkowe. W takich sytuacjach odpowiedzialność za ewentualne naruszenie ponosi osoba lub podmiot, wykorzystujący wygenerowany materiał, a nie dostawca narzędzia.
W praktyce trudno jest zweryfikować, czy powstały materiał stanowi kopię istniejącego utworu. Rodzi to ryzyko nieświadomego naruszania cudzych autorskich praw majątkowych. Pracownicy nie powinni też wykorzystywać do generowania rezultatów treści, do których pracodawca nie posiada praw (np. materiałów otrzymanych od klienta).
Pracodawca powinien zachować ostrożność, gdy zespół tworzy przy pomocy sztucznej inteligencji teksty lub obrazy o istotnym znaczeniu prawnym. Pracownicy muszą modyfikować wygenerowane treści, aby ich wkład miał charakter twórczy. To kluczowa kwestia, gdyż pracodawca nabywa od pracowników prawa do utworów stworzonych w ramach obowiązków służbowych.Jeżeli pracownik nie posiada praw do materiałów, ich skuteczne przeniesienie na pracodawcę nie jest możliwe.
Pracownicy powinni wiedzieć, że zwykłe “kopiuj wklej” treści wygenerowanej przez sztuczną inteligencję nie nadaje im statusu twórcy. A co w przypadku, gdy pracownik wprowadza modyfikacje do takich materiałów?
Niektórzy sugerują, że aby stać się ich twórcą wystarczy wprowadzić do narzędzia odpowiednią liczbę komend (tzw. promptów). Takie podejście należy traktować ostrożnie. Praktyka amerykańskiego Urzędu ds. Praw Autorskich pokazuje, że proste polecenia skierowane do narzędzia nie wystarczą, aby jego użytkownik został uznany za autora wygenerowanego materiału.
Ponadto sama liczba wprowadzonych promptów nie świadczy o twórczym wkładzie użytkownika. Przykładowo wskazuje na to wniosek Jasona Allena dotyczący rejestracji grafiki Théâtre D’opéra Spatial, który został odrzucony przez Urząd, mimo wprowadzenia przez wnioskodawcę 624 zmian do promptów. Urząd stwierdził, że ostateczny wygląd grafiki pozostawał poza kontrolą człowieka.
Odpowiedzialność pracodawcy na gruncie przepisów Kodeksu pracy
W przypadku nieodpowiedniego korzystania ze sztucznej inteligencji przez pracownika możliwe jest wyrządzenie przez niego szkody osobie trzeciej. Zgodnie z Kodeksem pracy w takim przypadku to pracodawca jest zobowiązany do naprawienia szkody. Jeżeli została ona wyrządzona przez pracownika przy wykonywaniu obowiązków służbowych. Czy pracodawca może być zwolniony z odpowiedzialności, jeśli nie wie, że jego pracownik korzysta z narzędzi opartych o sztuczną inteligencję? Niestety, brak wiedzy nie zwalnia go z odpowiedzialności.
Pracownik ponosi odpowiedzialność za szkodę wyłącznie w granicach rzeczywistej straty poniesionej przez pracodawcę i tylko za normalne następstwa działania lub zaniechania, z którego wynikła szkoda. Ciężar wykazania okoliczności uzasadniających odpowiedzialność pracownika oraz wysokość powstałej szkody spoczywa na pracodawcy.
Co więcej, pracodawca powinien pamiętać, że wysokość odszkodowania uzyskanego od pracownika nie może przewyższać kwoty trzymiesięcznego wynagrodzenia przysługującego mu w dniu wyrządzenia szkody. Dopiero gdy pracownik działa umyślnie może on odpowiadać za szkodę w pełnej wysokości.
Jednak wykazanie umyślnego działania pracownika może okazać się ciężkim zadaniem dla pracodawcy. Stanowi to wyzwanie nawet wtedy, gdy pracodawca zakazuje korzystania ze sztucznej inteligencji w miejscu pracy. Zgodnie z utrwalonym orzecznictwem “umyślne niedopełnienie obowiązku nie musi być uznane za równoznaczne z umyślnym wyrządzeniem szkody, zwłaszcza jeżeli z okoliczności sprawy wynika, że wyrządzenie szkody nie było objęte zamiarem sprawcy.”
Podsumowanie
Nieodpowiednie korzystanie ze sztucznej inteligencji może prowadzić do niepożądanych konsekwencji prawnych. Pracodawcy powinni pamiętać, że są odpowiedzialni za działania swoich pracowników. Dlatego warto wdrażać przejrzyste zasady korzystania ze sztucznej inteligencji w miejscu pracy. Zaleca się, aby były one spisane w wewnętrznych dokumentach, np. w formie polityki korzystania ze sztucznej inteligencji. Pracownicy powinni być świadomi, z jakich narzędzi mogą korzystać przy wykonywaniu swoich obowiązków. Co więcej, warto również przeprowadzać cykliczne szkolenia, uświadamiające jakie ryzyko może nieść niewłaściwe korzystanie ze sztucznej inteligencji.
Artykuł został opublikowany pod tytułem „AI w rękach pracowników: jakie ryzyka dla firmy„ w Dzienniku Gazecie Prawnej 28 stycznia 2026 roku.