W minioną sobotę, Barbara Stefanowicz z zespołu korporacyjnego i prawa IT, wypowiadała się w na antenie PR3 na temat pierwszych regulacji prawnych dotyczących sztucznej inteligencji (AI).
Jak wyjaśniała Basia, Prezydent Biden podpisał rozporządzenie wykonawcze, które ustanawia standardy dotyczące uczciwego i niedyskryminującego wykorzystania sztucznej inteligencji, podejmując równocześnie wyzwania związane z bezpieczeństwem narodowym i prywatnością. USA tym samym jako pierwsze wprowadza w życie konkretne prawne zmiany dotyczące AI. Nowe rozwiązania wdrażane w USA takie jak „Privacy Sandbox”, mające na celu reklamę internetową bez naruszania prywatności użytkowników, mogą odmienić aktualne standardy bezpieczeństwa.
Równolegle, w dniach 1-2 listopada w Wielkiej Brytanii odbył się globalny szczyt poświęcony bezpieczeństwu sztucznej inteligencji, mający na celu przedyskutowanie kierunku przyszłych regulacji w tej dziedzinie. Uczestnicy debatowali nad aktualnie najbardziej palącymi zagrożeniami związanymi z AI, w tym możliwością wykorzystania jej przez hakerów lub terrorystów oraz długoterminowym ryzykiem dla społeczeństw związanym z zastępowaniem pracy ludzi pracą maszyn. Nadal brak jest globalnych regulacji dotyczących bezpieczeństwa AI.
Jak przypominała Basia, UE od dłuższego już czasu pracuje nad regulacjami dotyczącymi AI w celu bezpiecznego rozwoju technologii i wspierania innowacji. Rozporządzenie “Artificial Intelligence Act” (tzw. AI Act) nadal jest w fazie projektowej, chociaż przewiduje się, że ostateczny jej tekst uda się ustalić jeszcze w tym roku. Projekt klasyfikuje systemy AI według poziomu ryzyka, przewidując różne obowiązki dla ich użytkowników. Parlament Europejski chce zapewnić, aby AI była bezpieczna, transparentna i nadzorowana przez ludzi. Systemy AI stwarzające niedopuszczalne ryzyko, takie jak manipulacja zachowaniami czy scoring społeczny, zostaną zakazane, z wyjątkami dla ścigania przestępstw.
Oczywistym jest, że charakter zagrożeń związanych z AI – jako że sztuczna inteligencja działa w sieci – jest globalny, więc bezpieczeństwo każdego z państw po części zależne jest od bezpieczeństwa pozostałych. Szczyt w Wielkiej Brytanii zakończył się jednomyślnością wśród mocarstw i kluczowych graczy rynku AI, w tym Chin, USA, Unii Europejskiej, Wielkiej Brytanii i Australii, co do konieczności współpracy w celu zarządzania ryzykiem związanym z rozwojem AI.