W listopadzie 2024 r. brytyjski oddział operatora telefonii komórkowej O2, wypuścił chatbota stworzonego do długich i trudnych do przerwania rozmów, wygenerowanego przy użyciu AI. Daisy, bo tak nazwano bota, jest starszą panią. W realistyczny sposób potrafi przeciągnąć każdą rozmowę — czy to z powodu rzekomego braku umiejętności cyfrowych, czy dzięki charakterystycznemu “babcinemu” stylowi, zagaduje o mało istotne szczegóły i skutecznie zajmuje oszustów. Według twórców, ma umieć utrzymać oszustów telefonicznych przy słuchawce przez niemal godzinę, aby tracić ich czas, który mogliby wykorzystać na wyłudzanie danych i pieniędzy. Byłoby idealnie, gdyby osoby starsze — a więc statystycznie najbardziej narażone na manipulację w przestrzeni cyfrowej — faktycznie mogły poszczycić się taką odpornością na oszustwa. Tymczasem w mediach społecznościowych, nawet na pozornie przyjaznych grupach dla seniorów czekają na nich różne pułapki. Z resztą, nie tylko na nich.
W świecie coraz bardziej nasyconym przez treści tworzone za pomocą sztucznej inteligencji, niebezpieczeństwa wynikające z manipulacji internetowej przybierają nowe formy. Dwie z nich, ragebaiting i sympathy baiting, są szczególnie popularne. Mechanizm ich działania opiera się na prowokowaniu emocji po to, by użytkownicy komentowali i udostępniali określone treści. Prowadzi to do sztucznego „pompowania” zasięgów, dzięki którym właściciele profili publikujących kontrowersyjne lub emocjonalne treści mogą generować wyższe statystyki i być atrakcyjniejsi dla reklamodawców.
Wydaje się, że każdy użytkownik internetu, niezależnie od wieku, potrafi rozpoznać zmanipulowany przekaz. Ale w praktyce wiele osób reaguje intuicyjnie, nie zastanawiając się, skąd dana treść się wzięła, kto za nią stoi i jaki jest jej prawdziwy cel.
Co czyha na użytkowników internetu?
Treści pojawiające się na różnych platformach społecznościowych często są kierowane do użytkowników (szczególnie do osób starszych), którzy szukają w sieci rozrywki, towarzystwa czy przeżycia/emocji. Szczególnie przemawiają do nich treści oparte na sympathy baitingu – czyli prośbach o polubienia lub komentarze odwołujące się do współczucia/współodczuwania.
Jednym z najczęściej spotykanych przykładów tego typu manipulacji są pozornie niewinne posty z grafikami generowanymi przez AI. Należą do nich np. ilustracje przedstawiające starszą kobietę lub mężczyznę z podpisem „Nikt nie docenia mojej pracy”, (często ukazanych w sytuacji niezgodnej z podpisem). Jeszcze częściej natrafić można na sceny „rodzinne”: np. rzekome stare zdjęcie matki z dziećmi zestawione z jego współczesnym odwzorowaniem, gdy u boku staruszki siedzą już dorosłe osoby. Kolejnym przykładem są obrazki z dopiskiem „tak wyglądały wasze babcie w czasach swojej młodości”, prezentujące rzekome fotografie z dawnych festynów czy festiwali, w których bohaterki mają odważne stylizacje i przybierają nietypowe pozy. U wielu, szczególnie starszych użytkowników internetu, taka treść może budzić pozytywne emocje czy ciepłe wspomnienia lub wydawać się wzruszająca i wartościowa. Autorzy takich postów liczą właśnie na tę spontaniczną reakcję – lajk, komentarz, udostępnienie – by wygenerować jak najwięcej interakcji i w efekcie „podbić” widoczność danego konta czy fanpage’a.
Kto czerpie z sympathy baitingu?
Dla wielu graczy w przestrzeni internetowej kluczowe jest błyskawiczne przyciągnięcie uwagi jak największej liczby użytkowników i wykorzystanie tego w odpowiednim momencie do promowania konkretnej agendy czy produktu. Najłatwiej osiągnąć taki cel poprzez „tani” w produkcji i łatwy do masowej dystrybucji content, który wywołuje emocje skłaniające do komentowania i udostępniania. Algorytmy mediów społecznościowych premiują treści o wysokim współczynniku zaangażowania, każda reakcja użytkownika działa więc jak kula śnieżna: strona czy profil momentalnie zyskują rozgłos, a kapitał w postaci „lajków” rośnie. Raz rozbudowana baza odbiorców może być w dowolnej chwili wykorzystana do rozpowszechniania bardziej kontrowersyjnych czy wręcz szkodliwych treści, czy to politycznych, czy dezinformacyjnych.
Szybki wzrost popularności takich stron lub kont opiera się często na zewnętrznych usługach, umożliwiających niemal natychmiastowe „kupowanie” polubień, komentarzy czy nawet kont obserwujących. W efekcie profile, które wczoraj udostępniały wzruszające ilustracje seniora, dziś mogą stać się wylęgarnią nieprawdziwych newsów, zmanipulowanych fotografii lub agresywnych kampanii światopoglądowych. Mimo że wielu użytkowników już zaczyna rozpoznawać pewne schematy i uważa na fałszywe lub wątpliwe strony, wciąż istnieje duża grupa osób, która nieświadomie daje się zmanipulować. Co ważne, wpływowi gracze regularnie doskonalą swoje metody; pojawiają się coraz nowsze techniki maskowania tożsamości i automatyzacji kont, a generatywna sztuczna inteligencja tylko ułatwia produkcję kolejnych, pozornie „prawdziwych” treści. W ciągu ostatnich miesięcy w różnych częściach świata zdemaskowano co najmniej kilkanaście kolejnych sieci zaangażowanych w dezinformację. Do najbardziej aktywnych źródeł fake kont i stron wciąż zalicza się Rosja, ale także Chiny oraz Iran.
Z tego powodu powstają regulacje mające zmusić platformy do skuteczniejszego przeciwdziałania nadużyciom, a użytkowników do ostrożniejszego korzystania z sieci. Jednym z kluczowych rozwiązań jest Digital Services Act (DSA) – pakiet unijnych przepisów zaprojektowanych tak, by zagwarantować bardziej odpowiedzialne moderowanie treści i lepszą ochronę praw użytkowników w przestrzeni online.
Obecne ramy prawne – czy DSA może sobie poradzić z takimi zjawiskami?
Platformy społecznościowe coraz częściej stają w obliczu zjawisk polegających na celowym wykorzystywaniu emocji, manipulacji czy też zakłócaniu użytkownikowi możliwości samodzielnego podejmowania decyzji. DSA nakłada liczne obowiązki na platformy społecznościowe, które mają pomóc w tworzeniu bezpiecznego dla użytkowników świata online. Przykładami tych obowiązków są m.in. konieczność wyznaczenia specjalnego punktu kontaktowego czy też wprowadzenia mechanizmów do zgłaszania nielegalnych treści. Jednym z głównych celów DSA jest zwalczanie nielegalnych treści oraz przeciwdziałanie dezinformacji w sieci, dlatego konieczne jest również niwelowanie przez platformy takich form manipulacji jak ragebaiting i sympathy baiting.
Co więcej, DSA wymaga zapewnienia przez platformy przejrzystości, m.in. w kontekście treści generowanych przez AI, a zatem również w kwestii tzw. ,,deepfake’ów” wykorzystywanych do manipulowania i dezinformowania użytkowników. Platformy muszą przy tym uwzględnić specyfikę odbiorców, którzy często nie mają dostatecznej wiedzy na temat generatywnej sztucznej inteligencji. Dlatego konieczne jest odpowiednie oznaczenie takiej treści, żeby użytkownik był w stanie bez problemu stwierdzić, że treść została wygenerowana przy użyciu AI.
Niezbędna jest także większa przejrzystość działania algorytmów odpowiedzialnych za rekomendowanie postów. W praktyce oznacza to, że platformy powinny ograniczać widoczność treści, które zostały uznane za wprowadzające w błąd bądź nakierowane wyłącznie na emocjonalną reakcję. Istotne jest przy tym wyeliminowanie tzw. ciemnych wzorców (dark patterns) w samym interfejsie – chodzi o takie elementy, które mogą utrudniać zauważenie źródła przekazu lub przekierowywać użytkownika do kolejnych treści wywołujących silne, często nieprzyjemne emocje. Szczególnie groźne są sytuacje, w których użytkownicy internetu stają się ofiarami zarówno manipulacji psychologicznej, jak i ewentualnych wyłudzeń danych, a platformy nie dostarczają wystarczająco jasnych ostrzeżeń czy informacji o możliwości łatwego zgłaszania podejrzanych postów.
Właściwe wdrożenie zapisów DSA w tym obszarze wymaga zbudowania solidnych procedur. Wszelkie mechanizmy raportowania, współpracy z moderatorami czy komunikacji z organami ścigania muszą działać tak, aby użytkownik w każdym wieku mógł szybko i bez trudu zareagować. Niezmiernie istotne jest przy tym dostarczanie przez platformy prostych i zrozumiałych komunikatów informujących o tym, jak rozpoznać nienaturalne elementy na zdjęciach lub filmach.
Jednym z wyzwań dla nowych przepisów jest wprowadzenie ich w życie w taki sposób, żeby użytkownicy faktycznie zobaczyli zmianę. Dopiero realne zmniejszenie liczby fałszywych kont bazujących na ragebaitingu, generatywnych obrazów żerujących na współczuciu czy nieuczciwych mechanizmów reklamowych może świadczyć o tym, że unijne regulacje, w tym m.in. DSA, działają zgodnie z założeniami i stwarzają bezpieczniejszą przestrzeń w sieci dla osób w każdym wieku.
DSA potrzebne nie tylko seniorom
Choć może się wydawać, że to przede wszystkim osoby starsze padają ofiarą manipulacji w postaci sympathy czy rage baitingu, faktyczna skala zjawiska pokazuje, że nikt nie jest na nie w pełni odporny. Różnego rodzaju freak fighty, skandaliczne wypowiedzi influencerów czy viralowe „afery” internetowe od lat napędzają kliknięcia oraz wyświetlenia. Mechanizm jest zawsze podobny: wywołać silne emocje (pozytywne lub negatywne), zachęcić odbiorców do szybkiej reakcji, zainicjować lawinę komentarzy i udostępnień.
Młodzi ludzie często deklarują większą świadomość tego, „jak działa internet”. Wystarczy jednak przyjrzeć się popularnym, a kontrowersyjnym wyzwaniom w social mediach, czy nagłaśnianym na TikToku i Instagramie dramom, by zauważyć, że również osoby młodsze intuicyjnie klikają w posty wywołujące gniew czy oburzenie.
Stąd tak istotne jest z jednej strony przypominanie użytkownikom o skutecznych sposobach na unikanie pułapek rage i sympathy baitingu, a z drugiej – egzekwowanie od platform konkretnych narzędzi ograniczających wątpliwe praktyki. DSA nakłada wiele obowiązków na platformy, dlatego tak ważne jest prawidłowe i kompleksowe wdrożenie odpowiednich procedur wewnątrz organizacji, które zagwarantują zgodność działań platform z przepisami unijnymi. Wprawdzie starania o poprawę jakości treści w sieci często mają w tle seniorów jako najbardziej podatną grupę, jednak warto pamiętać, że wpływ negatywnych czy manipulacyjnych treści na młodych internautów bywa równie silny. Internetowej gorączce emocji i prowokacji ulega bowiem każdy, kto choć na chwilę odpuści zdrowy rozsądek – a o to, w dobie błyskawicznej wymiany treści, nietrudno.
Artykuł pt. „Emocje w sieci – poszukiwane i szkodliwe” ukazał się w Dzienniku Gazecie Prawnej, 1 kwietnia 2025 roku.
Jeśli masz pytania dotyczące wdrożenia DSA w swojej organizacji, zachęcamy do kontaktu z Natalią Cieplińską, partnerem z zespołu nowych technologii DSK Kancelaria: n.cieplinska@dsk-kancelaria.pl.