< Back

Kłopoty z przeciwdziałaniem dezinformacji - eksperci o unijnym dochodzeniu w sprawie Platformy X

fot. PAP/Newscom/Richard B. Levine
fot. PAP/Newscom/Richard B. Levine

Elon Musk będzie się musiał zmierzyć z zarzutami postawionymi przez unijnego komisarza ds. przemysłu Thierry’ego Bretona, który wszczął dochodzenie wobec platformy X w związku z niewystarczającym zwalczaniem przez nią rozprzestrzeniania się dezinformacji po ataku Hamasu na Izrael. To pierwsze dochodzenie wszczęte na podstawie nowych unijnych przepisów technologicznych – tzw. Digital Services Act (DSA - Ustawa o usługach cyfrowych), które regulują odpowiedzialność za usługi cyfrowe.

 

 

Nowe unijne regulacje weszły w życie 16 listopada 2022 r. Jeżeli platforma X zostanie uznana za winną naruszeń DSA firmie grozi kara finansowa w wysokości 6 proc. jej światowego obrotu. Do wielowątkowości dochodzenia wobec X, ale i możliwych jego konsekwencjach odnieśli się w rozmowie z FakeHunterem eksperci:  


Mateusz Mrozek

NASK, Dyrektor Pionu Ochrony Informacyjnej Cyberprzestrzeni
Centrum Cyberbezpieczeństwa i Infrastruktury

dr Piotr Łuczuk

Adiunkt, Zastępca Dyrektora Instytutu Edukacji Medialnej i Dziennikarstwa UKSW

Dina Sadek

Research fellow w Atlantic Council’s Digital Forensic Research Lab (DFRLab)

 

Mateusz Mrozek: Problem jest dalece bardziej złożony niż samo DSA

FH: W tygodniach poprzedzających wejście w życie DSA dla dużych platform cyfrowych, niektóre z nich wdrożyły środki mające na celu dostosowanie się do unijnych regulacji. Jak na nową sytuację zareagowała Platforma X i czy jej reakcja była adekwatna do wymiaru planowanych zmian i obostrzeń?

Mateusz Mrozek: X już od dawna sprawia wrażenie pogodzonego z tym, że na tej platformie działania dezinformacyjne są codziennością. DSA jest oczywiście krokiem porządkującym niektóre aspekty związane z publikacją treści szkodliwych, ale w moim przekonaniu pozostawia jeszcze bardzo wiele istotnych sfer poza regulacjami. DSA skupia się raczej na algorytmie i tworzeniu baniek komunikacyjnych. Dodatkowo, jeżeli chodzi o wykrywanie kampanii typu disinformation, misinformation i malinformation DSA jest nastawione na długoterminową analitykę zjawiska. Najbardziej palący problem to szybkie wykrywanie treści, najlepiej zanim staną się viralowe, sprawne reagowanie i efektywne zgłaszanie operacji informacyjnych. Tutaj niestety pole dalej pozostaje dziewicze i średnio zagospodarowane. Platforma X jest dodatkowo dosyć opieszała, jeżeli chodzi o wprowadzanie rozwiązań zmieniających te stan rzeczy. Postawa tej platformy wobec DSA niestety mnie nie dziwi. Wprowadzono m.in. mechanizm nadawania kontekstu wpisom, jednak już przy pierwszym większym teście np. przy wpisie NBP na temat spadku cen, okazało się, że ten mechanizm jest dalece niedoskonały, ponieważ pod wpisem dodano nowy kontekst dla wpisu NBP, który jest niezgodny z danymi makroekonomicznymi.  X jak i inne BigTechy w dalszym ciągu mają strukturalny problem z udzielaniem dostępu do swoich danych. Po doświadczeniach związanych z Brexitem i Cambridge Analitica zamknęły się w dużej mierze przed badaczami w obawie przed tzw. profilowaniem użytkowników. To niestety wylewanie dziecka z kąpielą. Teraz jako badacze nie mamy dostępu do tego co najważniejsze – czyli do treści, nie musimy mieć, wszakże dostępu do konkretnych kont, żeby wykrywać i walczyć z dezinformacją. Osobną kwestią są regulaminy wewnętrzne platform, czyli tzw. policy, które bardzo często w sposób uznaniowy wyznaczają to co jest traktowane w sposób szczególny i usuwane. Np. mamy tam ruch QANON, a nie mamy rosyjskiej dezinformacji. Problem jest zatem dalece bardziej złożony niż samo DSA. Nam np. zdarzało się, że zgłaszany przez nas post dotyczący porównań współczesnych uchodźców z Ukrainy do działań tzw. banderowców na Wołyniu w latach 40. ubiegłego wieku trafiał do fact-checkera z innej części świata, który zapewne używając translatora dowiadywał się, że chodzi nam o banderę, czyli oznakowanie statku.

 FH: Unijne śledztwo ws. Platformy X to pierwszy przypadek użycia DSA względem platformy internetowej. Jaki sygnał idzie w świat i czy można mówić o konkretnych błędach popełnionych przez X w związku z niedostatecznym monitorowaniem platformy pod kątem szerzącej się dezinformacji?

Mateusz Mrozek: Na wnioski przyjdzie czas po zakończeniu analiz. Dopiero efekty pokażą, jak będzie sformułowany ten sygnał. Presja na BigTechy z pewnością ma sens. Nie zmienia to jednak faktu, że nie znikną z krajobrazu. Natomiast trzeba zdecydowanie nawiązywać i pogłębiać relację z właścicielami platform. Konstruktywny dialog, oprócz oficjalnych mechanizmów powinien być naturalnym biegiem spraw. Pytanie tylko czy obu stronom na tym zależy. Obawiam się, że Elon Musk nie traktuje tego tematu jako priorytetu i w razie czego jest gotowy wycofać się z Europy. Dał się już niejednokrotnie poznać jako człowiek zorientowany na cel. Jeżeli bilans ekonomiczny pozostania na europejskim rynku nie będzie dla niego bezwzględnie korzystny to podejrzewam, że nie będzie miał oporów przed formalnym wyjściem X z Europy.

FH: Wychodząc już poza sam temat śledztwa pozostaje sprawa kluczowa – czyli samo zjawisko dezinformacji w konkretnych kontekstach.  Po blisko dwóch latach wojny jesteśmy w stanie ocenić skalę dezinformacji posiłkującą się wojną na Ukrainie. Jak po kilku dniach wojny Izraela z Hamasem kształtuje się jej „potencjał fakenewsowy”?

Mateusz Mrozek: To są dla nas całkowicie nieporównywalne skalowo tematy. Dziś Polska żyje wyborami, to tutaj jest skupiona uwaga i możemy się poczuć jak nasi koledzy z Europy Zachodniej, którzy z podobnego dystansu patrzyli na wojnę ukraińsko-rosyjską. Ten konflikt jest daleko i nie jesteśmy bezpośrednio zaangażowani. Oczywiście konta komentujące działania wojenne, analitycy i konta wspierające narrację prorosyjską nieustannie publikują treści antyizraelskie, ale tutaj gra toczy się raczej o podsycanie historycznych resentymentów i polaryzację jaką można ewentualnie wykorzystać szkalując Polskę na zachodzie. Liczba szkodliwych informacji w tym zakresie jest jednak niższa niż 10% względem ogólnej sumy wykrytych wątków szkodliwych, a jej autorzy są nam już doskonale znani z 5G, procesu szczepień przeciw Covidowi-19 czy agresji Rosji na Ukrainę.


dr Piotr Łuczuk: Media społecznościowe od początku swojego istnienia obarczone były dużym ryzykiem generowania szumu informacyjnego, sprzyjającego działaniom i mechanizmom dezinformacyjnym

FH: Czy Pana zdaniem Platforma X faktycznie z nadmierną powściągliwością podeszła do kwestii zwalczania czy markowania dezinformacji?

dr Piotr Łuczuk: Na początek warto wspomnieć o kilku faktach:
Unia Europejska wskazała Platformę X jako najbardziej narażoną na dezinformację platformę społecznościową. Pikanterii całej sprawie dodaje fakt, że informacja pojawiła się w momencie, gdy X wyłączyła funkcję umożliwiającą użytkownikom zgłaszanie fałszywych informacji związanych z wyborami.

Platforma X przeszła analizę pilotażową w trzech państwach członkowskich UE, mając na celu ocenę nowej metody testowania łatwości w odnajdywaniu treści dezinformacyjnych. Badano również, jakie zaangażowanie generują tego typu treści oraz jakie wskazówki dotyczące źródeł pojawiają się na danej platformie.
Obecnie X korzysta z Community Notes, gdzie użytkownicy wspólnie dodają kontekst do potencjalnie mylących wpisów. Uczestnicy mogą zamieszczać notatki przy każdym wpisie, a jeśli wystarczająca liczba osób z różnych perspektyw uzna notatkę za pomocną, zostanie ona publicznie wyświetlona przy wpisie. To podejście ma na celu oznaczanie wpisów, które społeczność uznaje za nieprawdziwe. A jednak, mimo tych działań, na X nadal pojawia się znaczna ilość nieoznaczonych fałszywych informacji.

Reputacji X nie sprzyja również fakt, że dezaktywowała funkcję umożliwiającą użytkownikom zgłaszanie fałszywych informacji związanych z wyborami. W ostatnim czasie kategoria „polityka” została usunięta z menu zgłaszania fałszywych treści. Zgłaszanie dezinformacji politycznej na platformie X staje się teraz wyraźnie utrudnione. Ten krok, podjęty przez platformę, nasuwa obawy dotyczące rozprzestrzeniania się fałszywych informacji, zwłaszcza przed wyborami w Stanach Zjednoczonych i Australii. Zniknięcie tej funkcji wywołało spore kontrowersje praktycznie na całym świecie. Należy bowiem przypomnieć, że właśnie w 2022 roku X, wtedy jeszcze jako Twitter, wprowadził funkcję umożliwiającą użytkownikom oznaczanie wpisów uważanych za wprowadzające w błąd w kwestiach politycznych. Co ciekawe w ostatnim czasie z platformy X usunęło kategorię zgłaszania „polityka” ze swojego menu we wszystkich regionach, z wyjątkiem Unii Europejskiej. Reset.Tech Australia donosi, na przykład, że użytkownicy wciąż mogą zgłaszać różne inne problemy, takie jak treści promujące przemoc czy mowę nienawiści, ale kategoria polityczna została usunięta.

FH: Elon Musk już nie raz pokazał, że nie boi się kontrowersji.

dr Piotr Łuczuk: Owszem, to nie pierwsza i zapewne nie ostatnia kontrowersyjna decyzja podjęta przez Muska. Musimy mieć jednak świadomość, że na przestrzeni ostatnich lat media społecznościowe ogromnie zyskały na znaczeniu w kontekście opiniotwórczości. Coraz większa grupa użytkowników właśnie wszelkiego rodzaju „społecznościówki” traktuje jako tzw. medium pierwszego wyboru. To stamtąd czerpana jest wówczas wiedza o najnowszych wydarzeniach z kraju i ze świata.
Z drugiej strony media społecznościowe od początku swojego istnienia obarczone były dużym ryzykiem generowania szumu informacyjnego, sprzyjającego działaniom i mechanizmom dezinformacyjnym. Gdy dodamy do tego jeszcze możliwości związane z wykorzystaniem algorytmów okaże się, że to zaledwie wierzchołek góry lodowej.

FH: Na ten wierzchołek składają się wielorakie akcje dezinformacyjne, jedne prymitywne, inne bardziej skomplikowane i przez to groźniejsze. Jak by Pan w kilku zdaniach nakreślił dzisiejszą mapę chwytów dezinformacyjnych?

dr Piotr Łuczuk: Dezinformacja to zamierzone wprowadzanie w błąd. Przekazywanie opinii publicznej lub przeciwnikowi całkowicie fałszywych lub odpowiednio zmanipulowanych informacji. Odgrywa kluczowe znaczenie w teorii wojskowości i rozgrywkach szpiegowskich. W ostatnim czasie jej użycie rozpowszechnione jest także w mediach, a głównym celem dezinformacji stają się przedstawiciele opinii publicznej. Zagadnienie ściśle związane jest z fake newsami, trollingiem oraz propagandą. Dezinformację wykorzystuje się również w marketingu, reklamie, polityce oraz środkach społecznego przekazu i masowego komunikowania. W ostatnim czasie, w kontekście wojny toczącej się na terytorium Ukrainy coraz częściej docierają do nas informacje o wciąganiu w złożone kampanie dezinformacyjne poszczególnych dziennikarzy, a niekiedy nawet całych redakcji. Jak odróżnić prawdę od fake newsa w czasach post-prawdy?

Biorąc pod uwagę analizę propagandowych działań podejmowanych za pośrednictwem internetu, należy rozróżnić dwie podstawowe grupy tzw. internetowych trolli. Pierwszą z nich stanowią internauci wykonujący swoje zadania na zlecenie, opłacani za swoją pracę. Do ich obowiązków należy m.in. zamieszczanie wpisów i komentarzy mające ukazywać „zleceniodawcę” w pozytywnym świetle, opierając się głównie na faktach – tyle, że odpowiednio wcześniej dobranych i zmanipulowanych. Drugą grupę natomiast stanowią internauci określani mianem tzw. „pożytecznych idiotów” (useful idiots). Do ich obowiązków należy zakładanie profili w mediach społecznościowych i prowadzenie blogów, na których mają ukazywać się odpowiednio przygotowane i spreparowane informacje. Do tej grupy zalicza się również wszystkie te osoby, które nieświadome całej gry operacyjnej, rozpowszechniają przeczytane informacje dalej, wierząc w ich autentyczność i przyczyniając się tym samym do ich uwiarygodnienia w oczach opinii publicznej.

Z punktu widzenia zwykłego użytkownika, nieświadomego całej machiny propagandowej, wszystko wygląda tak, jakby internauci rzeczywiście znajdowali się w kraju, wobec którego podejmowane są działania propagandowe. Prosperujące niczym prężnie działające firmy marketingowe „fabryki trolli” są w stanie w zasadzie przez całą dobę zalewać internet komentarzami o odpowiednim „wydźwięku”. Często dla uwiarygodnienia całej akcji poszczególne trolle wchodziły nawet między sobą w polemikę. Typowym działaniem jest również grupowe zgłaszanie administratorom portali społecznościowych rzekomych nadużyć i żądanie zablokowania lub usunięcia wpisów odbiegających od linii propagandowej. Poza samymi „żołnierzami propagandy”, niezwykle istotna jest też sama broń, którą posługują się oni w cyberprzestrzeni. Najczęściej jest to generowanie szumu informacyjnego w postaci rozpowszechniania dużej ilości fałszywych informacji, dziś określanych głównie jako fake news.

FH: Z czego wynika ogromna siła rażenia fake newsów?
 
dr Piotr Łuczuk: Po pierwsze już samo „zbombardowanie” internetu głównie mediów społecznościowych, fałszywymi informacjami na temat budzący duże zainteresowanie społeczne powoduje, że w natłoku informacji znacznie trudniej jest odnaleźć fakty i dotrzeć do źródła wiadomości.

Po drugie zawsze znajdzie się jakiś odsetek internautów, który bezkrytycznie uwierzy w internetową propagandę, a niekiedy nawet będzie podawał tego typu informacje dalej, zwiększając jedynie ich zasięg. Po trzecie publikacja fake newsów w odpowiednim momencie, może przyczynić się do odwrócenia uwagi opinii publicznej od innych tematów.


Dina Sadek: Platforma X pozbyła się części zespołu odpowiedzialnego za identyfikowanie dezinformacji

FH: Skąd na Platformie X wzięło się to ogromne natężenie dezinformacji?

Dina Sadek: Platforma X od dawna jest źródłem wiadomości w czasie rzeczywistym i w związku z tym wielu użytkowników mediów społecznościowych chce jak najszybciej publikować tam swoje wpisy i jak najszybciej mieć dostęp do świeżych informacji. Niektóre z tych wpisów zawierają dezinformację, treści niezweryfikowane i spekulacje na temat tego, co mogło się wydarzyć, a co nie. Istnieje również zalew dezinformacji przemieszczający się między platformami, tak, że niektóre materiały, które pojawiły się najpierw na Telegramie i TikToku, trafiają na X, co jeszcze bardziej utrudnia wskazanie źródeł i weryfikację autentyczności. Pamiętajmy, że platforma przeszła istotne zmiany, zredukowano chociażby koszty pozbywając się części zespołu odpowiedzialnego za identyfikowanie dezinformacji, co ma związek z
rozprzestrzenianiem się niezweryfikowanych i dezinformacyjnych treści na platformie.

17.10.23

Przygotowała: Olga Doleśniak-Harczuk