< Back

Kiedy dane przepuszczone przez model językowy stają się dezinformacją – najnowsze badania odpowiadają na kluczowe pytania. Są jednak i niewiadome

fot.PAP/EPA/Robert Ghement
fot.PAP/EPA/Robert Ghement

Generatywna sztuczna inteligencja (GenAI) użyta jako narzędzie dezinformacji może zaburzyć konsensus społeczny wokół najważniejszych kwestii politycznych takich jak np. bezpieczeństwo państwa, podważyć zdolność rządów do reagowania na potrzeby obywateli, pogłębiać podziały społeczne, demobilizować oraz oszukiwać wyborców i podważać zaufanie do procesów wyborczych. Takie wnioski płyną z najnowszego badania wpływu GenAI na sferę informacyjną, przeprowadzonego przez analityczkę danych, Valerie Wirtschaftler.

Sztuczna inteligencja, a zwłaszcza generatywna (GenAI), przyczynia się do poprawy produktywności w firmach, ale jednocześnie wytworzone przez nią treści mogą wzmacniać rozprzestrzenianie dezinformacji i być poważnym wyzwaniem w 2024 roku nazywanym super wyborczym. 
Jest kwestią bezdyskusyjną, że internet wpływa na decyzje polityczne podejmowane przez wyborców, a w 2024 roku do urn pójdzie prawie połowa mieszkańców globu. Dlatego generatywna sztuczna inteligencja (GenAI) umożliwiając tworzenie realistycznych obrazów, filmów, dźwięku lub tekstu staje się wyzwaniem. 
Analityk danych, Valerie Wirtschafter w swoim badaniu „Wpływy generatywnej sztucznej inteligencji w globalnym roku wyborczym”, opublikowanym przez Instytut Brookinga jeden z najpoważniejszych, amerykańskich think-tanków, podkreśla, że od momentu pojawienia się ChatGPT nie zmienił krajobrazu informacyjnego tak, jak początkowo przewidywano. Co nie przeszkadza, że treści stworzone lub znacząco zmienione przez AI już zostały wykorzystane do podważania demokracji oraz uczciwości wyborów.


Co to jest GenAI?


Generatywna sztuczna inteligencja pobiera dane dostarczone przez użytkownika i przepuszcza je przez wstępnie wytrenowany model językowy. Zaawansowana GenAI wykorzystuje uczenie się maszynowe do tworzenia obrazów, tekstu, filmów, dźwięku lub innych treści.
Autorzy badania „Generatywna sztuczna inteligencja i dezinformacja: Ewaluacja, wyzwania i możliwości”, przygotowanego przez Europejskie Obserwatorium Mediów Cyfrowych (EDMO), podkreślają, że rosnąca przystępność GenAI ułatwia tworzenia niedrogich, za to przekonujących kampanii dezinformacyjnych na dużą skalę. Ich zdaniem korzysta z tego przede wszystkim Rosja, a celem jej ataku są kraje europejskie. GenAI wywiera też destrukcyjny wpływ na zdolność obywateli do rozróżniania prawdy od fałszu oraz na zdolność mediów społecznościowych do zwalczania dezinformacji w internecie.


Według Wirtschafter pomimo ogromnego zainteresowania generatywną sztuczną inteligencją, w 2023 roku tworzone przez nią treści były rozpowszechniane w internecie sporadycznie. Jednocześnie badaczka podkreśla, że „trudno jest ocenić, jak często [treści te] pojawiają się w mediach społecznościowych w celu dezinformacji, ponieważ jest wiele kanałów dystrybucji, a badacze nie mają dostępu do danych”. 


Naukowcy uważają, że na razie stanowią niewielki ułamek ogólnej dezinformacji, ale przewidują zmianę. Zdaniem Wirtschafter GenAI działa bardziej jako wzmacniacz rozprzestrzeniania dezinformacji. Wcześniej wymagało to koordynacji między wieloma podmiotami czy wręcz farmy trolli i było łatwiejsze do weryfikacji. Teraz, za pomocą zaledwie kilku kliknięć, można stworzyć dużo odrębnych treści pozbawionych błędów. Wirtschafter przytacza dwa przypadki – Słowacji oraz Argentyny – gdzie wywołały duże szkody. 


Deepfake


Deepfake to, wg amerykańskiego słownika Merriam Webster, obraz lub nagranie, które zostało zmienione i zmanipulowane, aby fałszywie przedstawić kogoś jako robiącego lub mówiącego coś, co w rzeczywistości nie zostało zrobione bądź powiedziane.
We wrześniu 2023 r., dwa dni przed glosowaniem w wyborach parlamentarnych na Słowacji, pojawiło się nagranie Michala Šimečki, lidera pro-NATO-wskiej partii Postępowa Słowacja, w którym kandydat omawiał sposoby manipulowania wyborami i kupowania głosów od romskiej mniejszości. Choć nagranie od początku wydawało się podejrzane, zostało udostępnione przez tysiące osób w mediach społecznościowych, w tym przez byłego posła słowackiej partii opozycyjnej.
Podobnie było w Argentynie. W wyborach prezydenckich w 2023 roku, kilka dni przed pierwszą turą, zaczęły krążyć nagrania, w których proponowany przez kandydatkę na prezydenta Patricię Bullrich możliwy minister gospodarki Carlos Melconian oferował składał niemoralne propozycje obiecując rządowe stanowiska.


I chociaż nie ustalono, czy te nagrania były deepfakiem, to w obu przypadkach obwiniano sztuczną inteligencję. Wirtschafter podkreśla, że im więcej deepfaków, tym częściej politycy będą mogli twierdzić, że nawet prawdziwe skandale są sfabrykowane. Tego argumentu użyto już w USA, gdzie prawdziwe, stare filmiki i nagrania byłego prezydenta Donalda Trumpa zostały przez niego nazwane fałszywymi i wygenerowanymi przez AI. 
Wpływ AI na procesy wyborcze


Z badania Wirtschafter wynika, że GenAI użyta jako narzędzie dezinformacji może zaburzyć konsensus społeczny wokół najważniejszych kwestii politycznych (jak np. bezpieczeństwo państwa), podważyć zdolność rządów do reagowania na potrzeby obywateli, pogłębiać podziały społeczne, demobilizować oraz oszukiwać wyborców i podważać zaufanie do procesów wyborczych. 
Jej zdaniem „złośliwe podmioty mogą wykorzystywać wygenerowane obrazy, by operacje wywierania wpływu i skoordynowane, nieautentyczne zachowania prowadzone za pośrednictwem fałszywych kont były bardziej przekonujące”. I dodała, że „kiedyś takie profile opierały się na przetworzonych obrazach pobranych od niczego niepodejrzewających użytkowników mediów społecznościowych, a dzisiaj można równie łatwo stworzyć hurtowo profile, które uwiarygodnią dezinformacyjną kampanię”.


Autorka opisywanego badania jest przekonana, że pomimo wyzwań, obecność lub brak fałszywych informacji stworzonych przez GenAI nie wystarczy do poważnego zakłócenia procesów wyborczych. 
EDMO podkreśla też, że zdecydowana większość najnowocześniejszych narzędzi do wykrywania tekstu generowanego przez AI jest przeszkolona i działa wyłącznie w języku angielskim. Tymczasem najbardziej narażone na dezinformację są w tej chwili kraje europejskie posługujące się językami o niskich zasobach internetowych. A to oznacza, że najnowocześniejsze narzędzia do wykrywania fałszywych informacji po prosty w tych państwach nie działają. 


Czy istnieje dobre rozwiązanie problemu? 


Wirtschafter uważa, że sprostanie wyzwaniom związanym z treściami generowanymi przez AI wymaga koordynacji działań wielu podmiotów – rządów, firm zajmujących się AI, mediów społecznościowych oraz ich użytkowników. 
To oznacza także odpowiednie regulacje prawne uwzględniające obawy związane z wyborami, takie jak rozpowszechnianie fałszywych treści przedstawiających kandydatów ubiegających się o urząd, po działania edukacyjne dla wyborców, by nauczyć ich kontrolowania generowanych treści. 
Także firmy technologiczne mają do odegrania kluczową rolę, poprzez – jak napisała Wirtschafter – „wdrażanie niedoskonałych, ale ważnych rozwiązań technicznych dotyczących pochodzenia treści i znaków wodnych oraz inwestowanie w nowe narzędzia do wykrywania fałszywych informacji”. 
Co nie przeszkadza, że jej zdaniem działania te nie rozwiążą w pełni problemu, jaki GenAI stanowi dla integralności informacji, ale są to „kroki w kierunku uczynienia pozornie trudnego wyzwania łatwiejszym do opanowania w historycznym roku wyborczym”.

 

12.03.24