< Wstecz

„Nie można wygrać bitwy bez dogłębnego zrozumienia pola bitwy". Siła sztucznej inteligencji i rola niszowych portali w szerzeniu manipulacji

fot. PAP/EPA/LAURENT GILLIERON
fot. PAP/EPA/LAURENT GILLIERON

Zdaniem Neila Johnsona, amerykańskiego profesora fizyki na uniwersytecie George’a Washingtona „ekstremistyczne grupy, które publikują dużo mowy nienawiści, mają tendencję do tworzenia jej na mniejszych platformach, którym brakuje zasobów do moderowania treści”. Jego zdaniem to niszowe platformy są źródłem przenikania złośliwych treści do mainstreamowych mediów społecznościowych, czyli np. YouTube, Facebook czy X. Naukowiec jest jednym z autorów raportu, w którym zmapowano nie tylko największe platformy internetowe, ale również niszowe. 



Rok 2024 już został nazwany super - wyborczym, ponieważ prawie połowa ludzkości, w ponad 60 krajach pójdzie do urn - od Indii, poprzez Europę, aż po Stany Zjednoczone. To rodzi obawy, że internetowe boty, które po raz pierwszy mają do dyspozycji narzędzia generatywnej, sztucznej inteligencji (GenAI) wykorzystają je do wpływania na wyniki głosowania. 


Charlotte Hu, dziennikarka Scientific American, zwróciła w swoim artykule uwagę, że mowa nienawiści czy propaganda polityczna nie są niczym nowym w internecie. Tyle że do tej pory boty, nazywane przez naukowców „złymi aktorami”, tworzyły źle skonstruowane, niepoprawne gramatycznie zdania, które można było łatwo zidentyfikować jako fałszywe.


Tymczasem LLM (LLM- Duży Model Językowy, system oparty na sztucznej inteligencji, który został przeszkolony w zakresie ogromnych ilości danych tekstowych w celu zdobycia wiedzy związanej z językiem i generowania odpowiedzi podobnych do ludzkich) są coraz powszechniejsze, więc zautomatyzowane konta w mediach społecznościowych staną się bardziej przekonujące.
Przywołany w artykule Charlotte Hu raport „Kontrolowanie działań złych aktorów i sztucznej inteligencji na dużą skalę na internetowych polach bitew” opublikowany w styczniu 2024 roku w magazynie PNAS Nexus pokazuje, że trolle i boty będą w coraz większym stopniu wykorzystywać GenAI do wpływania na wyborcze decyzje. Autorzy raportu przewidują, opierając się na wcześniejszych badaniach cyberataków, że w 2024 r. sztuczna inteligencja pomoże w rozpowszechnianiu toksycznych treści w mediach społecznościowych niemal codziennie, przynajmniej do połowy roku.


Neil Johnson, profesor fizyki na uniwersytecie George’a Washingtona i jeden z autorów publikacji, w rozmowie z uniwersyteckim portalem „GW Today” powiedział, że: „Nie można wygrać bitwy bez dogłębnego zrozumienia pola bitwy”.
W raporcie zmapowano nie tylko największe platformy internetowe, ale także te niszowe. Analiza algorytmów oraz zastosowana hipoteza Czerwonej Królowej (zakładająca, że silna konkurencja międzygatunkowa wymusza stałe zmiany ewolucyjne) pokazuje, że grupy botów, czy złych aktorów, to co najmniej 25 milionów osób mających wpływ na bilion ludzi.
Johnson w rozmowie z Hu podkreślił, że „ekstremistyczne grupy, które publikują dużo mowy nienawiści, mają tendencję do tworzenia jej na mniejszych platformach, którym brakuje zasobów do moderowania treści”. Jego zdaniem to niszowe platformy są źródłem przenikania złośliwych treści do mainstreamowych mediów społecznościowych, czyli np. YouTube, Facebook czy X. 


Według autorów badania źli aktorzy nie używają zaawansowanych narzędzi AI. Korzystają z GPT-2, bo jest zdolny do automatycznego replikowania ludzkiego stylu wypowiedzi, zwłaszcza osób o skrajnych poglądach. Po drugie bardziej zaawansowane wersje, jak GPT-3 lub 4, po prostu nie są powszechnie dostępne. 
Hu cytuje też Zeve’a Sandersona z Uniwersytetu Nowojorskiego, zdaniem, którego dzisiaj niezależnie od tego, czy jest się zagranicznym złośliwym aktorem, czy tylko częścią krajowej kampanii, można wykorzystać AI do tworzenia atrakcyjniejszych niż kiedyś multimedialnych treści. I dodał, że jak na razie nie ma narzędzi pozwalających zidentyfikować treści wygenerowane przez LLM. 
W wywiadzie z Hu Kathleen Carley z uniwersytetu Carnegie Mellon powiedziała, że stworzenie oprogramowania pokazującego, co jest tworzone przez ludzi, a co nie, jest bardzo kosztowne i trudne, a Yilun Du z MIT dodała, że łatwiej jest rozpoznać stworzony przez AI obraz niż tekst. AI jest bowiem niedokładna, jeśli chodzi np. o oświetlenie czy inne efekty. 


Zdaniem Carley świat ma do czynienia z wyścigiem zbrojeń w zakresie wykorzystywania AI do dezinformacji. Jak tylko eksperci wymyślą sposób na wykrycie kłamstw, ich autorzy je ulepszają. 
Cytowani przez Hu eksperci przewidują, że w tym roku dezinformacja generowana przez AI rozprzestrzeni się znacznie szerzej. Nie tylko dlatego, że można szybciej tworzyć treści, ale także z powodu innej dynamiki korzystania z mediów społecznościowych. Tiktok wprowadził wrzucanie treści od osób, których się nie obserwuje, a potem zaczęły to robić inne platformy. 


Dlatego być może rozwiązaniem nie jest ściganie fałszywych treści, a osób, które je tworzą. Skuteczne środki zaradcze mogłyby działać poprzez wykrywanie aktywności z określonych adresów IP lub identyfikując podejrzanie dużą liczbę postów publikowanych o określonej porze dnia.

  21.02.2024