Aż 1/3 treści oferowanych przez popularne chatboty AI jest „skażona” dezinformacją Kremla

Wkrótce po inwazji na Ukrainę, rosyjskie sieci i kanały kolportujące kłamstwa Kremla, zaczęły zasypywać internet taką ilością materiałów, że wpłynęło to na proces „uczenia się” popularnych modeli AI. W efekcie aż ponad 33 proc. treści przekazywanych użytkownikom przez te systemy zawiera elementy rosyjskiej dezinformacji – ustalili analitycy NewsGuard. Rosja wykorzystuje mechanizm polegający na tym, że modele AI „uczą się”, czerpiąc „wiedzę” z ogromnych zbiorów danych w internecie. Zalanie go olbrzymią liczbą publikacji zawierających określone kłamstwo sprawia, że chatbot przekazuje je użytkownikowi jako fakt. McKenzie Sadeghi i Isis Blachez z platformy NewsGuard prowadzącej rating wiarygodności witryn informacyjnych przeanalizowali to zjawisko na 10 najpopularniejszych chatbotach AI i ustalili, że w aż 33 proc. treści podawanych przez systemy były elementy rosyjskiej dezinformacji. Badacze podkreślili, że stanowi to poważne zagrożenie dla bezpieczeństwa i działania procesów demokratycznych w innych krajach.
Jak wynika z badania przeprowadzonego przez inną organizację – The American Sunlight Project, mającej na celu przeciwdziałanie zagrożeniom dla amerykańskiej demokracji, wśród licznych kanałów, za pomocą których Kreml „koryguje wiedzę” chatbotów, kluczową rolę odgrywa uruchomiona niedługo po agresji na Ukrainę sieć „Prawda”. Składa się z ponad 150 domen i za jej sprawą w ciągu dwóch dób do sieci przenika średnio ponad 20 tys. artykułów zawierających prokremlowski przekaz, manipulacje oraz fake newsy.
Michał Marek z Centrum Badań nad Współczesnym Środowiskiem Bezpieczeństwa w rozmowie z PAP zaznaczył, że treści pojawiąjące się w polskojęzycznej wersji portalu „Prawda” to najczęściej tłumaczenia rosyjskich materiałów publikowanych wcześniej m.in. na portalu Ria Nowosti oraz na łamach innych źródeł w pełni kontrolowanych przez stronę rosyjską. „Są tam również materiały tworzone przez Polaków zaangażowanych w działania dezinformacyjne na rzecz strony rosyjskiej, które publikowane są m.in. w sieciach społecznościowych. W ten sposób dane źródło pozyskuje materiały, dzięki którym może pozycjonować się na portal sprawnie działający oraz dostarczający informacje na bieżące tematy” – wskazał ekspert.
Natomiast jak zauważyła dr Ilona Dąbrowska, ekspertka ds. mediów społecznościowych, produkcji medialnej, dziennikarstwa internetowego i e-komunikacji z Uniwersytetu Marii Skłodowskiej Curie w Lublinie, „+old dogs, new tricks+. Wcześniej mieliśmy do czynienia z farmami trolli czy botami na Facebooku, następnie deepfake’ami. Tylko kwestią czasu było to, kiedy Kreml wykorzysta large language model grooming do wprowadzania w błąd i manipulowania opinią publiczną”.
Rozmówczyni PAP podkreśliła, że realizacja jednej ogromnej strategii polegającej na tym, że wlewając do sieci olbrzymią liczbę nieprawdziwych informacji, uzyskuje się pierwszą korzyść w postaci tego, że ktoś to przeczyta i da się nabrać, a drugą – że „uczy” się generatory językowe. „Rosja doskonale zdaje sobie sprawę, jak wielką popularnością cieszą się rozmaite generatory AI, a zarazem jak źle są zabezpieczane. Dlatego to tak doskonałe narzędzie manipulacji” – dodała Dąbrowska.
Szczególnie, że Rosja w zakresie groomingu dużych modeli językowych nie musi polegać na „Prawdzie” i innych własnych sieciach oraz kanałach. „Niestety zjawisko to pogłębiają serwisy niezwiązane z Kremlem, które chętnie, choć bezwiednie, powielają jego przekazy ze względu na ich krzykliwość i kontrowersyjność, co zapewnia większe zainteresowanie, większą liczbę wyświetleń, a w konsekwencji – większe zyski” – podkreśliła ekspertka.
W jej ocenie już teraz olbrzymie profity, które czerpie z tych działań putinowski reżim, z czasem będą coraz większe. „Rosjanie doskonale wiedzą, że „system rodzi system”. Obecne, dalekie od doskonałości, systemy zostaną wykorzystane do tworzenia kolejnych, które pojawią się w przyszłości. Zainfekowanie dezinformacją tych współczesnych sprawi, że przyszłe rozwiązania technologiczne będą ten błąd powielać” – zaalarmowała Dąbrowska i wskazała, że z jej obserwacji wynika, że coraz częściej wiedzę o świecie czerpiemy nie z wiarygodnych źródeł, lecz właśnie przez generatory AI; nie weryfikujemy też informacji, bo w codziennym życiu po prostu nie mamy na to czasu.
Czy państwa narażone na działanie rosyjskiej dezinformacji, mogą skutecznie przeciwdziałać temu zjawisku? Jak w rozmowie z PAP przekonywała Ilona Dąbrowska, należy korzystać z każdej okazji, żeby edukować społeczeństwo w zakresie zagrożeń związanych z nowymi mediami. „Na każdym kroku powinniśmy być uświadamiani, jak niedoskonałe są rozwiązania technologiczne, którymi się zachwycamy”.
Drugi filar powinno zaś stanowić zwiększenie dofinansowania naukowców, postawienie akcentu na rozwój technologii, na przykład stworzenie rozwiązań, które już na poziomie systemowym sprawdzałyby, czy tekst podaje nieprawdę i czy na przykład został wygenerowany przez jakiś rodzaj organizacji.
„W czasie niepokoju i wojny hybrydowej powinniśmy przestroić nasze myślenie. Angażować siły i środki nie tylko na pozyskanie uzbrojenia, lecz również zabezpieczenie społeczeństw, a zatem całych państw, przed manipulacją i dezinformacją” – podsumowała Dąbrowska.
Grzegorz Rutke
Opublikowano: 31.03.2025