< Back

Sztuczna inteligencja jako potencjalny pomocnik dezinformacji – od spreparowanego nagrania w Japonii po uspokajające tony ekspertów

fot.PAP/EPA/FRANCK ROBICHON
fot.PAP/EPA/FRANCK ROBICHON

Generatywna sztuczna inteligencja (GenAI) potrafi tworzyć nowe i oryginalne treści, w tym tekst, obrazy, wideo i muzykę. Jej możliwości stały się przyczyną obaw, że może ona zwiększyć liczbę dezinformacji i manipulacji. W listopadzie mogli się o tym przekonać Japończycy, którzy zostali skonfrontowani ze stworzonym przy pomocy GenAI fałszywym telewizyjnym wystąpieniem premiera Japonii, Fumio Kishidy pozwalającym sobie na aluzje z podtekstem seksualnym. Spreparowany filmik wywołał duże poruszenie w Kraju Kwitnącej Wiśni.

Autor viralowego filmiku przyznał się w mediach, że stworzenie zmanipulowanego materiału zajęło mu godzinę, Dwudziestokilkulatek bronił się, że nagranie miało być „małym żartem” i że nie spodziewał się, że wywoła taka burzę. Głos i ruchy warg polityka zostały wygenerowane przy użyciu GenAI. W górnym rogu nagrania umieszczono logo stacji telewizyjnej Nippon Television Network oraz informację „pilne”. Autor spreparowanego filmiku umieścił go w sieci już w lipcu tego roku, ale dopiero w listopadzie nagranie zwróciło uwagę internautów stając się viralem. Na sam pomysł z wykorzystaniem wizerunku premiera Kishidy w nagraniu autor deep fake ’a wpadł oglądając telewizyjną relację ze spotkania polityka z ekspertami od AI. Zdaniem mężczyzny, premier nie wykazał szczególnego zainteresowania zaprezentowanymi podczas spotkania możliwościami GenAI pozwalającymi na zmianę głosu jednego z uczestników tak by przypominał głos Kishidy. Filmik miał w przewrotny sposób uświadomić politykowi możliwości GenAI. Jak podaje autor nagrania, software przez dwie godziny uczył się głosu Kishidy, stworzenie zaś samego filmiku zajęło godzinę. Do skandalu z nagraniem odniósł się rzecznik japońskiego rządu, podczas niedawnej konferencji prasowej. Hirokazu Matsuno ostrzegł przed publikowaniem fałszywych informacji, ponieważ „to szkodzi fundamentom demokracji i może stanowić przestępstwo". Zaś Hiroyuki Fujishiro, ekspert ds. mediów społecznościowych, profesor na Uniwersytecie Hosei w rozmowie z Japan Times, podkreślił, że "trudno jest przejrzeć sprytnie zrobione fałszywe nagranie w sytuacjach kryzysowych, takich jak wojna lub klęski żywiołowe”. „Ponieważ nadużywanie materiałów informacyjnych prowadzi do zamieszania społecznego, istnieje potrzeba stworzenia systemu wyjaśniającego, czy treści są tworzone przez generatywną sztuczną inteligencję, a następnie publikowane w mediach społecznościowych i na innych platformach" – powiedział Fujishiro.


Biorąc pod uwagę poruszenie jakie wywołało spreparowane wystąpienie japońskiego polityka, trudno oprzeć się wrażeniu, że generatywna sztuczna inteligencja stwarza realne zagrożenie dla przestrzeni informacyjnej, zwłaszcza w mediach społecznościowych. Okazuje się jednak, że nie wszyscy eksperci podzielają ten pogląd. Autorzy opublikowanego na łamach przeglądu Harvard Kennedy School (HKS) Misinformation Review raportu „Nowa odsłona dezinformacji? Obawy o wpływ generatywnej sztucznej inteligencji na dezinformację są przesadzone”, uważają, że zagrożenie nie jest aż tak poważne.

Lepsza jakość i szeroka skala

GenAI ułatwia tworzenie realistycznych, ale fałszywych lub wprowadzających w błąd treści na dużą skalę. Tak szeroka dezinformacja może wpływać na przekonania i zachowania ludzi, a w efekcie na demokrację. Autorzy raportu podzielili obawy na cztery kategorie i przeanalizowali trzy z nich.
Koszt tworzenia dezinformacji za pomocą GenAI jest niewielki. A to pozwala zalać internet wprowadzającymi w błąd informacjami, zagłuszając faktyczne treści i/lub siejąc zamieszanie. Zdaniem ekspertów sam fakt większej liczby dezinformacji nie oznacza, że użytkownicy internetu będą z nich korzystać. Uważają, że konsumpcja dezinformacji jest głównie ograniczona przez popyt, a nie przez podaż. Autorzy artykułu podkreślają, że nawet bez GenAI produkcja dezinformacji nie jest kosztowna. W przestrzeni medialnej już jest duża liczba dezinformacyjnych postów, które pozostają niezauważone. To oznacza, że GenAI ma bardzo mało miejsca do działania.
Można oczywiście mówić o niezaspokojonym popycie na dezinformacje, ale zdaniem autorów raportu większa część populacji nie szuka fałszywych postów. Zwłaszcza że do tej pory twórcy manipulacji wykazywali się daleko idąca kreatywnością i swobodą w wymyślaniu oraz rozpowszechnianiu dezinformacji.
Kluczowymi determinantami wiary w dezinformację są wg badań partyjność oraz tożsamość. Eksperci ds. dezinformacji uważają, że brak dostępu do wiarygodnych informacji odgrywa znikomą rolę. Problem nie polega na tym, że ludzie nie mają dostępu do wysokiej jakości informacji, ale na tym, że takie informacje odrzucają i faworyzują dezinformację.
Ze względu na swoje możliwości techniczne i łatwość użycia, GenAI może być wykorzystywana do tworzenia lepszej jakości dezinformacji. To prowadzi do zwiększonego potencjału perswazyjnego, ponieważ tworzone treści są bardziej wiarygodne i trudniejsze do zweryfikowania. GenAI może stworzyć tekst poetycki w stylu konkretnego autora, ale może też tworzyć treści, które wyglądają na profesjonalne, naukowe i dokładne.


Według autorów raportu „Nowa odsłona dezinformacji? Obawy o wpływ generatywnej sztucznej inteligencji na dezinformację są przesadzone” są trzy powody, dla których nie musi to budzić niepokoju. Autorzy dezinformacji już dawno mogliby z łatwością podnieść wiarygodność swoich treści. Np. w sferze wizualnej Photoshop daje możliwość nadania sztucznie stworzonemu obrazowi autentycznego wyglądu.
Po drugie, nawet gdyby GenAI zwiększała atrakcyjność dezinformacji, większość ludzi jest na nią narażona w zerowym lub bardzo niewielkim stopniu. W rezultacie, jak twierdzą naukowcy, jakakolwiek poprawa jakości wprowadzających w błąd treści byłaby w dużej mierze niewidoczna dla większości społeczeństwa.
Po trzecie, GenAI mogłaby pomóc w podniesieniu jakości wiarygodnych źródeł wiadomości, np. poprzez ułatwienie pracy dziennikarzom. Autorzy raportu podkreślają, że biorąc pod uwagę rzadkość występowania wprowadzających w błąd treści w porównaniu z treściami wiarygodnymi, wzrost atrakcyjności dezinformacji musiałby być od 20 do 100 razy większy niż wzrost atrakcyjności wiarygodnych treści, aby efekty GenAI przechyliły szalę na korzyść dezinformacji.


Zwiększona personalizacja


GenAI może także być wykorzystywana do tworzenia wysokiej jakości, spersonalizowanej pod kątem gustów i preferencji użytkownika dezinformacji, ułatwiając mikrotargetowanie zgodnie z przekonaniami i preferencjami konkretnych osób, przekonując je lub wprowadzając w błąd.
Warto jednak pamiętać, że technologia umożliwiająca mikrotargetowanie nie zależy od sztucznej inteligencji (chociaż ta oczywiście może ją ulepszyć). Największym problemem jest koszt dotarcia do ludzi z dezinformacją, a nie koszt jej wytworzenia.
Autorzy raportu nie mają wątpliwości, że GenAI może poprawić treść już ukierunkowanych dezinformacji, czyniąc je lepiej dopasowanymi. Ale przywołują badania wskazujące, że skuteczność politycznych, spersonalizowanych reklam jest wątpliwa, z co najwyżej niewielkim i zależnymi od kontekstu efektem. Perswazyjne możliwości mikrotargetowania – w tym za pomocą dużego modelu językowego (ang. LLM) – są ograniczone.
Autorzy raportu widzą potencjalne niebezpieczeństwa związane z GenAI, ale uważają, że póki co nie stwarza wielkiego zagrożenia. Ich zdaniem wyrażane obawy pomijają fakt, że obecne środowisko informacyjne zawdzięczamy złożonej sieci instytucji, która pozwoliła mediom na dostarczanie dokładnych informacji, a opinii publicznej na zaufanie do nich.
Oczywiście zawsze istnieje ryzyko przypadkowego pojawienia się niedokładnych informacji w mediach w miarę korzystania przez nie z GenAI, ale zostaną ograniczone przez wysiłki wydawców mające na celu kontrolowanie wykorzystania technologii w produkcji i dystrybucji wiadomości.
Co więcej, autorzy raportu podkreślają, że nie jest jasne, czy bardziej złożone technologicznie formy manipulacji są skuteczniejsze, zwłaszcza że dziennikarze i weryfikatorzy faktów, w tym FakeHunter, zmagają się nie tyle z deepfake'ami, co z wizualizacjami wyrwanymi z kontekstu lub z prymitywnymi manipulacjami, takimi jak kadrowanie obrazów.
Jednocześnie przyznają, że w swojej analizie opierali się głównie na dowodach dotyczących środowiska medialnego bogatych, demokratycznych krajów. Dane z innych krajów są niedostępne i tam GenAI może wywierać większy, negatywny wpływ.


Bez wątpienia sztuczna inteligencja powinna być przedmiotem regulacji. To, że w bogatych krajach demokratycznych dezinformacja pojawia się rzadko jest zasługą dziennikarzy, weryfikatorów faktów, ekspertów i odpowiedniej wiedzy. Dlatego wzmacnianie instytucji weryfikujących podejrzane treści będzie, zdaniem naukowców, kluczowe. Przypominają, że dziennikarze, weryfikatorzy faktów, władze i obrońcy praw człowieka będą musieli opracować nowe normy i praktyki, aby poradzić sobie z GenAI. I dodają, że nadmierne ostrzeżenia o złym wpływie sztucznej inteligencji na sferę publiczną i demokrację mogą mieć negatywne skutki zewnętrzne, takie jak zmniejszenie zaufania do rzetelnych wiadomości oraz organizacji, które je tworzą.


Nowa era dezinformacji


W kwietniu na portalu European Digital Media Observatory (EDMO) w artykule „Generative AI marks the beginning of a new era for disinformation” eksperci EDMO Giovanni Zagni and Tommaso Canett ostrzegali przed zagrożeniem ze strony generatywnej sztucznej inteligencji zaprzężonej do produkcji deep fake’owych treści. Autorzy tekstu przywoływali głośne przypadki dezinformacji z marca 2023 r – zdjęcie papieża Franciszka w puchowym płaszczu i serię fotografii ukazujących rzekome aresztowanie Donalda Trumpa. Oba obrazy spreparowano przy pomocy GenAI. W przypadku zdjęcia papieża mówiono o „pierwszej tak masowej dezinformacji z wykorzystaniem AI”.
„Koniec marca 2023 r. wyznacza początek nowej ery dezinformacji, w której postęp technologiczny wprowadza nową dynamikę produkcji i rozpowszechniania fałszywych i wprowadzających w błąd treści” – stwierdzili w tekście eksperci EDMO.
„Z punktu widzenia dezinformacji narzędzia podobne do chatbotów oparte na generatywnej sztucznej inteligencji dają użytkownikom dostęp do wyników, które niekoniecznie są wiarygodne lub dokładne; wizualne wyniki narzędzi generatywnej sztucznej inteligencji dają złośliwym podmiotom bezprecedensową możliwość tworzenia realistycznych obrazów i filmów. Potrzebne są dalsze badania, aby lepiej zrozumieć, jak właściwie oceniać zagrożenia stwarzane przez sztuczną inteligencję i jak im zaradzić, a u progu nowej ery dezinformacji kluczowe znaczenie ma kontynuowanie wspólnych wysiłków pracowników mediów, weryfikatorów informacji, twórców i zwykłych użytkowników w celu zapewnienia, aby ta technologia, z jej wieloma ekscytującymi aspektami i innowacyjnym potencjałem, była wykorzystywany w sposób wzbogacający, etyczny i odpowiedzialny” – czytamy w podsumowaniu artykułu


Próby uregulowania kwestii AI


W 2019 roku Rada Europy podkreśliła, że korzystanie z indywidualnych praw człowieka oraz "godność wszystkich ludzi jako niezależnych podmiotów moralnych" powinny być chronione przed niedostatecznie zbadanymi formami algorytmicznej perswazji, która "może mieć znaczący wpływ na autonomię poznawczą jednostek, ich prawo do formułowania opinii i podejmowania niezależnych decyzji"
Osiem badanych przez firmę konsultingową EY jurysdykcji (Chiny, Japonia, Kanada, Korea Południowa, Stany Zjednoczone, Unia Europejska i Wielka Brytania) różnie podchodzi do sposobu uregulowania GenAI, ale wszystkie przygotowywane lub już przyjęte ustawy opierają się na zasadach sztucznej inteligencji przyjętych przez Organizację Współpracy Gospodarczej i Rozwoju (OECD) i G20 w 2019 roku.
Przewidują one, że systemy AI powinny być projektowane z poszanowaniem praworządności, praw człowieka, wartości demokratycznych i różnorodności. Ale powinny także umożliwiać skuteczne zarządzanie ryzykiem. Decydenci polityczni przyjmują podejście do AI oparte na ryzyku, które obejmuje zagrożenia etyczne, związane z zarządzaniem, komunikacją i bezpieczeństwem.
W kwietniu 2021 roku Komisja Europejska zaproponowała pierwsze unijne ramy legislacyjne dotyczące sztucznej inteligencji. Projekt analizuje i klasyfikuje systemy AI według ryzyka, jakie stwarzają dla użytkowników. UE podkreśla, że priorytetem jest dopilnowanie, aby systemy sztucznej inteligencji stosowane w UE były bezpieczne, przejrzyste, identyfikowalne, niedyskryminujące i przyjazne dla środowiska.
Oczekujące na uchwalenie przepisy w UE i Kanadzie zakładają obowiązek zarządzania ryzykiem AI, np. w wykorzystywaniu jej w infrastrukturze krytycznej czy w rekrutacji. UE proponuje też zakaz wykorzystywania AI do np. rozpoznawania twarzy w przestrzeni publicznej. Unia ma też najbardziej kompleksowe podejście do uregulowania AI w kontekście cyberbezpieczeństwa, prywatności danych oraz ochrony własności intelektualnej. Unijna i kanadyjska ustawa o AI wykorzystują oceny ryzyka i wpływu po to, by przypisać systemy AI do różnych kategorii obowiązków w zakresie zgodności. Im większe ryzyko niesie dany system AI, tym dokładniejsze regulacje.
Wielka Brytania, Japonia i Singapur zamiast przyjmować konkretne przepisy koncentrują się na stworzeniu wskazówek dla przemysłu. W Stanach Zjednoczonych kluczowi urzędnicy stwierdzili, że istniejące przepisy ustawowe i wykonawcze już gwarantują przeciwdziałanie stronniczości, oszustwom, zachowaniom antykonkurencyjnym i innym zagrożeniom powodowanym przez sztuczną inteligencję. Ale opublikowano projekt "AI Bill of Rights" będący próbą uregulowania wykorzystania sztucznej inteligencji w skomplikowanym środowisku politycznym.
EY w swoim raporcie „Globalny krajobraz regulacyjny sztucznej inteligencji” rekomenduje decydentom politycznym, by podczas tworzenia przepisów dotyczących AI wyjaśnili, czy celem nowych ustaw jest uregulowanie ryzyka wynikającego z samej technologii, czy też ze sposobu wykorzystania GenAI.


Przygotowane przez: Zespół FakeHuntera


27.11.23