< Wstecz

Telefon od Prezydenta Bidena? Raczej nie. W Super Roku Wyborczym(nie tylko) Amerykanie muszą się przygotować na deepfake’owe zasadzki

fot. PAP/EPA/Ting Shen/POOL
fot. PAP/EPA/Ting Shen/POOL

W 2024 roku do wyborów w ponad 60 państwach świata pójdzie ok.4,2 miliarda ludzi.  Amerykanie w listopadzie wybiorą nowego prezydenta, w Indonezji wybory parlamentarne i prezydenckie zaplanowano na luty, w Indiach na przełomie kwietnia i maja zostanie wybrany nowy parlament, do urn ruszy też większość Europejczyków. Eksperci alarmują: Super Rok Wyborczy będzie nie tylko rekordowy pod względem liczby wyborów, ale i towarzyszącej im dezinformacji, w tym tej wygenerowanej za pomocą sztucznej inteligencji(AI). Ostatnio próbkę możliwości AI w tworzeniu deep fake’ów dostali Amerykanie, do których zadzwonił Joe Biden z radą by „nie głosowali”.

Spektrum możliwości zastosowań Sztucznej Inteligencji (AI) poszerza się każdego dnia. Z pomocą AI możemy rozwijać systemy pomagające w codziennym życiu osobom z niepełnosprawnością, optymalizować pracę robotów, tworzyć dzieła sztuki, ale i wprowadzać chaos informacyjny. Sander van der Linden, profesor psychologii społecznej na Uniwersytecie Cambridge na badanie dezinformacji generowanej przez sieci neuronowe poświęcił wiele lat.

 

Początki swojej pracy wspominał 22.01.b.r. na portalu wired.com:


Jeszcze przed powstaniem ChatGPT, moja grupa badawcza przy University of Cambridge Social Decision-Making Laboratory postawiła sobie pytanie, czy sieci neuronowe mogą generować dezinformację. Aby to sprawdzić, wytrenowaliśmy poprzednika ChatGPT, GPT-2, na przykładach popularnych teorii spiskowych, a następnie poprosiliśmy go o wygenerowanie dla nas fałszywych wiadomości. Dało nam to tysiące wprowadzających w błąd, ale wiarygodnie brzmiących wiadomości. Kilka przykładów: "Niektóre szczepionki zawierają niebezpieczne substancje chemiczne i toksyny" oraz "Urzędnicy państwowi manipulowali cenami akcji by przykryć skandale". Pytanie brzmiało, czy ktokolwiek uwierzyłby jednak w te twierdzenia.

Stworzyliśmy więc pierwsze narzędzie psychometryczne do testowania tej hipotezy, które nazwaliśmy Testem Podatności na Dezinformację (MIST) – wspomina prof. van der Linden i opisuje wyniki eksperymentu:

 We współpracy z YouGov wykorzystaliśmy nagłówki wygenerowane przez AI, aby sprawdzić podatność Amerykanów na fałszywe wiadomości generowane przez AI. Wyniki były niepokojące: 41 procent Amerykanów błędnie uznało nagłówek o szczepionce za prawdziwy, a 46 procent uważało, że rząd manipuluje giełdą. Inne niedawne badanie, opublikowane w czasopiśmie Science, wykazało nie tylko, że GPT-3 produkuje bardziej przekonujące dezinformacje niż ludzie, ale także, że ludzie nie są w stanie wiarygodnie odróżnić dezinformacji generowanych przez ludzi od tych generowanych przez sztuczną inteligencję.

ChatGPT-3 to miecz obosieczny

Wspomniany przez Sandera van der Lindena artykuł z magazynu Sience to tekst autorstwa trzech badaczy szwajcarskiego Instytutu Etyki Biomedycznej i Historii Medycyny Uniwersytetu w Zurychu: Giovanniego Spitale, Nikoli Biller-Andorno i Federica Germaniego. Artykuł został opublikowany na łamach magazynu w czerwcu 2023 r i nosił tytuł: AI model GPT-3 (dis)informs us better than humans (Model AI GPT-3 (dez)informuje nas lepiej niż ludzie”.

Badaniu poddano 677 uczestników a sam eksperyment polegał na ocenie, czy potrafią oni odróżnić „dezinformację od dokładnych informacji, ustrukturyzowanych w formie tweetów i określić, czy tweet jest organiczny czy syntetyczny, tj. czy został napisany przez użytkownika Twittera (X), czy przez model sztucznej inteligencji GPT-3.”Wyniki badania pokazały, że „chat GPT-3 to miecz obosieczny, 
w porównaniu z ludźmi może on generować dokładne informacje, które są łatwiejsze do zrozumienia, ale może również generować bardziej przekonującą dezinformację (…) ponadto z badań wynika, że ludzie nie są w stanie odróżnić tweetów wygenerowanych przez GPT-3 od tych napisanych przez prawdziwych użytkowników Twittera (X).

Naukowcy zdecydowali się skupić w swoich badaniach na tweetach z uwagi na ogromne liczby użytkowników portalu szacowane miesięcznie na ponad 368 mln. aktywnych użytkowników. Ponadto, jak podkreślają autorzy badanie, „Twitter(X) oferuje bardzo prosty interfejs programowania aplikacji do tworzenia botów, tj. programów zdolnych do publikowania treści i interakcji z postami lub użytkownikami bez nadzoru człowieka. Ostatnie badania pokazują, że tylko około 5% użytkowników Twittera to boty, ale te boty stanowią łącznie od 20 do 29% treści publikowanych na Twitterze. Ze względu na te cechy Twitter jest idealnym celem i potencjalnie bardzo podatnym na dezinformację generowaną przez sztuczną inteligencję.”

Tyle na temat możliwości AI w kreowaniu dezinformacji. A jakie są najnowsze przykłady z „życia wzięte”?

 

Telefon od Prezydenta


W weekend poprzedzający prawybory w New Hampshire [odbyły się we wtorek, 23 stycznia] wyborcy otrzymali telefon od kogoś o „głosie łudząco podobnym do prezydenta Bidena”. Był to tzw. robocall, czyli automatyczny system dzwoniący wykorzystujący wcześniej nagraną wiadomość. Zwolennicy Demokratów w wiadomości dostali radę by „nie głosować we wtorek w prawyborach tylko oszczędzić swój głos na listopad”. Wiadomość zaczynała się od kojarzonego ze stylem Jego Bidena zawołania „Co za stek bzdur!”. Sprawą fejkowego nagrania zajmuje się prokuratura generalna stanu New Hampshire. Biuro Prokuratora Generalnego podało w komunikacie, że „chociaż głos w automatycznie wygenerowanym nagraniu brzmi jak ten prezydenta Bidena, to na podstawie wstępnych wskazówek wydaje się, że wiadomość została sztucznie wygenerowana”. Co ciekawe, wygenerowano nie tylko głos prezydenta USA, ale i fałszywe źródło pochodzenia połączeń – ślad prowadzi bowiem do komitetu wyborczego Demokratów. Jak doprecyzowała Prokuratura, sprawa dotyczy jednego z członków komitetu, którego numer telefonu podano w wiadomości „dla tych, którzy życzą sobie by ich wykreślono z listy odbiorców połączeń automatycznych”.

Zdaniem Prokuratury wiadomość z głosem podszywającym się pod głos prezydenta USA „wydaje się bezprawną próbą zakłócenia prawyborów prezydenckich w New Hampshire i wyparcia wyborców [z tego stanu]”.  W komunikacje rekomenduje się wyborcom by całkowicie zignorowali treść wiadomości i wyjaśnia, że głosowanie w prawyborach prezydenckich w New Hampshire nie wyklucza możliwości głosowania w listopadowych wyborach powszechnych. Odbiorców fejkowego nagrania zachęcono też do wysłania drogą mailową do Działu Prawa Wyborczego Departamentu Sprawiedliwości wszystkich szczegółów połączenia, które mogłyby doprowadzić do zlokalizowania sprawcy. W piątek 26stycznia portal wired.com podał, że zdaniem ekspertów fałszywe nagranie Joego Bidena zostało spreparowane z wykorzystaniem narzędzi jednego ze start-upów Doliny Krzemowej wyspecjalizowanego w klonowaniu głosu. Informacje te nie zostały jednak jeszcze wtedy potwierdzone przez Prokuratora Generalnego stanu New Hampshire.

 

Jak Forrest Gump u JFK

 

Przykład deep fake’owego nagrania prezydenta Bidena jest jednym z wielu z jakimi w najbliższych miesiącach będą konfrontowane amerykańskie służby.12 września ub.r. Agencja Bezpieczeństwa Narodowego (NSA) wraz z partnerami agencji federalnych Stanów Zjednoczonych wydała nowe rekomendacje dotyczące zagrożenia ze strony mediów syntetycznych (deepfake’ów). Dokument zatytułowano "Kontekstualizacja zagrożeń deepfake dla organizacji". Sam termin „deepfake” zdefiniowano jako „odnoszący się do multimediów, które zostały stworzone syntetycznie lub zmanipulowane przy użyciu sztucznej inteligencji.”. W 18-stronicowej instrukcji zawarto przykłady oszustw dokonanych z wykorzystaniem sztucznej inteligencji i opisano modele rekomendowanych procedur w razie wykrycia treści wygenerowanych z użyciem AI. W rekomendacji się radzi organizacjom, aby rozważyły wdrożenie szeregu technologii do wykrywania deepfake'ów i określania pochodzenia multimediów. Obejmują one możliwości weryfikacji w czasie rzeczywistym, pasywne techniki wykrywania oraz ochronę funkcjonariuszy o wysokim priorytecie i ich komunikacji.

Wytyczne zawierały również zestaw zaleceń dotyczących minimalizowania wpływu deepfake'ów, w tym wymiany informacji, planowania i prób reagowania na próby wykorzystania oraz szkolenia personelu. Autorzy dokumentu zwracali też uwagę, że postęp technologiczny w zakresie mocy obliczeniowej i głębokiego uczenia się sprawił, że masowa produkcja fałszywych mediów stała się łatwiejsza i tańsza. I coś w tym jest. A nawet całkiem sporo.
W 2019 r CNN Business zestawił ze sobą treści ukazujące różnego rodzaju możliwości manipulowania obrazem w przestrzeni publicznej by pokazać, że zabiegi tego typu nie są nowe, a jedynie ich technika uległa udoskonaleniu.

W zestawieniu znalazły się różne sztuczki wizualne wykorzystywane od dekad w Hollywood: sceny z kultowego filmu „Forrest Gump” z 1994 r, gdzie główny bohater został wmontowany w archiwalne nagrania na których wita się z prezydentem Kennedym.  CNN Business przywołał też filmy z udziałem aktorów, którzy nie żyli już w czasie kręcenia poszczególnych scen, a których za pomocą techniki udało się przywrócić na ekran. Jednym z takich przykładów były aktor sagi „Star Wars”, zmarły w 1994 r Peter Cushing wcielający się w rolę Wilhuffa Tarkina. W filmie Łotr 1. Gwiezdne wojny – historie (spinn off serii Gwiezdne wojny) rolę Tarkina zagrał Guy Henry, którego głowę zastąpiono komputerowo wygenerowanym wizerunkiem twarzy Petera Cushinga. 

To zaledwie kilka przykładów ze świata kina, ale to nauka nadaje decydujący ton.

Multimedialna kryminalistyka 


We wrześniu 2018 r   naukowcy z Carnegie Mellon University opracowali sposób na automatyczne przekształcanie treści jednego nagrania video w styl innego, umożliwiając przeniesienie mimiki komika Johna Olivera na mimikę postaci z kreskówki lub sprawienie, by żonkil zakwitł w taki sam sposób jak hibiskusów. W pilotażowych filmikach przeniesiono też mimikę Baracka Obamy na Donalda Trumpa. Wiedza pozyskana w wyniku pracy nad tym projektem miała znaleźć m.in. zastosowanie w szybszej i sprawniejszej produkcji kinowej.

 
Innym aspektom badań nad AI i deepfake’ami przygląda się założona w 2021 r przez Instytut Maxa Plancka grupa badawcza „Neural Capture & Synthesis” zajmująca opartym o AI zbieraniem i syntezą danych dotyczących obiektów, przestrzeni i ludzi. Naukowcy z tej grupy prowadzą m.in. badania nad multimedialną kryminalistyką polegającą na szkoleniu algorytmu sztucznej inteligencji z dużym zbiorem danych, aby można było zidentyfikować fałszywe filmy na podstawie artefaktów widocznych w sekwencji wideo. Jak czytamy w opisie badań: „Takie artefakty często występują wzdłuż granicy między syntetyzowaną twarzą a prawdziwym tłem. Algorytm jest również wykorzystywany do badania zachowania szumu kolorów na obrazie, co można wykorzystać do odróżnienia go od prawdziwych filmów. W ten sposób sztuczna inteligencja może zostać wykorzystana do rozpoznania, czy doszło do manipulacji. I jak tłumaczy kierujący pracami    Neural Capture & Synthesis" dr Justus Thies: "Jest to dokładnie ten rodzaj technologii, który można następnie zautomatyzować (…) Istnieją już próby zaoferowania tej technologii głębokiego wykrywania podróbek jako wtyczki do przeglądarki dla każdego. Pozwoliłoby to na automatyczne rozpoznawanie i oznaczanie fałszywych obrazów i filmów. Chroniłoby to laików przed fałszywymi wiadomościami (…) Rozwój kryminalistyki multimedialnej to gra w kotka i myszkę, ponieważ deep fake’owe treści stają się coraz lepsze. Obecnie stosunkowo łatwo jest rozpoznać deep fake. Jednak w najbliższej przyszłości będzie to coraz trudniejsze. Tworzenie bardziej foto - realistycznych treści video wiąże się zatem z ogromną odpowiedzialnością. (…) Rozumiejąc proces tworzenia, możemy opracować najbardziej zaawansowane algorytmy do wykrywania fałszerstw – stwierdza Thies.


Przygotowała: Olga Doleśniak-Harczuk


26.01.24