< Back

 Ekspert: Materiały typu deepfake to coraz większe zagrożenie

fot. PAP/EPA/SERGEY DOLZHENKO
fot. PAP/EPA/SERGEY DOLZHENKO

Filmiki wygenerowane dzięki AI ukazujące Donalda Trumpa mocującego się z Jill Biden mają w sieci miliony wyświetleń. „Materiały typu deepfake to poważne wyzwanie. Coraz trudniej jest dotrzeć do prawdy” – powiedziała PAP dr Ilona Dąbrowska z UMCS. W uroczystościach ponownego otwarcia katedry Notre Dame w minioną sobotę wzięli udział szefowie około 30 państw. Na ceremonii pojawił się również prezydent elekt Donald Trump oraz małżonka ustępującego prezydenta USA Jill Biden. Amerykańscy goście zostali posadzeni w jednym rzędzie. Po uroczystości na portalu X pojawiły się filmiki ukazujące Donalda Trumpa i Jill Biden w nietypowych sytuacjach. Na jednym nagraniu widać tych dwoje wymieniających brutalne ciosy, na drugim ich namiętny pocałunek. Oba filmiki zostały wygenerowane za pomocą sztucznej inteligencji (AI) i zaliczają się do materiałów typu deepfake.

Wcześniej ofiarą specjalistów od tego typu cyfrowej manipulacji padł kanclerz Niemiec Olaf Scholz. Podczas swojej zeszłotygodniowej wizyty w Kijowie Scholz odwiedził wraz z prezydentem Ukrainy Wołodymyrem Zełenskim oddział szpitalny, na którym leżą ukraińscy żołnierze. Wielu z nich na wojnie straciło kończyny. Politycy zostali sfilmowani podczas rozmów z pacjentami szpitala, na miejscu zrobiono też zdjęcie ukazujące Scholza i Zełenskiego siedzących na łóżku jednego z żołnierzy.

Zdjęcie to posłużyło do wygenerowania deepfake’owych filmików ukazujących, jak Wołodymyr Zełenski rzekomo naigrywa się z niemieckiego kanclerza, nakładając mu np. na głowę perukę clowna. Materiałem, który posłużył do manipulacji było też zdjęcie ukazujące Scholza wysiadającego z pociągu z metalową walizką. W jednej z wersji popularnych w sieci filmików z walizki wystają banknoty, w innej zostaje ukazana jej zawartość – kostium sceniczny dla prezydenta Ukrainy.

„Współczesny internet, a szczególnie serwisy społecznościowe, stanowią strefę wymiany informacji, w której coraz trudniej jest dotrzeć do prawdy. Dzieje się tak z jednej strony za sprawą natłoku informacyjnego, z drugiej – w skutek popularyzacji narzędzi umożliwiających tworzenie nieprawdziwych, zmanipulowanych fotografii, nagrań dźwiękowych czy materiałów wideo. To właśnie te ostatnie – tzw. materiały typu deepfake stanowią dzisiaj poważne wyzwanie dla odbiorców internetowych treści” – powiedziała PAP dr Ilona Dąbrowska z Katedry Dziennikarstwa, Instytutu Nauk o Komunikacji Społecznej i Mediach Wydziału Politologii i Dziennikarstwa, Uniwersytet Marii Curie-Skłodowskiej w Lublinie.

Jak podkreśliła dr Dąbrowska, „technologia deepfake umożliwia tworzenie realistycznie wyglądających, lecz nieprawdziwych, materiałów prezentujących ludzi w sytuacjach, które nigdy nie miały miejsca. W ten sposób powstają zarówno materiały dźwiękowe, jak i audiowizualne. Warto zaznaczyć, że technologia ta ciągle się rozwija a jej możliwości są udoskonalane. Dlatego też pierwotne materiały typu deepfake, które już na pierwszy rzut oka zdradzały swoją fikcyjność poprzez np. zniekształcone twarze, ustępują dziś miejsca zaawansowanym systemom, które generują materiały o bardzo dobrej jakości. Te z kolei są coraz trudniejsze do oceny i zakwalifikowania ich jako fikcyjne – szczególnie przez nieświadomego istnienia takiej technologii widza. Dodatkowo w sytuacji, gdy oglądamy materiał filmowy na ekranie małego urządzenia mobilnego, lub robimy to w pośpiechu – naprawdę łatwo jest dać się nabrać. Tymczasem deepfake’i wkraczają do kolejnych dziedzin życia i coraz częściej ofiarami materiałów tego typu stają się politycy” – dodała dr Dąbrowska.

Zdaniem ekspertki w przypadku opublikowanych w serwisie X materiałów z udziałem Wołodymyra Zełenskiego oraz Olafa Scholza „należy mówić o celowej manipulacji wideo przy wykorzystaniu technologii deepfake. O ile sam przekaz można traktować jako humorystyczny, to już sam fakt wykorzystywania omawianej technologii w kontekście tych konkretnych polityków może budzić obawy”.

„Warstwę wideo cechuje dość dobra, choć jeszcze nieidealna jakość. Z całą pewnością lepsza, niż ta, którą można było dostrzec na deepfake’owych materiałach, np. z początku zbrojnej napaści Rosji na Ukrainę, kiedy to m.in. sfabrykowano orędzie prezydenta Zełenskiego. Jest to kolejny dowód na to, że systemy oraz algorytmy wspierające technologię deepfake ulegają ciągłemu ulepszaniu” – powiedziała dr Ilona Dąbrowska.

Wykładowczyni UMCS przewiduje, że w niedalekiej przyszłości możemy spodziewać się filmów, w których odróżnienie prawdy od fikcji będzie wręcz niemożliwe.

„Mając na uwadze trwające konflikty oraz napięcia, a także zagrożenia jakie niesie ze sobą publikowanie oraz popularyzacja fikcyjnych nagrań, istotne staje się dzisiaj nie tylko informowanie czy edukowanie w zakresie technologii deepfake, ale także wprowadzanie działań wymuszających na twórcach materiałów tego typu oznaczania zdjęć, nagrań i filmów jako nieprawdziwe” – podsumowała dr Dąbrowska.

odh/ mow/

13.12.2024

Footnotes: