< Back

Społeczeństwo musi pogodzić się z faktem, że mediami cyfrowymi można dowolnie manipulować

fot. PAP/EPA/ PETER SCHNEIDER
fot. PAP/EPA/ PETER SCHNEIDER

Manipulacja niekoniecznie musi się wiązać z wykorzystaniem technik sztucznej inteligencji. Proste manipulacje, takie jak spowolnienie wideo - jak to było w przypadku Nancy Pelosi w 2020 r. lub zwykła zmiana podpisu pod zdjęciem czy nagraniem, wystarczą, do rozpowszechniania fałszywego przekazu. Ważne jest, aby zdać sobie sprawę, że treści mogą być też tworzone przez zautomatyzowane systemy – boty, a ich wykrywanie, a zatem także ściganie w przypadku przestępstwa, wcale nie jest oczywiste – mówi Prof. Justus Thies, kierownik grupy badawczej "Neural Capture and Synthesis" w Max Planck Institute for Intelligent Systems (MPI-IS)



Nad czym pracuje zespół kierowanej przez Pana grupy „Neural Capture and Synthesis”?


Grupa zajmuje się podstawowymi badaniami naukowymi w oparciu o sztuczną inteligencję (AI) i trójwymiarowym zapisem ciała ludzkiego i środowiska, z którym wchodzi w interakcję. Jednym z aspektów prac grupy są badania nad komunikacją cyfrową. Pandemia koronawirusa pokazała, że nowoczesne technologie telekomunikacyjne mogą pomóc w podniesieniu wydajności pracy i to niezależnie od odległości. W trakcie pandemii w sposób szczególny wykorzystywano do komunikacji systemy wideokonferencyjne, takie jak Zoom, Teams, FaceTime i tym podobne. Mają one jednak liczne ograniczenia: po pierwsze, uczestnicy spotkań mogą jedynie biernie odbierać obraz bez możliwości zmiany perspektywy widzenia., po drugie - uczestnicy są wizualnie od siebie odseparowani i nie dzielą środowiska, z którym mogliby również wchodzić w interakcje. To ma się zmienić dzięki teleprezencji (zdalnej obecności) wspomaganej wirtualną rzeczywistością (VR) albo rozszerzoną rzeczywistością (AR). Za pomocą wirtualnej rzeczywistości, okularów AR i wyświetlaczy holograficznych ludzie mogą zobaczyć trójwymiarowe, wirtualne pomieszczenia i z nimi współdziałać (metaverse).
Niezbędnym elementem budowania komunikacji w takich wirtualnych pomieszczeniach jest trójwymiarowy zapis i digitalizacja ciała ludzkiego, jego ruchów, interakcji z obiektami, a następnie fotorealistyczne odtworzenie. Trójwymiarowa digitalizacja ciała i jego ruchów znajduje też szerokie zastosowanie – w robotyce przy integracji człowiek-maszyna, w wirtualnych lustrach wykorzystywanych w e-sprzedaży, w produkcji filmowej do synchronizacji ruchów warg czy produkcji efektów specjalnych, w medycynie – zwłaszcza w chirurgii plastycznej i przy wsparciu terapeutycznym pacjentów po udarze. Digitalizacja 3D może też być wykorzystywana w edukacji, chociażby do personalizacji wirtualnego nauczyciela, do przeprowadzania wirtualnych treningów i rozmów kwalifikacyjnych.


A na czym polega technika odtwarzania twarzy "Facial Reenactment"?


Facial Reenactment to cyfrowe przeniesienie mimiki z jednej osoby na drugą. W przypadku wymieniowych wcześniej przykładów związanych ze zdalną obecnością mówi się nawet o „samo-odtwarzaniu”, to znaczy trójwymiarowy awatar określonej osoby jest przenoszony przez nią samą. Technika ta niesie jednak i pewne zagrożenia, na przykład, kiedy ktoś przejmuje czyjąś tożsamość – awatara i dochodzi do kradzieży tożsamości.

Kradzież tożsamości wirtualnej to pole tzw. kryminalistyki multimedialnej. Czym różni się ona od tej „tradycyjnej”?


Tak jak w przypadku innych czynów karalnych, tak i w tych multimedialnych, specjaliści zbierają dowody. Kryminalistyka multimedialna zajmuje się tropami cyfrowymi z obrazów, nagrań video i audio. Kamera też przecież pozostawia widoczne ślady, które można wykorzystać niczym odciski palców. Te ślady to zniekształcenia obrazu i szumy. Weryfikując autentyczność danego obrazu, zdjęcia czy nagrania można również przeanalizować pewne aspekty fizyczne, np. to czy cień pada prawidłowo, czy oświetlenie nie budzi wątpliwości.


W Niemczech było ostatnio głośno o deepfake’owym orędziu kanclerza Olafa Scholza opublikowanym w mediach społecznościowych przez jedną z organizacji. W Stanach Zjednoczonych prokuratura zajmuje się wygenerowanymi przy pomocy AI telefonami „od prezydenta Bidena” do wyborców w New Hampshire. Czy jako społeczeństwo powinniśmy się powoli oswajać z manipulacją i zamiast się oburzać, zadbać o odporność na tego typu oszustwa?


 Społeczeństwo musi pogodzić się z faktem, że mediami cyfrowymi można dowolnie manipulować. Niekoniecznie musi się to wiązać z wykorzystaniem technik sztucznej inteligencji. Proste manipulacje, takie jak spowolnienie wideo, jak to było w przypadku Nancy Pelosi w 2020 r.  lub zwykła zmiana podpisu pod zdjęciem czy nagraniem, wystarczą, do rozpowszechniania fałszywego przekazu. Ważne jest, aby zdać sobie sprawę, że treści mogą być też tworzone przez zautomatyzowane systemy – boty a ich wykrywanie, a zatem także ściganie w przypadku przestępstwa, wcale nie jest oczywiste.

Przygotowała: Olga Doleśniak-Harczuk

14.02.24