< Wstecz

AI sama w sobie nie jest ani dobra, ani zła. To jest narzędzie, które możemy wykorzystywać zarówno do fact checkingu jak i szerzenia dezinformacji

fot. arch. Piotra Łuczuka
fot. arch. Piotra Łuczuka

Przez ostatnie lata technologia deepfake była dość toporna i łatwo było dostrzec różnicę między tym co realne, a wygenerowane. Dziś mamy z tym coraz większy problem. Do zaskakujących wniosków doszli naukowcy z Australijskiego Uniwersytetu Narodowego. Wykazali oni, że twarze wygenerowane w całości przez sztuczną inteligencję (AI) wydają się nam bardziej realistyczne niż rzeczywiste ludzkie twarze – mówi w rozmowie z FakeHunterem dr Piotr Łuczuk, medioznawca, ekspert ds. cyberbezpieczeństwa. Wicedyrektor Instytutu Edukacji Medialnej i Dziennikarstwa UKSW, ekspert Instytutu Staszica

Rząd Słowenii chce uregulować kwestię wykorzystywania sztucznej inteligencji w mediach. W projekcie zmian, proponuje się m.in. oznaczanie treści, które powstały z pomocą generatywnej AI. Tyczy się to również deep-fakeów, które są dopuszczalne jedynie w audycjach o charakterze komediowo-satyrycznym lub młodzieżowych projektach służących celom edukacyjnym. Naruszenie tych zasad może skutkować karą finansową nawet do 20 tys. euro. To Pana zdaniem dobry kierunek?


Tego rodzaju pomysły wyrastają w ostatnim czasie, jak grzyby po deszczu. Z jednej strony zupełnie mnie to nie dziwi. Z drugiej jednak, mimo wszystko wywołuje uśmiech na twarzy. Wokół wykorzystania AI toczy się burzliwa debata zarówno akademicka jak i społeczna. Podobnie rzecz miała się w przypadku rozwoju internetu, komunikacji cyfrowej i social mediów. Mamy do czynienia z postępem, który trudno będzie zatrzymać. Z drugiej strony zgadzam się, że należałoby wykorzystanie AI – zwłaszcza w mediach informacyjnych jakoś sensownie uregulować. Na razie jednak z przykrością muszę stwierdzić, że nie widzę realnych i przede wszystkim racjonalnych prób znalezienia rozwiązania. Każde proponowane regulacje, czy to na poziomie krajowym, czy nawet unijnym stwarzają zagrożenie „wylania dziecka z kąpielą”. Tymczasem sztuczna inteligencja sama w sobie nie jest ani dobra, ani zła. To jest narzędzie, które możemy wykorzystywać zarówno do fack checkingu jak i szerzenia dezinformacji. Wracając do pytania – zróbmy pewien eksperyment myślowy – zastanówmy się, czy jeśli pozbawimy redakcje informacyjne korzystania z AI, albo wymusimy informowanie, że poszczególne treści zostały wygenerowane przez sztuczną inteligencję realnie coś to zmieni? Czy podmioty wykorzystujące AI w celach propagandowych i dezinformacyjnych zaprzestaną swoich działań? Szczerze wątpię. Zamiast piętnować i karać za używanie AI w mediach, sugerowałbym raczej podnoszenie poziomu świadomości i umiejętności dziennikarzy. Ludzie mediów powinni na przestrzeni najbliższych lat nauczyć się, jak efektywnie wykorzystywać AI w swojej pracy – po to, żeby pewne procesy automatyzować. Żeby była jasność – nie mam na myśli tego, że Chat GPT ma zacząć pisać artykuły za dziennikarza. Dziennikarz może jednak w kreatywny sposób wykorzystać generatywną sztuczną inteligencję do syntetyzowania pewnych treści lub przygotowywania na bazie tekstu dziennikarskiego, gotowych szablonów wpisów do mediów społecznościowych i innych tego typu platform. To mam na myśli mówiąc o automatyzacji pracy dziennikarzy – mądre i przede wszystkim kreatywne korzystanie z narzędzia, jakim jest AI.


 A jak w Polsce wygląda temat regulacji dotyczący korzystania ze sztucznej inteligencji?


O tym, że jakieś regulacje muszą się w tej kwestii pojawić, mówi się już od dawna. Oczywiste wydaje się zatem, że niebawem powinniśmy poznać w końcu jakieś konkrety. Obserwując zarówno polską jak i unijną legislację, mam jednak wrażenie, że mimo wszystko regulacje będą wypadkową przepisów proponowanych przez UE. Czy to dobry kierunek? Jeśli spojrzymy na to, co przez lata działo się w kwestii prób regulowania funkcjonowania social mediów czy chociażby walki z dezinformacją lub poprawę cyberbezpieczeństwa, trzeba będzie uzbroić się w cierpliwość. Z drugiej strony warto wskazać sytuację, w której to Polska jest w gronie liderów innowacji i legislacji – mam tu na myśli przepisy dotyczące bezzałogowych statków powietrznych – czyli dronów. To właśnie wypracowane w Polsce na przestrzeni lat rozwiązania w dużym stopniu ukształtowały obecne unijne regulacje dotyczące możliwości wykonywania lotów BSP (dronów) na określonych zasadach. Mamy więc w tym aspekcie swój istotny wkład. W kwestii AI również moglibyśmy również nieco bardziej przejąć inicjatywę. W gronie medioznawców czy specjalistów zajmujących się nowymi technologiami debata na temat regulacji AI toczy się już od lat. Wystarczy tylko zebrać najlepsze pomysły i przedstawić je światu.
 
Z AI coraz częściej kojarzy się też produkcja deepfake’ów a jednym z najbardziej kłopotliwych sposobów wykorzystania czyjegoś wizerunku do generowania deepfake’ów to tworzenie treści pornograficznych. Pornografia deepfake wywołuje sporo kontrowersji, coś, czego ofiarą na początku 2017 r padali głównie celebryci, dziś może dotyczyć każdego z nas. Czy jest jakiś mechanizm penalizacji nieuprawnionego wykorzystania czyjegoś wizerunku w treściach pornograficznych?


W kodeksie karnym oraz kodeksie cywilnym znajdziemy zapisy dotyczące ochrony dóbr osobistych czy wizerunku. W przypadku internetu, a teraz jeszcze wykorzystania AI jest to temat bardzo złożony. Ja nie chciałbym wchodzić w aspekty prawne – to zadanie raczej dla prawników. Skupiłbym się jednak na dwóch wątkach – samej technologii deepfake oraz pewnym istotnym zmianom procesów społecznych i zasad komunikacji.
Deepfake faktycznie początkowo wykorzystywano na dużą skalę głównie w branży porno. Dlaczego? Bo możliwość „rozebrania” celebrytów, aktorek i aktorów gwarantowała kolosalne zyski dla całej „branży”. Jeszcze 2 dekady temu podobne efekty można było uzyskać jedynie uciekając się do ordynarnych fotomontaży lub posługując się sobowtórami. Dziś z jednej strony deepfake znacznie obniża koszt produkcji, a drugiej daje możliwość wstawienia dowolnego wizerunku, dowolnej osoby, w dowolnym kontekście. Mogą być to zatem zarówno generowane przy użyciu AI treści pornograficzne z wizerunkami naszych bliskich – lub wręcz przeciwnie wykorzystujące wizerunek naszych wrogów. Tu niestety kreatywność jest wręcz nieograniczona. Skoro celebryci reprezentowani przez całe armie prawników na dłuższą metę nie są w stanie się przed tym chronić – jakie szanse mamy my?
Musimy zdawać sobie sprawę, że im więcej treści (zwłaszcza multimedialnych) wypuszczamy do sieci, tym dłuższy zostawiamy za sobą cyfrowy ślad, a AI ma z czego czerpać – ma bardzo bogatą bazę danych na nasz temat, którą regularnie uzupełniamy sami, napędzani czymś, co określam mianem wirtualnego ekshibicjonizmu.
I jeszcze drugi wątek. Zwróćmy uwagę, jak na przestrzeni ostatnich dwóch dekad zmieniły się nasze relacje społeczne. Kiedyś uczeń szkoły podstawowej miał ok. 20-30 znajomych w swojej klasie i jeszcze ok 60 w szkole i w swojej okolicy. Jedynie celebryci musieli liczyć się ze skutkami ubocznymi swojej rozpoznawalności. Dziś statystyczny uczeń ma już nie dziesiątki, nie setki, a tysiące znajomych. Co prawda są to znajomi głównie w mediach społecznościowych, jednak biorąc pod uwagę skalę tego zjawiska, współczesny nastolatek już musi mierzyć się z popularnością dorównującą celebrytom. Czy młodzież jest na to przygotowana? Czy wie, jak radzić sobie z hejtem w gronie rówieśników? Co jakiś czas w mediach pojawiają się doniesienia o upublicznianych przez rówieśników intymnych nagraniach. Zastanówmy się tylko, jak duże zagrożenie w tym aspekcie stanowi właśnie technologia deep fake. Mówi się, że kłamstwo zdąży obiec cały świat, zanim prawa zdąży włożyć buty. Jeśli cała szkoła lub wszyscy nasi współpracownicy zobaczą wygenerowane przez AI nagranie – jak wiele osób uda nam się przekonać, że jest to fałszywka? To są pytania, na które jak najszybciej musimy znaleźć odpowiedzi.
 
Coraz częściej słyszymy o nagraniach polityków wygenerowanych przy pomocy AI. Tak było w przypadku fejkowego wystąpienia premiera Japonii, jak i kanclerza Niemiec. W obu przypadkach sprawę rzekomego żartu z udziałem polityków skomentowały ich kancelarie, ale nikt nie wspomniał o możliwych konsekwencjach dla autorów tych filmików. Czy tego typu "żarty” powinny być traktowane poważnie?


Nadmienię tylko, że w pierwszych miesiącach wojny na Ukrainie, strona Rosyjska wypuściła nagranie wygenerowane przy użyciu deepfake, w którym prezydent Zełenski informował o poddaniu kraju i wzywał do złożenia broni. Przez ostatnie lata technologia deepfake była dość toporna i łatwo było dostrzec różnicę między tym co realne, a wygenerowane. Dziś mamy z tym coraz większy problem. Do zaskakujących wniosków doszli naukowcy z Australijskiego Uniwersytetu Narodowego. Wykazali oni, że twarze wygenerowane w całości przez sztuczną inteligencję (AI) wydają się nam bardziej realistyczne niż rzeczywiste ludzkie twarze. Eksperyment został opisany w czasopiśmie „Psychological Science”. Wyobraźmy sobie, jakie konsekwencje dyplomatyczne i geopolityczne mogą mieć tego typu nagrania z udziałem polityków, które na zasadzie efektu potwierdzenia zaczną kolportować media, które – nie oszukujmy się – również będą mogły się nabrać na tego typu treści. Prof. Aleksandra Przegalińska, w jednym ze swoich ostatnich wpisów przekonywała, że wierzy w ludzkość i to, że mamy zdolność odróżniania wygenerowanych treści od autentyków, że nie będziemy się tak łatwo nabierać na deep fake i fotomontaże. Obserwując współczesne możliwości AI ja nie byłbym jednak aż takim optymistą. To nie jest kwestia jakiegoś apokaliptycznego nastawiania i chęci nastraszenia Czytelników – a zwykły realizm.


Skoro jesteśmy przy realizmie, jest pewien realny problem, który dotyczy niestety coraz większego kręgu osób. Mam na myśli phishing. Jak można się ustrzec przed phishingiem nowej generacji – czyli taką zmodernizowaną przez zastosowanie AI „metodą na wnuczka”? Szacuje się, że od kiedy ChatGPT jest ogólnodostępny, liczba maili phishingowych wzrosła o 1.265 procent
 
Na przestrzeni ostatnich lat, a zwłaszcza wraz z dynamicznym rozwojem gospodarki cyfrowej kwestia bezpieczeństwa zyskała zupełnie inny wymiar. Przeniknęła bowiem do świata wirtualnego, wymuszając gruntowną zmianę podejścia w wielu sektorach strategicznych z punktu widzenia funkcjonowania państwa. Choć jeszcze niedawno zagrożenia występujące dziś z przedrostkiem „cyber” funkcjonowały raczej na kartach powieści science-fiction i w filmowych scenariuszach, obecnie raczej nikt nie ma już wątpliwości, że nie ograniczają się one jedynie do wirtualnej przestrzeni, lecz także - a może przede wszystkim - do świata realnego, stanowiąc przy tym jak najbardziej realne zagrożenie.
Niedostrzeganie faktycznego problemu i skali potencjalnego ryzyka, zwłaszcza w sektorach rządowym i bankowym, stwarza bardzo poważne zagrożenie dla strategicznych części europejskiej infrastruktury internetowej. Dlatego wielokrotnie sugerowano podjęcie zdecydowanych działań, w celu poprawienia tej sytuacji. Choć przez wiele lat kwestia cyberbezpieczeństwa na wielu płaszczyznach często była bagatelizowana, to właśnie administracja i bankowość dość szybko dostrzegły powagę sytuacji. Zaczęto też tworzyć odpowiednie protokoły zabezpieczeń. Początkowo mocno zdecentralizowane, jednak z czasem znacznie bardziej uniwersalne. Jednak nawet, gdy wszystkie cyberzabezpieczenia działały poprawnie, często okazywało się, że problem nadal istnieje. Zgodnie ze stwierdzeniem jednego z najsłynniejszych hakerów na świecie Kevina Mitnicka, który przeszedł na drugą stronę i obecnie zajmuje się cyberbezpieczeństwem – najsłabszym ogniwem w kwestii bezpieczeństwa cyfrowego najczęściej jest… człowiek. Człowiek, który bardzo często jest kompletnie nieświadomy ryzyka, z jakim wiąże się korzystanie z urządzeń mobilnych oraz samego internetu.


Czytając o ludziach oszukanych na spore pieniądze przez to, że uwierzyli w jakąś historyjkę lub kliknęli w o jeden link za dużo, można odnieść wrażenie, że czeka nas sporo pracy nad poprawą odporności na cyberoszustwa.


Z reguły w tym momencie do głowy przychodzi najczęściej argument z kategorii: „nic mi nie grozi, bo nie mam nic do ukrycia”. Okazuje się jednak, że tego typu myślenie należy jak najszybciej odłożyć między bajki.
Niestety w skali krajowej, nadal istnieje zbyt niski poziom świadomości istniejących zagrożeń, zwłaszcza w sektorze prywatnym i biznesie, wśród małych i średnich przedsiębiorstw (ponad 65 proc. rynku ekonomicznego UE). Niechęć do ponoszenia nakładów finansowych na zabezpieczenia sieci oraz na środki ochrony zasobów powoduje, że struktury teleinformatyczne należące do tych przedsiębiorstw stają się „najsłabszym ogniwem” infrastruktury internetu, które w następstwie może zostać zaatakowane lub wykorzystane do pośredniczenia w innym, bardziej spektakularnym ataku. W tym zakresie Europejska Agencja ds. Bezpieczeństwa Sieci i Informacji (ENISA) widzi konieczność prowadzenia odpowiednich szkoleń oraz programów uświadamiających.

Ekspert ds. bezpieczeństwa cyberprzestrzeni i walki z terroryzmem Richard Clarke rzuca nieco więcej światła na kwestię wykorzystania nowoczesnych technologii w różnego rodzaju konfliktach (także gospodarczych). Cytowany przez „The Economist” ekspert wylicza, że obecnie poziom zaawansowania technologii informacyjnych i ich odpowiednie wykorzystanie przeciwko potencjalnym wrogom może doprowadzić, w ciągu zaledwie 15 minut, do katastrofalnej w skutkach awarii strategicznych systemów odpowiedzialnych za bezpieczeństwo państwa oraz całą jego infrastrukturę, transport i logistykę. Wirusy i tzw. robaki komputerowe są w stanie na przykład umożliwić manipulację danymi na światowych giełdach oraz posłużyć do odcięcia danej części kraju od dostaw energii elektrycznej, wizja eskalacji cyberzagrożeń staje się więc dość apokaliptyczna.

Richard Clarke stwierdza, że w takiej sytuacji społeczeństwo szybko się załamie, bo wypłacenie pieniędzy z bankomatu okaże się niemożliwe, a żywność stanie się towarem deficytowym. Drastycznym, a zarazem dobitnym przykładem obrazującym, do czego może doprowadzić choćby odcięcie obywateli od swobodnego korzystania z bankomatów i uniemożliwienie im wypłacenia większych sum pieniędzy można było zaobserwować na przykładzie kryzysu w Grecji, albo w pierwszym miesiącu pandemii koronawirusa, gdy (także w Polsce) rozpowszechniano informacje o rzekomych limitach wypłat z bankomatów i banków. Jedna informacja rozprzestrzeniająca się w internecie lotem błyskawicy wystarczyła, by przed większością bankomatów w dużych aglomeracjach ustawiły się spore kolejki.
 
A jakie wyzwania związane z AI będą Pana zdaniem najbardziej palące w nowym, 2024 roku?


Zdecydowanie sporym wyzwaniem będą z pewnością ataki typu ransomware (przejęcie danych i ich blokada z żądaniem okupu lub ultimatum z groźbą ich udostępnienia).
Jeśli chodzi o sztuczną inteligencję z pewnością należy spodziewać się wykorzystania AI w kampaniach dezinformacyjnych. Nie bagatelizowałbym również deep fake. Do tego dochodzi jeszcze możliwość generowania wirtualnych awatarów naśladujących mimikę i mowę ciała osób, na których są wzorowane.
Jednym słowem wyzwań i zagrożeń nie brakuje. Mimo wszystko zalecałbym spokój i włączenie zdrowego rozsądku. AI to narzędzie. Nożem możemy ukroić chleb lub kogoś zabić. Podobnie jest z wykorzystaniem sztucznej inteligencji. Możemy zdziałać przy jej użyciu zarówno wiele dobrego, jak i złego. Ostatecznie wszystko jest w ludzkich rękach, a jak już wspomniałem to właśnie człowiek jest tu najsłabszym ogniwem.

 

Rozmawiała: Olga Doleśniak-Harczuk

03.01.24
 

Przypisy: