< Back

Można wykryć przestępcę, stracić majątek, pomóc w śledztwie lub dać się zmanipulować – AI jest narzędziem jak każde inne

Fot. PAP/DPA/Uli Deck
Fot. PAP/DPA/Uli Deck

Z jednej strony sztuczna inteligencja pomogła namierzyć poszukiwaną od trzech dekad byłą terrorystkę Frakcji Czerwonej Armii (RAF), z drugiej przy pomocy AI przestępcy w Hongkongu wyłudzili 25 milionów od jednego z pracowników koncernu. Mężczyzna przelał pieniądze na konto przestępców wierząc, iż polecenie przeprowadzenia transakcji wydali mu przełożeni, a przypadek ten ukazał jak łatwo można ograć zmysły i czujność człowieka. W Hongkongu oszuści posłużyli się wygenerowanymi przy pomocy AI wirtualnymi postaciami, w innych przypadkach do zmanipulowania ofiary wystarczy odtworzony głos bliskiej osoby puszczony przez telefon czy wiadomość tekstowa wygenerowana przez chatboota.

 

- Deepfake pojawia się w oszustwach internetowych i telekomunikacyjnych. Fałszywe obrazy i filmy, a nawet dźwięki sprawiają, że łatwiej uwierzyć w pewne treści – mówi Prof. Lennon Lee z Centre for Cyber Resilience and Trust School of Information Deakin University w Australii.

Działalność przestępcza z wykorzystaniem sztucznej inteligencji (AI) to coraz większe utrapienie zarówno tych, którzy padli ich ofiarą, jak i organów ścigania. Podszywanie się oszustów pod bliską lub znajomą osobę w celu wyłudzenia pieniędzy, manipulowanie głosem, generowanie deepfake’owych treści, to wierzchołek góry lodowej. Już w 2020 r na łamach magazynu „Crime Science” autorzy artykułu o „AI-Przestępstwach Przyszłości” przy wsparciu delegacji złożonej z reprezentantów środowiska akademickiego, specjalistów ds. bezpieczeństwa, przedstawicieli instytucji publicznych i sektora prywatnego, dokonali przeglądu osiemnastu kategorii nadużyć (realnych i takich, które wedle wiedzy i prognoz zaangażowanych w projekt miała przynieść przyszłość), po czym podzielono te kategorie wedle stopni zagrożenia. Do grupy o najwyższym potencjale zagrożenia zaliczono oszustwa związane z podszywaniem się pod innych oraz imitację głosu. Wg. autorów raportu technologia deepfake stanowi i w dalszej perspektywie będzie nadal stanowić największe wyzwanie, ponieważ „człowiek ma silną tendencję do wierzenia własnym oczom i uszom i to, co widzimy i słyszymy traktujemy jako wiarygodne”. Przy czym podkreśla się społeczną szkodliwość tego rodzaju przestępstw, zwłaszcza ze względu na generowanie daleko posuniętej nieufności, ale i z uwagi na nadszarpnięcie wizerunku osób publicznych, polityków, których wizerunkiem posłużono się w deepfake’owych treściach.

 Ofiarą przestępstw z wykorzystaniem AI pada też wiarygodność instytucji publicznych, które nie będą w stanie zdemaskować wszystkich manipulacji, co może się przełożyć na spadek zaufania do nich. Co ciekawe, za zagrożenie tej samej miary, co podszywanie się pod inne osoby, uznano w raporcie pojazdy autonomiczne. Autorzy tłumaczyli tak wysoką kwalifikację tych pojazdów jako mogące generować zagrożenie doświadczeniem z lat 2016-2017, kiedy przy pomocy pojazdów silnikowych dokonano głośnych zamachów terrorystycznych m.in. w Berlinie, Barcelonie, Paryżu, Nicei. Wprowadzenie do użytku pojazdów autonomicznych pozwoliłoby zdaniem ekspertów na rozszerzenie „terroryzmu samochodowego” z uwagi na brak potrzeby realnego udziału sprawcy w zdarzeniu. „Pojazdy autonomiczne potencjalnie pozwoliłyby na rozszerzenie terroryzmu samochodowego poprzez zmniejszenie potrzeby rekrutacji kierowców, umożliwiając pojedynczym sprawcom przeprowadzanie wielu ataków, a nawet koordynując dużą liczbę pojazdów jednocześnie” – czytamy w raporcie z 2020 r.

Cyber-sztuka wojenna

Prof. Lennon Chang analizując dzisiejsze możliwości popełniania przestępstw z pomocą AI, stwierdza: „Widzimy już, jak deepfake jest wykorzystywany do tworzenia fałszywych filmów, a także w kampaniach dezinformacyjnych. Na przykład podczas niedawnych wyborów na Tajwanie pojawiły się sekstaśmy sugerujące, że kilku kandydatów DPP [Demokratyczna Partia Postępowa] miało romans, jednak wszyscy kandydaci twierdzili, że filmy i zdjęcia zostały wygenerowane za pomocą deepfake. Z drugiej strony AI na wiele sposobów może być użyteczna w zwalczaniu cyberprzestępczości. Dzięki uczeniu maszynowemu możemy lepiej poznać schematy taktyki dezinformacyjnej, a tym samym pomóc w opracowaniu lepszych środków zapobiegawczych lub ostrzegawczych. Technologia sztucznej inteligencji może również pomóc w prowadzeniu dochodzeń w sprawie wykorzystywania dzieci w internecie. Dzięki AI zdjęcia przedstawiające wykorzystywanie dzieci można zestawiać z innymi dostępnymi w Internecie, aby zidentyfikować miejsce, w którym zostały zrobione” – mówi prof. Chang. Wykładowca specjalizuje się w obszarze cyberbezpieczeństwa i dezinformacji, na początku marca w magazynie „Melbourne Asia Review” opublikował artykuł: „Taiwan: A battlefield for cyberwar and disinformation”, w którym przywołując autora „Sztuki wojennej”, Sun Tzu, stawia tezę, iż „cyberprzestrzeń stanowi platformę dla nowych form wojny, które mogą urzeczywistnić ideał Sun Tzu, polegający na wygraniu wojny bez walki.” Chang podkreśla w swoim tekście, że Tajwan jako pole bitwy w wojnie cybernetycznej dziennie odpiera ponad pięć milionów cyberataków.

Zgubiły ją zdjęcia

27 lutego 2024 na berlińskim Kreuzbergu policja kryminalna zatrzymała 65-letnią Danielę Klette, byłą terrorystkę RAF. Klette ponad 30 lat ukrywała się pod fałszywym nazwiskiem i jest zaliczana do tzw. trzeciej generacji RAF uznawanej za „bardziej profesjonalną od swoich poprzedników”. Media obiegła informacja, że służby nie wpadłyby na ślad Klette, gdyby nie śledcza praca zespołu stojącego za podcastem ARD „Legion”, jeden z dziennikarzy ironizował nawet, że „sukcesem policji było to, że przesłuchali podcast”. Policjanci jednak twierdzą, że już w listopadzie, czyli przed opublikowaniem odcinka podcastu o Danieli Klette otrzymali informację o byłej terrorystce. Sami dziennikarze tłumaczą, że w namierzeniu Klette pomógł im słuchacz, Sebastian, który przekazał informację, że w 2017 roku poznał „na imprezie w Kolonii kobietę, która powiedziała o sobie, że jest byłą terrorystką”. Kobieta, którą na potrzeby zrobionego na ten temat w grudniu 2023 r podcastu nazwano roboczo „Monika” miała pokazać osobom obecnym na imprezie list gończy za trzema członkami RAF, po czym wskazując na zdjęcie ukazanej na niej kobiety powiedziała: „To ja”. 

Twórcy podcastu rozpoczęli zbieranie materiałów, w tym wszystkich dostępnych w internecie archiwalnych zdjęć Klette i przekazali je kanadyjskiemu dziennikarzowi Michaelowi Colborne’owi z zespołu dziennikarskiego Bellingcat, który z pomocą wspomaganej przez AI wyszukiwarki twarzy trafił na zdjęcie kobiety, która wyglądała na postarzoną Danielę Klette.  Zdjęcia opublikowano na stronie internetowej berlińskiego stowarzyszenia brazylijskiej sztuki walki Capoeira. Następnie dwaj dziennikarze przeprowadzili incognito dziennikarskie śledztwo w stowarzyszeniu szukając Klette. Na ścianach można było zobaczyć zdjęcia z różnych wyjazdów i warsztatów. Klette była na kilku z nich. W toku dziennikarskiego śledztwa okazało się, że Klette [w stowarzyszeniu nazywana Felizią] od co najmniej czterech lat nie uczęszcza już na zajęcia. Jedyne, co w tamtym momencie stało się jasne dotyczyło miejsca zamieszkania Felizii-Danieli. Nie Kolonia a Berlin był jej domem. W dniu zatrzymania Klette, potwierdziło się, że dziennikarze poszli dobrym tropem.

Jak podano, Klette przedstawiała się jako „Claudia”, prowadziła zwykłe życie, mieszkała ze swoim partnerem na berlińskim Kreuzbergu, udzielała korepetycji dzieciom, miała psa, nie rzucała się w oczy. W mieszkaniu Klette przy ulicy Sebastianstrasse znaleziono kałasznikowa, granaty i granatnik przeciwpancerny, sąsiedzi poszukiwanej od trzydziestu lat terrorystki byli mocno zdumieni, że ich miła sąsiadka spotykana na spacerze z pieskiem uczestniczyła w zamachach, akcjach terrorystycznych z podkładaniem ładunków wybuchowych, napadach rabunkowych [ ostatni przypisywany jej napad miał miejsce 25 czerwca 2016 roku, w Cremlingen, gdzie dokonano napadu na furgonetkę z pieniędzmi, sprawcy zrabowali wtedy 400 tys. euro]. Niezależnie od tego jak zakończy się historia Danieli Klette i czy policji uda się namierzyć również od trzech dekad poszukiwanych dwóch towarzyszy byłej terrorystki, faktem jest, że udało się ją zidentyfikować z pomocą AI. Tego samego narzędzia, które w niepowołanych rękach potrafi narobić masę szkód. W przypadku Klette sztuczna inteligencja zdmuchnęła kurz z kolejnego pudła z „analogowego archiwum X”. 

Łyżka dziegciu

We wrześniu 2023 r amerykański portal „Innocence Project” przytoczył historię kobiety z Detroit, która została na 11 godzin zatrzymana przez policję pod zarzutem kradzieży samochodu. Okazało się, że policyjny program porównywania zdjęć z monitoringu wytypował ją jako potencjalną winną. I tak studentka pielęgniarstwa, w ósmym miesiącu ciąży wylądowała na komendzie tłumacząc się z niepopełnionego przestępstwa. Po miesiącu prokuratura umorzyła śledztwo z braku wystarczających dowodów. Przeciwnicy bezkrytycznego polegania na możliwościach AI przestrzegają, że jak każde inne narzędzie, tak i to nie daje gwarancji 100 proc. niezawodności.

W przypadku sprawy Danieli Klette podnosi się argument, że dziennikarzom łatwiej niż policji było uruchomić machinę AI do poszukiwań byłej terrorystki z uwagi na brak uprawnień funkcjonariuszy do korzystania z pewnych rodzajów oprogramowania. To by z kolei oznaczało, że w Europie do weryfikacji możliwych sprawców przestępstw podchodzi się dużo ostrożniej niż w Stanach Zjednoczonych, gdzie z kolei sprawy zaszły już tak daleko, że część krytyków oskarża metodę weryfikowania ewentualnych winnych przestępstw z wykorzystaniem zaawansowanych technologii AI m.in. o rasizm. Innocence Project zwraca uwagę na siedem przypadków nieuprawnionego zatrzymania osób na podstawie porównania obrazów z kamer lub zdjęć. „To, co miało być narzędziem śledztwa, staje się dowodem winy” – pisze portal.


08.03.2024

Przygotowała: Olga Doleśniak-Harczuk