logo
KURIER
Polska reklama i poligrafiaKURIER

Deepfake - nowy etap wojny informacyjnej?

   29.07.2019, przeczytano 797 razy
ilustracja
dr hab. Dominik Ślęzak

To może być kolejny etap wojny informacyjnej przed wyborami prezydenckimi w 2020 roku. Technologia deepfake daje praktycznie nieograniczone możliwości, a można ją wykorzystywać domowymi sposobami. Zmanipulowane filmy wideo, dzięki sztucznej inteligencji są nie do odróżnienia od prawdziwych nagrań. Mogą służyć do produkcji na masową skalę fake newsów. Trwają pracę nad oprogramowaniem, które ma pomóc ocenić prawdziwość pojawiających się filmów.


Artykuł pochodzi z portalu Signs.pl: https://www.signs.pl/deepfake---nowy-etap-wojny-informacyjnej,383398,artykul.html

– Deepfake używa bardzo zaawansowanych narzędzi sztucznej inteligencji, które mogą być używane w różnych celach. Generuje zawartość medialną, która nie jest prawdziwa. Może ludzi po prostu oszukiwać, wprowadzać w błąd. To przykład tworzenia fake newsów, przy czym deepfake koncentruje się na generowaniu kontentu wideo – tłumaczy w rozmowie z agencją Newseria Innowacje dr hab. Dominik Ślęzak z Instytutu Informatyki Uniwersytetu Warszawskiego.

Amerykańska Izba Reprezentantów ostrzega, że technologia deepfake może być wykorzystywana przez wywiady wrogich państw i stanowić zagrożenie dla dyskusji publicznej i bezpieczeństwa narodowego USA. O technologii pozwalającej wyprodukować w pełni profesjonalne filmy wideo zrobiło się głośno już w 2017 roku. To wtedy w sieci zaczęły krążyć sfałszowane filmy pornograficzne, gdzie aktorkom cyfrowo podmieniono twarze na te należące do celebrytek. To jednak był dopiero początek.

– Sztuczną inteligencję, a konkretnie sieci neuronowe, można wykorzystać też pozytywnie. To np. ulubiona gra online, gdzie główny bohater może mnie przypominać. Innym przykładem są symulacje w medycynie. Np. możemy mieć bazę danych zapisów wideo przypadków bardzo poważnych schorzeń i spróbować dostosować te zapisy do parametrów nowego pacjenta – wymienia dr hab. Dominik Ślęzak.

Ostatnie przykłady pokazują jednak, że technologia deepfake to przede wszystkim niemal nieograniczone możliwości do wypuszczania fałszywych informacji. Niedawno w internecie można było obejrzeć rzekomą pijaną Nancy Pelosi, spikerkę Izby Reprezentantów. Mówiła niewyraźnie i bardzo powoli, tymczasem okazało się, że po prostu jej wypowiedź została spowolniona o kilkadziesiąt procent. Wcześniej jednak filmik z jej udziałem udostępnił choćby były burmistrz Nowego Jorku Rudy Giuliani. W sieci krążyły też fałszywe nagrania z Barackiem Obamą, Donaldem Trumpem czy Markiem Zuckerbergiem.

– Jeżeli ktoś używa tej technologii bez zgody osób, których zdjęcia są wykorzystywane, np. do tworzenia nieprawdziwych filmów czy właśnie przekręcania czyichś orędzi, czyli nie tylko wyciągania z kontekstu jakiejś wypowiedzi, ale wkładanie w czyjeś usta zupełnie nowych wypowiedzi, to są to narzędzia bardzo niebezpieczne – wskazuje ekspert.

Kilka tygodni temu pojawiła się aplikacja DeepNude. Dzięki niej można było „rozebrać” kobiety – wystarczyło zdjęcie, by dzięki sztucznej inteligencji zobaczyć, jak wygląda ona nago. Po licznych protestach aplikacja została zamknięta, ale w sieci krążą jej kolejne wersje. To tylko przykład aplikacji, która mogła być bardzo pomocna i służyć np. do skanowania ludzi do celów bezpieczeństwa, tymczasem była wykorzystana zupełnie inaczej.

– Sztuczna inteligencja będzie nam dawała coraz silniejsze narzędzia, analizę danych, symulowania rzeczywistości, zmieniania rzeczywistości. Jest to jednak nasza odpowiedzialność, jak będziemy tych narzędzi używać – podkreśla dr Ślęzak.

Pojawiają się aplikacje, które mają pomóc rozpoznać fałszywe materiały. Niektóre bardzo dokładnie sprawdzają mimikę, inne – częstotliwość mrugania i na tej podstawie oceniają stopień prawdopodobieństwa, że nagranie zostało spreparowane. Dopóki jednak nie zostaną opracowane takie przepisy, które pozwolą całkowicie unieszkodliwić technologię, wyścig będzie trwał.

– To podobnie jak w branży cyberbezpieczeństwa. Z jednej strony są hakerzy, którzy atakują nasze maszyny, próbują je zawirusować, a my próbujemy to wykryć i przeciwdziałać. Tak samo w dziedzinie deepfake’a można do tego podejść. Trzeba się nauczyć odróżnić prawdziwy kontent od tego spreparowanego i odpowiednio reagować – mówi dr hab. Dominik Ślęzak.

Źródło: Uniwersytet Warszawski, Newseria

REKLAMA

Komentarze

Zaloguj się i dodaj komentarz

Najnowsze w tym dziale

Digital Incubator WBD partnerem Programu InCredibles
Digital Incubator Warner Bros. Discovery w Polsce – działająca w strukturach grupy jednostka organizacyjna koncentrująca się na rozwoju innowacyjnych produktów i współpracy ze startupami – łączy siły z InCredibles. Jako stały partner programu monitoringowego, Digital Incubator WBD w Polsce pomoże młodym przedsiębiorcom rozwijać swoje produkty dzięki...
DoubleVerify, platforma software’owa zajmująca się pomiarami i analizami danych dotyczących mediów digital, ogłosiła wprowadzenie 16 nowych kategorii z obszaru Brand Safety i Suitability dla reklamodawców na TikToku, aby wspierać nowe filtry zasobów reklamowych tej platformy: Vertical Sensitivity oraz Category Exclusion, które zostaną uruchomione...
TVN Warner Bros. Discovery z nagrodami World Media Festivals 2024
Dziewięć złotych i pięć srebrnych nagród trafiło do dziennikarzy oraz tytułów TVN Warner Bros. Discovery na World Media Festivals w Hamburgu. Wśród laureatów znalazły się między innymi reportaże dziennikarzy "Czarno na białym" i "Superwizjera" TVN.
WP Ads to self-service Wirtualnej Polski, który pozwala klientom na samodzielne zarządzanie kampaniami reklamowymi. Ostatnio został wzbogacony o możliwość dodawania kampanii wideo w materiałach publikowanych w serwisach internetowych. Obecnie w WP Ads zarejestrowanych jest już 1500 klientów.
Oktogram: gra karciana kontra dezinformacja i clickbaity
Każdego dnia spada na każdego z nas ogrom informacji i chyba nikt już nie jest w stanie ustrzec się przed manipulacją, fake newsami, udostępnianiem dalej nieprawdziwych treści. Jak nie dać się nieustannie wkręcać? Okazuje się, że odpowiedzią jest odpowiednia praca z emocjami, a dobra wiadomość jest taka, że można to wytrenować w całkiem przyjemny sposób m.in. grając...
 
Signs.pl - Polska Reklama i Poligrafia © 1997-2024 ICOSWszystkie prawa zastrzeżone. ISSN 2657-4764