Technologia deepfake polega na sieciach neuronowych, aby z dostępnych zdjęć i filmów stworzyć wysoce przekonujące obrazy lub filmy wideo kogoś mówiącego lub robiącego coś, czego nigdy w rzeczywistości nie powiedział lub nie zrobił. Niektóre przykłady wyprodukowane dla celów rozrywkowych są nieszkodliwą zabawą, jak na poniższym filmie czy powyższym zdjęciu, ale inni wykorzystują tę technologię do niecnych celów. W niedawnym komunikacie FBI Internet Crime Complaint Center (IC3), agencja ostrzegła o wzroście liczby otrzymywanych skarg dotyczących wykorzystania deepfake’ów i skradzionych danych osobowych w celu ubiegania się o pracę zdalną z nałożoną na twarz "maską" innej osoby i ze zmienionym głosem. Chociaż deepfake’i w stosunkowo krótkim czasie bardzo się rozwinęły, nadal istnieją pewne niedoskonałości, które uważni obserwatorzy mogą od czasu do czasu wychwycić. Na przykład podczas rozmów kwalifikacyjnych na żywo online, działania i ruchy warg osoby przesłuchiwanej nie zawsze są zsynchronizowane z dźwiękiem słyszanego głosu. Ponadto działania takie, jak kaszel czy kichanie są kolejnym wskaźnikiem, że dzieje się coś podejrzanego, ponieważ nie są zgodne z tym, co widać. Ułatwieniem dla przestępców jest niewątpliwie także to, że jesteśmy przyzwyczajeni do rozmaitych zakłóceń podczas spotkań w sieci. FBI podało w raporcie, że stanowiska na jakie kandydowali fałszerze obejmowały branże technologii informacyjnych i programowania, obsługi baz danych i innej pracy związanej z oprogramowaniem. Niektóre z tych stanowisk dałyby kandydatowi dostęp do danych osobowych klientów, danych finansowych firmy, baz danych IT lub innych zastrzeżonych informacji, z których wszystkie mogą być cenne na czarnym rynku.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj