Eksperci: Jesteśmy bombardowani deepfake’ami. Wystarczy 6 sekund, by kogoś podrobić

Eksperci: Jesteśmy bombardowani deepfake’ami. Wystarczy 6 sekund, by kogoś podrobić
Fot. depositphotos.com
PAP / tk

Wystarczy 6 sekund wypowiedzi, aby przy użyciu sztucznej inteligencji wygenerować replikę głosu nagranej osoby. Na podstawie jednego zdjęcia osoby oraz próbki głosu można stworzyć wideo o naturalnej ekspresji. Jesteśmy bombardowani deepfake’ami - mówili eksperci podczas targów Polsecure w Kielcach.

Deepfake to m.in. technika manipulacji obrazem, która wykorzystuje sztuczną inteligencję. Cyberbezpieczeństwo i zagrożenia związane z deepfake’ami były tematem konferencji eksperckiej zorganizowanej w ramach międzynarodowych targów służb mundurowych Polsecure w Kielcach.

Jak poinformowała dr Ewelina Bartuzi-Trokielewicz z państwowego instytutu badawczego NASK, technologia sztucznej inteligencji (AI) zdolna do generowania głosów osiągnęła poziom, gdzie już nawet krótkie nagranie, może wystarczyć do stworzenia przekonującej imitacji głosu danej osoby. Posiadając próbkę referencyjną, jesteśmy w stanie generować dowolną treść.

Wystarczy 6 sekund, by podrobić czyiś głos

Zaznaczyła, że najnowszym narzędziom AI wystarczą nagranie poniżej minuty, aby powstała wierna replika głosu, niektóre potrzebują tylko od 6 do 15 sekund. Natomiast najbardziej wymagające i najwierniejsze repliki głosu są tworzone na bazie próbek od kilku minut do nawet kilku godzin nagrań.

DEON.PL POLECA


Najbardziej narażone na naruszenie wizerunku są osoby publiczne politycy, czy celebryci, ponieważ w sieci dostępne są liczne materiały wideo i audio z ich udziałem. Te nagrania mogą służyć jako bogate źródło danych do trenowania algorytmów AI potrzebnych do stworzenia przekonujących deepfake'ów.

Dr Bartuzi-Trokielewicz zwróciła uwagę, że materiały takie pojawiały się podczas wyborów samorządowych. Przedstawiając kandydatów w niekorzystnym świetle, mogły dyskredytować ich w oczach mniej świadomych odbiorców i wyborców. Jej zdaniem ta sytuacja może się powtórzyć przed wyborami do Parlamentu Europejskiego.

- Niestety ludzie mają tendencje do wierzenia w to, co widzą i słyszą, a to generuje zagrożenia i może wpływać na proces wyborczy – zaznaczyła.

Jak oszukują hakerzy?

Zwróciła uwagę, że przekonujące imitacje głosu mogą być używane do oszukiwania ludzi, zwłaszcza gdy oszust udaje osobę z rodziny lub znajomego, prosząc o pieniądze. - Zauważono ostatnio nową formę oszustwa, która ulepsza tradycyjną metodę wyłudzenia kodu blik na Facebooku. Oszuści włamują się na konta, wysyłają wiadomości głosowe imitujące głos posiadacza tego profilu i przekonują bliskich tej osoby do przekazania środków – powiedziała.

Dodała, że w Polsce są też bardzo często wykorzystywane do tworzenia fałszywych reklam inwestycyjnych. Na podstawie zdjęcia osoby oraz jej głosu można wygenerować proste wideo z wiernie odwzorowanymi emocjami i o naturalnej ekspresji.

Z danych przedstawionych podczas środowych paneli dyskusyjnych organizowanych w ramach targów Polsecure wynika, że w ciągu godziny w internecie produkowanych jest 9 milionów e-maili zawierających złośliwe oprogramowania zaprojektowane do infiltracji, uszkodzenia lub wykorzystywania systemów komputerowych. Miesięcznie notowanych jest 100 tys. ataków z wykorzystaniem deepfake'ów.

W międzynarodowych targach służb mundurowych Polsecure w Targach Kielce bierze udział 142 wystawców oraz przedstawicieli służb mundurowych z 13 krajów. Podczas wydarzenia prezentują się firmy specjalizujące się w produkcji wyposażenia specjalnego, środków ochrony osobistej, sprzętu ratowniczego, dedykowanych policji, Straży Granicznej, Państwowej Straży Pożarnej czy Służbie Ochrony Państwa. Targi potrwają do czwartku.

Źródło: PAP / tk

Tworzymy DEON.pl dla Ciebie
Tu możesz nas wesprzeć.
Tiago Forte

Uporządkuj swoje informacje, znajduj je w kilka sekund i uwolnij swoją kreatywność!

Po raz pierwszy w historii możemy sięgać do wiedzy w każdej chwili, z każdego miejsca na świecie. Nigdy nie było lepszego czasu na...

Skomentuj artykuł

Eksperci: Jesteśmy bombardowani deepfake’ami. Wystarczy 6 sekund, by kogoś podrobić
Wystąpił problem podczas pobierania komentarzy.
Nikt jeszcze nie skomentował tego wpisu.