Заплахата Deepfake

Мария Иванова Последна промяна на 19 октомври 2022 в 17:44 1448 0

Deep Learning

Снимка Pixabay

Машинно самообучение, илюстративна снимка

Deepfake или фалшивите, компютърно генерирани аудио или видео представяния на хора и събития през последните години се превърнаха в обичаен инструмент за дезинформация в интернет. Това най-често са създадени с помощта на изкуствен интелект (AI) и машинно обучение (ML) снимки и видеоклипове. Според експертите по киберсигурност те се превръщат във все по-реална заплаха, тъй като вече се използват за кибератаки, измами, кражби и други престъпления.

Според годишния доклад на софтуерната компания VMware, сигналите за атаки, използващи технологията за промяна на лицето и гласа, са скочили с 13% в сравнение с миналата година. Проучването, което е проведено сред 125 специалисти по киберсигурност, показва, че 78% от deepfake атаките са осъществени по имейл. При тях нападателят се преструва на някой, който не е, опитвайки се да получи информация за компанията или плащане по фалшива фактура. След което се използва deepfake, за да се подсили ефекта на измамата и да се убеди жертвата.

Дали за добро или лошо, друго изследване показва, че за момента подобни сложни инструменти не се използват толкова масово. Те се прилагат при по-трудни или известни субекти. За сметка на това, масовите онлайн потребители доброволно си дават данните, ако бъдат учтиво помолени. Сдруги думи - добрият-стар фишинг все още работи доста ефективно.

Заплаха за сигурността

Deepfake стана популярно явление през последните години, главно под формата на забавни клипчета на знаменитости в интернет. И докато първите такива видеоклипове бяха лесни за разпознаване, днес технологията е претърпяла сериозно развитие и вече е доста по-убедителна. А експертите предупреждават, че може да се превърне в сериозна заплаха за сигурността и дори да предизвика политически и международни конфликти.

През март например в социалните мрежи се появи видео, показващо как президентът на Украйна Володимир Зеленски нарежда на войниците си да се предадат на руските сили. И въпреки че клипът бързо беше разкрит от украинския президент като фалшив, той показва мащабите на вредата, която Deepfake може да причини.

Deepfake и известните личности

Две скорошни събития извадиха на дневен ред темата за Deepfake и живота на известните личности. Първото е свързано със съобщението, че Брус Уилис е продал правата върху личността си на Deepfake компания, позволявайки на неговия „дигитален близнак“ да се появява в нейни бъдещи проекти. Новината впоследствие се оказа фалшива и актьорът категорично отрече да е продавал правата си за Deepfake.

Второто събитие се отнася до актьора Джеймс Ърл Джоунс и това, че е предоставил права върху свои гласови записи на AI компания. Целта е те да бъдат използвани в нейни бъдещи проекти, включително за озвучаване на Дарт Вейдър във филми и телевизионни сериали от вселената на Междузвездни войни.

През март тази година феновете на актьора Робърт Патинсън, който многократно е обявявал, че не ползва социални мрежи, бяха много развълнувани да го видят във видео в TikТok. Акаунтът събра над 660 хил. последователи, преди потребителите да се усъмнят в автентичността на видеоклиповете и да разкрият измамата.

Измамници достигнаха по-далеч като удариха крипто пазара с Deepfake видео на милиардера Илон Мъск. С него те искаха да популяризират своите измами, но инвеститорите лесно идентифицираха признаците, че е фалшив.

Предимства и предизвикателства

Всички тези примери с популярни личности, макар и много различни, демонстрират напредъка на Deepfake технологията. И логично възкликва въпроса - може ли разумното ѝ използване да доведе до положителни резултати? За режисьор, чийто филм е изгубил актьора в главна роля, технологията може да предложи лесно решение. В противен случай може да се стигне до презаснемане, промяна в сценария или дори отмяна на филма.

Масовото използване на Deepfake в холивудските продукции обаче може да доведе до редица казуси и спорове в съда. Какво ще стане например, ако дадена Deepfake роля бъде номинирана за Оскар? Кой трябва да вземе наградата - актьорът, който е подписал договор и е продал правата си, дубльорът му, който е свършил цялата работа на терен или служителите на Deepfake компанията, които са съживили героя в разцвета на силите му? Отговорите предстои тепърва да научаваме от заседателните зали.

Deepfake извън Холивуд

крие огромни опасности за обикновените потребители. Такъв е случаят на 74-годишната манга художничка Чикай Айд, която получава Facebook съобщение от актьора Марк Ръфало (“Невероятния Хълк”). Първоначално скептична, тя получава и 30-секундно видео обаждане, което разсейва всичките ѝ подозрения и я убеждава, че самият Марк Ръфало е разговарял с нея. Без да подозира, че това e Deepfake видео, художничката постепенно откликва на молбите му за финансова помощ и в резултат е била измамена с над 500 хил. щ. долара.

Жертва на Deepfake измама става и главният директор комуникации на блокчейн платформата Binance Патрик Хилман. Той разбира, че нещо не е наред, когато започва да получава писма от свои клиенти по повод онлайн срещи, в които не е участвал. Някои от тях изразяват съмнения относно инвестиционните му съвети, други директно го молят да потвърди, че обаждането в Zoom е било от него. Така, благодарение на бдителността на своите клиенти, Хилман осъзна, че някой е фалшифицирал образа и гласа му достатъчно добре, за да издържи 20-минутни разговори в Zoom, опитвайки се да ги убеди да предадат своите биткойни за измамни инвестиции.

Негативни последици за бизнеса

Потребителите на социалните мрежи лесно могат да бъдат привлечени от подобни Deepfake видеоклипове, каращи ги да повярват в бързи схеми за печелене на пари, които обаче се оказват измама. Специалистите по киберсигурност предупреждават, че тъй като тези технологии напредват, те могат да имат значителни негативни последици и за бизнеса. Напоследък зачестяват случаите на кражби на криптовалути и банкови измами именно с помощта на Deepfake технология за клониране на гласа.

Специалистите са нащрек и за провеждането на фалшиви интервюта за работа, които се определят като следващ етап на социалното инженерство в професионалните среди. Те съветват хората винаги да поставят под съмнение автентичността на всички видеоклипове, изображения и аудио информация в интернет. Има няколко начина да разберем дали това, което гледаме и слушаме е фалшиво. Обърнете внимание на прекъсвания във видеото, вариации в осветеността, както и модулация на гласа, съветват експертите.

Нови видове фалшификати

Главният научен директор на Microsoft Ерик Хорвиц предупреждава за появата на т.нар. композиционни дълбоки фалшификати. Те не само създават илюзията за разговор с истински човек, а и могат да създадат представата за терористична атака, която никога не е съществувала. Такава синтетична история може да бъде допълнена с действия от реалния свят (като подпалване на сграда например). Хорвиц посочва, че към днешна дата Deepfake представлява създадени и споделяни самостоятелни творения. Скоро обаче „можем да очакваме възход на новите форми на убедителни дълбоки фалшификати, които ще надхвърлят фиксираните, единични продукции“ - посочва той.

Според ръководителя на Microsoft, за разкриването им може да са необходими нови протоколи за автентичност за потвърждаване на самоличността, дори нови многофакторни практики за идентификация за допускане до онлайн срещи. Може също така да са необходими нови стандарти за доказване на произхода на съдържанието, включително нови методи за водни знаци и пръстови отпечатъци, нови регулации и саморегулации, както и непрекъснат мониторинг.

Откъде идва Deеpfake?

Терминът произлиза от “Deep learning” (DL) - технология, използвана за създаването на изкуствен интелект. Един от най-лесните начини за създаване на такъв тип фалшификати е чрез размяна на лица. За целта AI изучава множество клипове с обекта на измамата, след което заменя външния му вид с друг. По същия начин може да бъде пресъздаден глас във фалшиво аудио.

Всички новини
Най-четени Най-нови
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !