Новите телефонни измами – с изкуствен интелект

Юлиян Арнаудов Последна промяна на 06 март 2023 в 12:13 1788 0

PHone call

Снимка Taylor Grote/Unsplash

Новите телефонни измами – с изкуствен интелект

Телефонните измамници са майстори на психологията и знаят как да предизвикат страх и паника в жертвите си. След което да използват тяхното временно уязвимо състояние и да ги накарат доброволно да предадат пари и ценности. Телефонната връзка е идеална за тази цел – дистанционна е, без пряк контакт, старите модели правят по-трудно разпознаването на гласа и др. Тайната съставка на успеха на тези измами е автентичността. Колкото по-добре престъпниците имитират роднината и близкия на жертвите – толкова по-голям шанс имат за реализирането на своите намерения.

Новите технологии позволяват вече да се пресъздаде глас на конкретна личност с доста голяма точност. На помощ идват системите за изкуствен интелект (AI), които стават все по-достъпни и евтини. В САЩ вече има нова вълна от подобни телефонни измами, в някои от които вече се използват такива алгоритми за придаване на максимална автентичност на разговора.

AI програмите могат на базата на няколко изречения от оригиналната личност да анализират уникалните характеристики на гласа му. От пола, през годините, тембъра, различни паузи, дефекти и други специфики. Ако човекът е известен и има участия по телевизията, подкасти, YouTube канал и др., то това ще е предостатъчна информация за AI да клонира гласа му. След което измамниците вкарват или директно разговорят чрез модулатор по телефона с жертвата.

Демонстрация на подобни фалшификати вече има достатъчно. ElevenLabs разработва онлайн инструмент, който може да се ползва безплатно или срещу месечна такса от 5 до 330 долара. Платената версия позволява да се генерира повече съдържание. Компанията стана печално известна, след като клонира гласовете на звезди като Емма Уотсън, която например цитираше пасажи от книгата на Адолф Хитлер „Моята борба“. Естествено, без самата актриса да го е правила наистина. ElevenLabs обяви, че вече е въвела предпазни механизми, които да предотвратят подобно използване на тяхното решение.

Според Washington Post, AI клонирани гласове се използват вече в телефонните измами в САЩ. Въпреки, че не е потвърдено на 100% дали наистина престъпниците са използвали AI или не. Няколко жертви на подобно престъпление в страната обаче се кълнат, че са говорили със своите близки по телефона. Въпреки, че разговорите и молбата за предоставянето на големи суми пари на доверие са били съмнителни, именно автентичността на гласовете ги е убедила да ги предадат. Маскирането на телефонния номер е друг трик, който се използва за подсилване на измамата.

Какви са начините за справяне? Набиране обратно на роднината или близкия в тежка ситуация или търсене на алтернативни комуникационни канали, като чатове например. Както и винаги да се има едно наум, че когато се отправя молба за прехвърляне на пари в изключително спешен и неотложен срок по банков път.

Всички новини
Най-четени Най-нови
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !