Отркиха нов тип ултразвукова атака за хакване на гласовите асистенти и смарт устройствата

Стефан Николов Последна промяна на 06 април 2023 в 09:04 761 1

voice assistant

Снимка Bence Boros/Unsplash

Отркиха нов тип ултразвукова атака за хакване на гласовите асистенти и смарт устройствата

Американски учени от Тексаския университет в Сан Антонио и Колорадският университет в Колорадо Спрингс демонстрираха нов тип атака с името NUIT (Near-Ultrasound Inaudible Trojan). Специфичното при нея е, че използва уязвимости в гласовите асистенти и микрофоните на смарт устройствата, за да осъществи незабележим отдалечен достъп.

Изследователите твърдят, че Siri на Apple, Google Assistant, Cortana на Microsoft и Amazon Alexa в различна степен са уязвими към NUIT атаката. Това означава, че милиони устройства - от телефони и лаптопи до колонки и интелигентни ключалки - могат да бъдат управлявани дистанционно чрез специални сигнали на границата на ултразвука, принуждавайки тези устройства да провеждат нежелани телефонни разговори, да правят парични преводи, да изключват алармени системи, да отключват врати и т.н.

Ултразвуковите атаки са описвани нееднократно от експертите по информационна безопасност, като NUIT също използва подобни методи, но има някои разлики. Така например изследователите демонстрираха две отделни атаки пред специалисти от The Register: NUIT-1, която използва микрофона на смарт колонката на жертвата, за да атакува нейния гласови асистент, както и NUIT-2, която се използва за атакуване на микрофона и гласовия асистент на друго устройство.

Атаките от този тип се осъществяват чрез преобразуване на гласовите команди в недоловими за човешкото ухо сигнали, на границата на ултразвука, на които гласовите асистенти все пак реагират. Изследователите предлагат вграждането на такива скрити команди в приложения или видеоклипове, например в YouTube. Това означава, че когато уязвимото устройство ги "чуе", то ще бъде принудено да им се подчини. Експертите са на мнение, че хакерите биха могли да използват социално инженерство, за да принудят жертвата да пусне желания видеоклип. И дори подчертават, че това няма да е много трудно.

"След като жертвата пусне подобен видеоклип, хакерът ще може да манипулира Siri, за да отвори например една врата в интелигентен дом", посочват експертите.

Основното предизвикателство пред специалистите е било да направят тези атаки от началото до края напълно безшумни, така че хората да не могат да чуят нищо. За атаките като NUIT-1 срещу Siri, те успяха напълно. Изследователите са установили, че за осъществяването на този тип атаки могат да използват говорителите на iPhone и да управляват честотата и силата на звука по такъв начин, че потребителите не могат да чуят абсолютно нищо, но Siri изпълнява тези безшумни за хората команди и дори може да отговаря по същия ултразвуков безшумен начин.

Другите три гласови асистента (Google, Cortana и Alexa) също са податливи на компрометиране, но атаките от типа на NUIT-1 не успяват да блокират реакцията на устройствата на ултразвуковите команди, което означава, че жертвата може да забележи, че се случва нещо странно и нередно.

За да не станат жертва на подобна атака, изследователите препоръчват на притежателите на такива устройства да използват слушалки, а не високоговорители (тъй като звукът от слушалките е твърде тих и далечен, за да бъде препратен към близките микрофони и да активира гласовия асистент). Трябва да се обмисли и включването на гласова автентикация, за да се предпази устройството и гласовия асистент от неоторизирано използване.

Производителите от своя страна биха могли да разработят инструменти за откриването на атаките от типа на NUIT, които да разпознават сигналите с честота, близка до тази на ултразвука, и да отхвърлят тези команди като злонамерени.

Всички новини
Най-четени Най-нови
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

22547

1

dolivo

06.04 2023 в 19:16

малей спирам го веднага