Хакеры могут взломать Alexa с помощью пения птиц

Вероника Елкина
Расскажите друзьям
Вероника Елкина

Исследователи Рурского университета в Германии обнаружили, что голосовых помощников можно взломать с помощью неразличимых для человеческого слуха команд, спрятанных в аудиофайлах. Такая уязвимость заложена в самой технологии распознавания речи, которую использует искусственный интеллект.

По словам профессора Торстена Хольца, подобный метод взлома называется «психоакустическим скрытием». С его помощью хакеры могут прятать в разных аудиофайлах — с музыкой или даже пением птиц — слова и команды, которые может расслышать только машина. Человек будет слышать обычное чириканье, а вот голосовой помощник сможет различить кое-что еще.

Хакеры могут проигрывать скрытое сообщение через приложение, в рекламе по телевизору или на радио. Таким образом они способны совершать покупки от лица других людей или красть конфиденциальную информацию. «В худшем случае злоумышленник может взять под контроль всю систему умного дома, включая камеры и сигнализацию», — пишут исследователи.

В этом видео представлена аудиозапись, в которой спрятана команда «Отключить камеру наблюдения и открыть входную дверь» — ее может различить только система распознавания голоса.

Злоумышленники могут использовать в своих целях «маскирующий эффект звука»: когда ваш мозг занят обработкой громких звуков определенной частоты, то на несколько миллисекунд вы перестаете воспринимать более тихие звуки на этой же частоте. Как обнаружили ученые, именно там можно прятать команды для взлома любой системы распознавания речи вроде Kaldi, которая лежит в основе голосового помощника Alexa от Amazon.

Похожий принцип позволяет сжимать MP3-файлы — алгоритм определяет, какие звуки вы сможете услышать и удаляет все неслышимое, чтобы уменьшить размер аудиофайла. Однако хакеры не удаляет неслышимые звуки, а заменяют их на нужные. В отличие от человека искусственный интеллект вроде Alexa способен слышать и обрабатывать каждый звук. Его обучили так, чтобы он мог понимать любую звуковую команду и выполнять ее, неважно слышат ли ее люди или нет.

Исследователи отмечают, что они еще не пробовали взламывать устройства с помощью измененных песен или чириканья птиц — пока что они испытали только сами неразличимые для человеческого уха команды. Однако они уверены, что этот хак сработает. «В целом в любом аудиофайле можно спрятать зашифрованное сообщение и вероятность успеха будет почти 100%», — пишут ученые.

Чтобы вы не ошиблись при выборе, Rusbase рекомендует своим читателям надежных юристов и адвокатов.

К счастью, реальных случаев взлома с помощью этой техники еще не было. Однако это уже не первый раз, когда надежность голосовых помощников ставится под сомнение. В июне прошлого года исследователи обнаружили, что могут успешно «нашептывать» Alexa команды на частоте, которую не воспринимает человеческое ухо.

Чтобы защититься от подобной атаки можно запретить Alexa совершать покупки, подключаться к банкам или открывать двери дома с помощью голосовых команд и сделать так, чтобы это было возможно только после ввода PIN-кода. Однако опция запроса PIN-кода по умолчанию отключена, так что не знающие о новом методе взлома пользователи находятся в зоне риска.

Представители Amazon сказали, что в компании серьезно относятся к вопросам безопасности и обязательно изучат находки ученых. Однако пока опасность все еще существует.

Источник.


Материалы по теме:

7 советов о том, как безопасно пользоваться открытыми Wi-Fi сетями

Facebook нас прослушивает? Инструкция для параноиков

«Люди даже не задаются вопросом, зачем флеш-плееру иметь доступ к микрофону. Именно этим пользуются хакеры»

Мы создали имитацию подключенного тостера, и уже через час его попытались взломать


Актуальные материалы — в Telegram-канале @Rusbase

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter


Комментарии

  • Калинников Александр
    Калинников Александр 13:16, 1.10.2018
    0
    Если я правильно понимаю, то для любого ML-алгоритма с конечным набором обучающей выборки можно подобрать такой входной сигнал, на котором система дает неверную интерпретацию. Очень показательный был пример, когда некоторая нейросеть упорно воспринимала собаку как кошку. Кстати, на тему безопасности Machine Learning еще в 2010 году вышла статья экспертов из Университета Калифорнии (Беркли) "The security of machine learning", ссылка https://people.eecs.berkeley.edu/~adj/publications/paper-files/SecML-MLJ2010.pdf В статье разбирается целый ряд возможных атак.
Зарегистрируйтесь, чтобы оставлять комментарии и получить доступ к Pipeline — социальной сети, соединяющей стартапы и инвесторов.
EMERGE
31 мая 2019
Ещё события


Telegram канал @rusbase