Истории

Фразы, которые могут по ошибке запускать Alexa, Siri и Google Ассистента

Истории
Александра Степанова
Александра Степанова

Редактор

Александра Степанова

Alexa, Siri, Google Ассистент и другие голосовые помощники стали привычной частью жизни миллионов людей. Однако защитники конфиденциальности опасаются, что устройства, постоянно прослушивающие наши разговоры, могут нести в себе больше рисков, чем пользы. По данным нового исследования, угроза гораздо серьезнее, чем считалось ранее.

Фразы, которые могут по ошибке запускать Alexa, Siri и Google Ассистента

Полученные результаты показывают, что умные колонки часто включаются, реагируя на диалоги в фильмах и некоторые фразы в речи. После этого они начинают записывать звуки вокруг и передавать их Amazon, Apple, Google или другим производителям. Исследователи обнаружили более тысячи словосочетаний, включая фразы из «Игры престолов», «Американской семейки», «Карточного домика» или новостных программ, которые приводят к некорректному запуску устройств.

«Эти системы специально запрограммированы с некоторой степенью допущений, чтобы лучше распознавать речь пользователей, — рассказывает одна из ученых, Доротея Колосса. — Это сделано, чтобы устройства работали эффективнее, но иногда это приводит к ложным срабатываниям».

Фразы, которых стоит избегать

В основном это слова и выражения, которые по своему звучанию напоминают название устройства.

  • Alexa: unacceptable, election, a letter
  • Google Ассиcтент: OK, cool; Okay, who is reading
  • Siri: a city, hey jerry
  • Cortana: Montana

В этом видео персонаж «Американской семейки» говорит hey jerry и случайно запускает Siri.

Устройства сначала активируются локально, на уровне алгоритмов, анализирующих фразы. Затем система принимает это за попытку включения и отправляет звук на серверы компании, где более надежные механизмы подтверждают это предположение. Иногда умные колонки активируются только локально, а алгоритмы в облаке признают запрос ошибочным.

Вторжение в личную жизнь

По словам исследователей, когда устройства просыпаются, они записывают часть сказанного и передают эти данные изготовителю. Сотрудники компании могут расшифровывать эти аудиозаписи, чтобы улучшить технологии распознавания речи. В результате фрагменты потенциально приватных разговоров могут попасть в распоряжение третьих лиц.

И это не теоретический риск: в 2016 году правоохранительные органы, расследовавщие убийство, вызвали в суд представителей Amazon и запросили данные Alexa, переданные незадолго до преступления. Позднее газета The Guardian сообщила, что сотрудники Apple иногда транскрибируют деликатные разговоры, подслушанные Siri. На записях оказались беседы между врачами и пациентами, деловые переговоры, обсуждения нелегальных сделок и сексуальные контакты.

Леа Шенхерр, Максимилиан Голл, Ян Уайл, Торстен Айзенхофер, Доротея Колосса и Торстен Холц из Рурского университета в Бохуме и Института безопасности и конфиденциальности имени Макса Планка выпустили научно-исследовательскую работу под названием «Это недопустимо. Где моя конфиденциальность?». Вот к каким выводам они пришли:

«Нам удалось идентифицировать более тысячи последовательностей, которые ошибочно запускают умные колонки. Примеры представлены в видео.

В нашем исследовании мы анализируем разнообразные источники аудио, изучаем влияние гендера и различных языков и измеряем воспроизводимость выявленных триггеров. Также мы описываем метод искусственного создания таких выражений. Обратное декодирование канала связи Amazon Echo позволяет получить представление о том, как коммерческие компании работают с данными триггерами на практике. Кроме того, мы анализируем влияние случайных триггеров на конфиденциальность и обсуждаем механизмы, которые могут защитить личные данные пользователей умных колонок».

Ученые проанализировали голосовых помощников Amazon, Apple, Google, Microsoft и Deutsche Telekom, а также три китайских модели — Xiaomi, Baidu и Tencent. В недавней публикации рассматривались устройства первых четырех производителей. Представители Apple, Google и Microsoft не сразу это прокомментировали. Позднее Amazon опубликовал следующее заявление:

«К сожалению, нам пока не предоставили доступ к методологии данного исследования, поэтому мы не можем подтвердить высказанные в нем суждения. Со своей стороны мы можем заверить вас, что конфиденциальность — это важная часть сервиса Alexa, и наши устройства активируются только после произнесения соответствующего слова. Пользователи разговаривают с Alexa миллиарды раз в месяц, и случаи ложного срабатывания происходят крайне редко. Наши системы распознавания речи улучшаются с каждым днем ​​по мере использования клиентами данных устройств. Мы продолжаем совершенствовать указанные технологии и призываем исследователей раскрыть нам методологию исследования, чтобы мы могли ответить более подробно».

Исследователи отказались предоставлять копию до публикации полной версии статьи. Однако из представленных данных уже можно сделать вывод, что голосовые помощники могут нарушать конфиденциальность незаметно для пользователей. Тем, кого беспокоит данная проблема, рекомендуется использовать цифровых ассистентов только тогда, когда это действительно необходимо, и отключать их в остальное время. Кроме того, можно полностью отказаться от данных устройств.

Источник.

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 Siri будет отправлять голосовые сообщения, Apple Watch — следить за мытьем рук. Apple рассказала о новинках
  2. 2 Эмбиент от ИИ: композитор и разработчик Siri адаптируют музыку под состояние слушателя
  3. 3 3 неочевидных пути, по которым могут утекать ваши личные данные
  4. 4 Ученые нашли способ взломать Siri и Alexa с помощью света

Актуальные материалы —
в Telegram-канале @Rusbase

ВОЗМОЖНОСТИ

11 августа 2020

ArtMasters

13 августа 2020

Pulkovo.Hack

18 августа 2020

Rusbase Young Awards