Новости

Ученые Принстонского университета рассказали о создании аналогичной Apple системы детской безопасности

Новости
Виктория Сафронова
Виктория Сафронова

Редактор выходного дня RB.RU

Виктория Сафронова

Исследователи Принстонского университета — доцент Джонатан Майер и аспирант Анунай Кулшреста — рассказали о создании системы обнаружения контента, к которому относятся изображения сексуального характера (CSAM — child sexual abuse material). Ранее аналогичную систему в целях детской безопасности запустила Apple.

Ученые Принстонского университета рассказали о создании аналогичной Apple системы детской безопасности

Авторы отметили, что планировали представить систему раньше Apple, на одной из научных конференций. Однако это не удалось сделать, поскольку Apple анонсировала выход технологии за неделю до презентации.

«Мотивация Apple, как и наша, заключалась в защите детей. И система компании технически более эффективна и способна, чем наша. Но мы были озадачены, увидев, как мало у Apple ответов на возникшие у нас сложные вопросы», — говорится в колонке исследователей для The Washington Post.

Авторы отметили, что потратили годы на разработку аналогичной системы, и способны оценить недостатки подхода Apple. Они утверждают, что написали единственной рецензируемую публикацию на тему, в которой пришли к выводу, что технология опасна.

Майер и Кулшреста совместно работали над созданием системы идентификации CSAM в онлайн-сервисах с сквозным шифрованием. Как и Apple, они хотели найти способ ограничить распространение небезопасного контента, сохраняя конфиденциальность пользователей.

Целью команды было в том числе побудить большее количество онлайн-сервисов использовать сквозное шифрование. «Мы обеспокоены тем, что онлайн-сервисы сопротивляются использованию шифрования без дополнительных инструментов для борьбы с CSAM», — отметили исследователи.

Авторы отметили, что созданная система может быть легко перепрофилирована для слежки и цензуры. «Дизайн (системы. — прим.) не ограничивался определенной категорией контента; сервис может просто заменить любую аналогичную базу данных (сопоставления контента. — прим.)», — говорится в публикации.

Исследователи также предупредили, что описываемая проблема не является гипотетической. Ранее команда из Университета Торонто обнаружила, что мессенджер WeChat использует алгоритмы сопоставления контента для обнаружения материалов, представляющих альтернативную государственной точку зрения.

«Китай — второй по величине рынок Apple, где, вероятно, используются сотни миллионов устройств. Что может помешать китайскому правительству требовать от Apple сканирования этих устройств на предмет (обнаружения. — прим.) продемократических материалов?» — отмечают Майер и Кулшреста. В качестве примера авторы привели несколько случаев согласия со стороны Apple выполнить требования китайского правительства.

Среди других недостатков системы авторы отметили ложные срабатывания и потенциальную возможность взлома. Ранее эксперты по кибербезопасности также высказывали опасения по поводу надежности систем Apple.

Apple утверждает, что стратегия компании по детской безопасности направлена исключительно на поиск материалов о сексуальном насилии над детьми. Компания подчеркивала, что у властей не будет возможности злоупотреблять системой.

Ранее систему Apple раскритиковал глава WhatsApp Уилл Кэткарт и другие участники технологического сообщества. Основная претензия к разработке сводится к ее возможности сканировать все личные данные на телефоне пользователей.

Фото: pedja kujundzic / Shutterstock



Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 Тим Кук выразил восторг от развития искусственного интеллекта в мире
  2. 2 Employee experience: как привлечь и удержать сотрудника в компании
  3. 3 Почему даже у Facebook и Google не взлетают продукты?
  4. 4 Как нововведения Apple изменят работу в офисе
  5. 5 Эпический конфликт: как спор Epic Games с Apple может изменить игровую индустрию

ВОЗМОЖНОСТИ

20 сентября 2021

20 сентября 2021