Top.Mail.Ru
Новости / Искусственный интеллект

Правительство будет проверять ИИ на предмет угрозы нацбезопасности

Мера коснется систем, обученных на госданных

Михаил Зеленин
Текст:
27 ноября 2024, 11:50

Системы искусственного интеллекта, обученные на госданных, будут проверять «на наличие угроз безопасности государства и обороны страны», говорится в утвержденном правительством паспорте федпроекта «Цифровое госуправление», который войдет в нацпроект «Экономика данных». С документом ознакомился «Коммерсантъ».

Для этого правительство планирует провести в 2025-2026 годах научно-исследовательские работы по определению принципов анализа моделей ИИ, а в 2027-2028 годах — внедрить первую версию соответствующего ПО. Проверки необходимы из-за планов использовать искусственный интеллект при принятии стратегических решений, указано в документе.

Выполнение задачи федпроекта поручено ФСБ, а на создание программ для контроля государственных нейросетей до 2030 года из федерального бюджета выделят более 8 млрд рублей. К 2030 году власти планируют получить пять моделей ИИ с подтверждением «допустимости безопасного использования».

В аппарате вице-премьера по цифровизации Дмитрия Григоренко газете сообщили, что нацпроект все еще находится на согласовании и до его утверждения обсуждать указанные в документе планы «преждевременно». В ФСБ от комментариев изданию отказались.

С 1 января 2024 года в России также будет применяться ГОСТ, который установит требования к защите данных при применении и разработке ИИ, сообщил изданию замглавы Центра компетенций НТИ по большим данным МГУ Тимофей Воронин. По мнению эксперта, особого внимания требуют две категории данных — персональные и защищаемы. Госданные относятся ко второй, поэтому если «системы ИИ обучаются на них, то такую оценку проводить необходимо», подчеркнул Воронин.

Фото на обложке: xfilephotos / Shutterstock

Подписывайтесь на наш Telegram-канал
Материалы по теме