Системы искусственного интеллекта, обученные на госданных, будут проверять «на наличие угроз безопасности государства и обороны страны», говорится в утвержденном правительством паспорте федпроекта «Цифровое госуправление», который войдет в нацпроект «Экономика данных». С документом ознакомился «Коммерсантъ».
Для этого правительство планирует провести в 2025-2026 годах научно-исследовательские работы по определению принципов анализа моделей ИИ, а в 2027-2028 годах — внедрить первую версию соответствующего ПО. Проверки необходимы из-за планов использовать искусственный интеллект при принятии стратегических решений, указано в документе.
Выполнение задачи федпроекта поручено ФСБ, а на создание программ для контроля государственных нейросетей до 2030 года из федерального бюджета выделят более 8 млрд рублей. К 2030 году власти планируют получить пять моделей ИИ с подтверждением «допустимости безопасного использования».
В аппарате вице-премьера по цифровизации Дмитрия Григоренко газете сообщили, что нацпроект все еще находится на согласовании и до его утверждения обсуждать указанные в документе планы «преждевременно». В ФСБ от комментариев изданию отказались.
С 1 января 2024 года в России также будет применяться ГОСТ, который установит требования к защите данных при применении и разработке ИИ, сообщил изданию замглавы Центра компетенций НТИ по большим данным МГУ Тимофей Воронин. По мнению эксперта, особого внимания требуют две категории данных — персональные и защищаемы. Госданные относятся ко второй, поэтому если «системы ИИ обучаются на них, то такую оценку проводить необходимо», подчеркнул Воронин.
Фото на обложке: xfilephotos /
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Материалы по теме
ВОЗМОЖНОСТИ
03 декабря 2024
03 декабря 2024
04 декабря 2024