Минцифры опубликовало первый в истории России законопроект об ИИ. Вступление в силу намечено на сентябрь 2027 года. Документ формирует новые обязанности для бизнеса.
![]()
Бизнесу в России стоит уже сейчас подготовиться к новому закону об ИИ, который вводит строгие правила регулирования технологий искусственного интеллекта с акцентом на суверенитет и риски.
«Развитие перспективных технологий, в том числе искусственного интеллекта (ИИ), является важным направлением работы Минцифры, пишет ведомство на своем сайте. При этом любая технология должна применяться исключительно с соблюдением прав и интересов граждан. Для этого министерство разработало проект федерального закона о регулировании ИИ. Подробнее об основных положениях документа.
Риск-ориентированный подход и уровни моделей ИИ
Законопроект предусматривает риск-ориентированный подход к регулированию ИИ. То есть требования к системам ИИ зависят от степени их влияния на жизнь человека и общество.
Предлагается также ввести понятия суверенной, национальной и доверенной моделей искусственного интеллекта.
Защита прав граждан
Граждане смогут оспаривать решения госорганов и госкомпаний, принятые с использованием ИИ, в досудебном порядке. Если использование ИИ причинило вред, человек получит право на компенсацию — по общим правилам гражданского законодательства. Эти меры призваны защитить права граждан при автоматизированном принятии решений.
Ответственность и безопасность
Разработчики моделей ИИ обязаны исключать дискриминационные алгоритмы и блокировать создание противоправного контента. Операторы систем ИИ должны тестировать их на безопасность и информировать пользователей об ограничениях. Владельцы сервисов будут оперативно принимать меры по недопущению его неправомерного использования.
Ответственность за противоправный результат распределяется между разработчиком, оператором системы, владельцем сервиса и пользователем соразмерно степени вины.
Маркировка синтезированного контента
Все созданные с помощью ИИ аудиовизуальные материалы должны содержать специальную маркировку — предупреждение. Крупные соцсети обязаны проверять её наличие, а при её отсутствии самостоятельно маркировать или удалять контент.
Планируется, что документ вступит в силу с 1 сентября 2027 года, установив чёткие правила для разработчиков, бизнеса и государства. Он позволит защитить граждан от скрытых манипуляций и дискриминационных алгоритмов».
Что советуют специалисты по ИИ
- Этот законопроект напрямую касаается ИИ- разработчиков — разработчиков которые создают сервисы на базе американских нейросетей или любых других по созданию текста/музыки/видео /озвучивания.
- Также касается всех, кто применяет ИИ в своем бизнесе, автоматизирует процесс.
Оцените текущие ИИ-проекты
Проведите аудит всех систем ИИ: классифицируйте их по уровням риски (невысокий, высокий, недопустимый). Для высокорисковых (например, в медицине, финансах, автопилотах) подготовьте документацию о безопасности, тестах и маркировке контента. Закон требует, чтобы нейросети обучались на российских данных и размещались на «допустимых» платформах.
Обеспечьте суверенитет ИИ
Перейдите на «суверенные» модели: модели ИИ должны создаваться и обучаться в России, без зависимости от иностранных серверов. Начните миграцию данных и моделей на отечественную инфраструктуру (Яндекс, Сбер, VK), чтобы избежать запретов с сентября 2027 года.
Внедрите маркировку и ответственность
Обязательно маркируйте весь ИИ-генерируемый контент (deepfakes, тексты, изображения) водяными знаками или метаданными.
Назначьте ответственных: у операторов ИИ должен быть специалист по compliance, а у сервисов — реестр моделей.
Подготовьте политики для инцидентов: отчетность о сбоях в Роскомнадзоре.
Что делать прямо сейчас
1 Аудит ИИ-систем: 1-2 месяца
2 Тестирование на риски: до конца 2026
3 Миграция на РФ-инфраструктуру: К июню 2027
4 Обучение команды: немедленно
Это позволит избежать штрафов (до 1% выручки) и блокировок. Закон фокусируется на защите данных и этике, так что инвестируйте в локальные ИИ-решения заранее.
О том, кто и как использует ИИ в малом бизнесе, а также советы по использованию можно прочитать здесь.