Министерство цифрового развития России представило проект закона, регулирующего сферу искусственного интеллекта. Согласно информации, опубликованной ведомством, новый законопроект основывается на риск-ориентированном подходе: требования к ИИ-системам будут варьироваться в зависимости от их потенциального воздействия на общество и отдельных людей.
Основные положения документа включают ввод понятий суверенной, национальной и доверенной моделей ИИ. Теперь каждый гражданин сможет обжаловать решения, принятые государственными органами или компаниями с государственным участием с использованием ИИ, не прибегая к судебным разбирательствам. Если подобные системы причиняют вред, пользователи имеют право на материальную компенсацию в соответствии с гражданским законодательством.
Защита прав пользователей и контроль за контентом
В ведомстве подчеркивают, что эти нормы существенно увеличивают уровень защиты граждан при автоматизированном принятии решений. Разработчики ИИ обязаны предотвращать дискриминацию и ограничивать распространение нелегального контента. Операторы также должны проводить обязательные тесты на безопасность и уведомлять пользователей о возможных рисках. Владельцы платформ будут обязаны оперативно блокировать неправомерное использование технологий.
В случае негативных последствий ответственность за ошибки будет распределена между разработчиком, оператором, владельцем сервиса и пользователем в зависимости от степени их вины.
Обязанности крупных социальных сетей
Все материалы, сгенерированные искусственным интеллектом, будут маркироваться специальным предупреждением. Крупные социальные сети возложат на себя ответственность за контроль наличия таких меток, а также смогут добавлять или удалять контент в случае необходимости.
Ожидается, что новый законопроект вступит в силу 1 сентября 2027 года, создавая четкие правила для бизнеса, разработчиков и государственных структур, что позволит защитить общество от манипуляций и предвзятости алгоритмов.






























