В России запретят иностранные ИИ в 2027 году — читать на Выберу.ру
Россия готовится к тотальному регулированию искусственного интеллекта. Новый законопроект Минцифры, который вступит в силу с 1 сентября 2027 года, разделит всех на «доверенных» и «остальных», заставит маркировать любой контент от нейросетей и вынудит их размещать серверы внутри страны. Разбираемся, кому это выгодно, а кому придётся несладко.
Чиновники готовятся ограничить ИИ в России. Фото: нейросеть
Живой человек как опция
Во второй части кинофраншизы «Терминатор» ИИ готовился уничтожить Россию в августе 1997-го. Ему это не удалось. Теперь наша страна намерена повергнуть нейросети в небытие в сентябре 2027 года. Во всяком случае, на своей территории. На федеральном портале проектов нормативных правовых актов появился документ с пафосным названием «Об основах государственного регулирования сфер применения технологий искусственного интеллекта». Если коротко — государство впервые пытается навести порядок в мире нейросетей на законодательном уровне. Закон вводит чёткие определения (кто такой разработчик, оператор, владелец сервиса), обязывает маркировать сгенерированный контент, требует хранить и обрабатывать данные только в России, а для работы с госструктурами — получать статус «доверенной модели». Документ находится в стадии публичного обсуждения с 18 марта 2026 года, сейчас собирает отзывы, а заработает в полную силу только через полтора года — 1 сентября 2027-го.
Если вы просто пользуетесь нейросетями для развлечения или работы, закон затронет вас в трёх случаях.
Во-первых, вас должны предупреждать. Если сайт или приложение использует ИИ для ответов или решений, вам обязаны об этом сообщить. Покупаете билет у бота-оператора? Вам скажут, что это бот.
Во-вторых, контент от нейросетей промаркируют. Картинки, видео, тексты, сгенерированные ИИ, должны содержать специальную метку. Чтобы вы не приняли фейк за реальность.
В-третьих, вы сможете отказаться от ИИ. В некоторых случаях (каких именно — позже решит правительство) вам обязаны предоставить услугу без участия искусственного интеллекта. По старинке, с живым человеком.
И да, если вы сами генерируете контент и удаляете метку «сделано нейросетью» — вы нарушите закон. Пока неизвестно, как за это будут пороть и наказывать.
Роботам закон писан
Во Вторую мировую войну уже были компьютеры. Одни, как легендарная «Энигма», были размером со швейную машинку. Другие занимали целое помещение на борту линкора. О роботах мечтали лишь фантасты. Наш соотечественник Исаак Озимов, известный как Айзек Азимов, в 1942 году выработал три закона роботехники:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
- Робот должен подчиняться приказам человека, если эти приказы не противоречат Первому закону.
- Робот должен заботиться о своей безопасности, если это не противоречит Первому и Второму законам.
Чиновники теперь догоняют мысли великого фантаста и ратуют за нашу безопасность. Переживают, как бы ИИ не натворил дел без их ведома.
Попасть в нейросети
Власти хотят понимать, на какой информации обучаются нейросети, не нарушают ли они законы и не утекают ли чувствительные сведения за границу. Чиновники намерены воспрепятствовать генерации экстремисткого и террористического контента. Они хотят, чтобы все данные хранились на российских серверах, а критически важные модели разрабатывались гражданами РФ под контролем отечественного капитала.
Чиновники пекутся о нас с вами. Они заставят операторов дать нам знать: общаемся ли мы с ботом или с живым оператором, а ролик в интернете — реальная съёмка или дипфейк. Звучит красиво. Но есть нюансы. Эксперт в сфере ИИ Александр Жадан неоднозначно оценил инициативу:
Александр Жадан Эксперт в сфере ИИ Комментарий эксперта: Государству это необходимо, чтобы регулировать работу нейросетей на территории России. Оно хочет убедиться, что данные, на которых нейросети обучены, на всех этапах соблюдали и не нарушали действующие законы, были взяты на территории РФ. Честно говоря, на текущий момент из больших компаний это соблюдает только Сбербанк. Остальные компании в полном объёме этого не делают. Например, русский контекст должен соблюдаться нативно, а не интерпретироваться через перевод. Пока это скорее мечта, чем реальность.
А вот для обычных пользователей плюсы совсем не очевидны.
Гражданам это может быть не надо. Более надёжные и повседневные ИИ-ассистенты вроде ChatGPT, Claude или Gemini отвечают по международным данным, используют более широкий опыт, а не ограниченный российский контекст. Они более передовые и многофункциональные
Жадану сложно оправдать ужесточение правил в этой передовой отрасли в 2027 году.
Александр Жадан Эксперт в сфере ИИ Комментарий эксперта: Сфера развития и использования ИИ находится на первых шагах, это далеко от регулирования интернета. Слишком раннее и жёсткое регулирование может затормозить развитие.
Великая русская стена для бусурманских ИИ
Статья 8 законопроекта прямо говорит: доверенные модели ИИ обязаны обеспечивать обработку данных исключительно на территории РФ.
Это значит, что если ваш ИИ-ассистент работает на зарубежных серверах (тот же ChatGPT), он не сможет использоваться в государственных информационных системах. А в перспективе — и в любых сервисах, которые хотят считаться «доверенными».
Эксперты видят в этом и прагматичный смысл (безопасность), и политический контекст (санкционные риски, борьба с оттоком данных). Россия создаёт свою, суверенную вселенную искусственного интеллекта. Со своими правилами, собственными серверами и стандартами безопасности.
Что в итоге?
Для государства этот проект — контроль и безопасность. Для граждан — прозрачность и защита от фейков, но возможное отставание от мировых ИИ-ассистентов. Для бизнеса — новые правила игры, где кто-то получит господдержку и доступ к рынку (низкие налоги, выгодные тарифы на электроэнергию), а кто-то останется за бортом с более дорогими и сложными процессами.
Закон ещё могут доработать — обсуждение продлится до 15 апреля 2026 года. Но вектор уже понятен: искусственный интеллект в России будет работать по-русски. На российских данных, на отечественных серверах и под госконтролём.
