ОБРАЩЕНИЕ о недопустимости принятия проекта федерального закона об ИИ

#
Общественный уполномоченный по защите семьи
0

Все неравнодушные граждане могут использовать наши тезисы, на их основе приводить собственные аргументы и приводить их в отзывах/оценке проекта приказа Минцифры на правительственном портале НПА - https://regulation.gov.ru/projects/166424/  

Также можно отправлять свое мнение на почту ответственному сотруднику Минцифры – Бедаревой Екатерине e.bedareva@digital.gov.ru, звонить с личными отзывами по телефону - +7(495) 771-80-00, доб. 44580.

СКАЧАТЬ все замечания в одном ПДФ файле

Сопроводительное письмо:

Направляю в Ваш адрес обращение с замечаниями к проекту федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Прошу рассмотреть прилагаемую позицию как мотивированное гражданское и экспертное мнение о недопустимости принятия законопроекта в его текущей редакции. По нашему убеждению, проект содержит существенные правовые, технические, организационные, образовательные и экономические риски, затрагивающие права граждан, условия развития отрасли, конкурентную среду, защиту персональных данных, а также пределы допустимого применения ИИ в социально значимых сферах.

Особую обеспокоенность вызывают чрезмерная передача ключевых вопросов на подзаконный уровень, декларативный характер норм об ответственности, отсутствие специальных ограничений и гарантий для сферы образования, а также недостаточность механизмов защиты граждан от непрозрачных и потенциально вредоносных решений, принимаемых с использованием ИИ. Считаем, что в представленном виде законопроект не обеспечивает необходимой правовой определенности, не формирует полноценной системы безопасности и не содержит достаточных барьеров против административной монополизации рынка и внедрения ИИ в чувствительные сферы без должной экспертизы.

В связи с изложенным просим учесть приложенные замечания при дальнейшем рассмотрении проекта, не допускать его принятия без глубокой концептуальной переработки и обеспечить проведение полноценного общественного, профессионального и междисциплинарного обсуждения с участием независимых юристов, технических специалистов, представителей образовательного сообщества, специалистов по защите прав детей и экспертов в области информационной безопасности.


I. ПЕРВООЧЕРЕДНЫЕ ПРИНЦИПИАЛЬНЫЕ ЗАМЕЧАНИЯ

1. Вся полнота регулирования по ключевым вопросам фактически делегирована Правительству РФ

Одна из главных проблем законопроекта состоит в том, что он не закрепляет на уровне федерального закона значительную часть реально существенных правил, а передает их определение Правительству РФ, уполномоченным органам и ведомствам. В результате сам закон оказывается рамочным, а его наиболее значимые последствия для граждан, бизнеса, образования и государственного управления будут определяться не парламентом, а будущими подзаконными актами.

Подобный подход особенно опасен потому, что именно на подзаконный уровень выносятся не второстепенные технические детали, а ключевые элементы всей модели регулирования. Иными словами, закон не отвечает на самые важные вопросы, а лишь создает конструкцию, внутри которой они будут решаться позднее, административным путем.

Ниже перечислены ключевые вопросы, которые проект фактически отдает на усмотрение Правительства и ведомств.

Все это означает, что наиболее спорные вопросы — включая потенциальный допуск ИИ в образование, социальную сферу, государственное управление, инфраструктурные контуры и иные чувствительные области — могут быть решены без должного общественного и экспертного обсуждения. Для граждан это означает снижение гарантий прав и предсказуемости. Для бизнеса — невозможность долгосрочного планирования. Для общества — подмену законодательного регулирования административным.

Негативные последствия:

Такая конструкция ПФЗ требует проверки на соответствие статьям 18, 46 и 55 Конституции Российской Федерации и принципу правовой определенности, выработанному в практике Конституционного Суда РФ, поскольку существенные вопросы реализации прав граждан, допуска технологий в чувствительные сферы и ограничения возможных форм поведения не могут быть в неопределенном объеме переданы на подзаконный уровень.

2. Нормы об ответственности разработчиков, операторов и владельцев сервисов ИИ прописаны декларативно и могут сделать фактическое привлечение виновных невозможным

Вторая фундаментальная проблема проекта — слабость и декларативность положений об ответственности. Законопроект заявляет, что субъекты отношений в сфере ИИ несут ответственность за результат, нарушающий законодательство, но не создает работающего механизма распределения такой ответственности. В тексте отсутствуют ясные критерии того, где именно проходит граница между ответственностью разработчика модели, интегратора, владельца сервиса, оператора системы и конечного пользователя.

Особую проблему создает то, что проект использует крайне неопределенные категории — например, “результат, полученный с использованием искусственного интеллекта”, “должны были знать”, “исчерпывающие меры”, “соразмерно степени вины”. Без специальной детализации эти формулы звучат строго, но на практике они могут оказаться почти неприменимыми. В области ИИ, где результат часто вероятностный, зависит от данных, настроек, промптов, контекста, внешней интеграции и условий эксплуатации, расплывчатые общие слова не заменяют четкого правового механизма.

Чтобы ответственность в такой сфере работала, закон должен четко отвечать на вопросы:

Ничего этого в проекте нет в должной степени. Декларативность норм об ответственности требует оценки с точки зрения статей 45 и 46 Конституции РФ, а также согласованности с положениями Гражданского кодекса РФ об общих основаниях возмещения вреда (в частности, статья 1064 ГК РФ), поскольку без ясного распределения ролей и стандартов осмотрительности защита пострадавшего лица может оказаться неэффективной.

Негативные последствия:

3. Законопроект внутренне противоречив: он декларирует опору на традиционные духовно-нравственные ценности, но одновременно создает основу для технократического вытеснения человеческого нравственного суждения

Проект провозглашает в числе принципов регулирования учет и уважение традиционных российских духовно-нравственных ценностей. Однако сама архитектура закона допускает расширение применения ИИ в сферах, где решения затрагивают честь, достоинство, развитие, правовое положение, благополучие и судьбу человека. Это принципиально противоречивая конструкция.

Искусственный интеллект по своей природе является инструментом вычисления, обработки данных, статистического вывода, классификации и прогнозирования. Он не обладает:

Даже самый совершенный ИИ не является субъектом нравственной ответственности. Он не может различать человеческую трагедию и просто аномалию в данных. Он не способен к живому пониманию контекста так, как способен человек, несущий перед другим человеком моральную и правовую ответственность. Поэтому алгоритмический вывод не должен становиться основанием для принятия решений в тех сферах, где требуется не только формальная рациональность, но и человеческое нравственное суждение.

Расширение возможностей применения ИИ в сферах, затрагивающих судьбу человека, требует оценки на соответствие статьям 2, 18 и 21 Конституции РФ, а также Указу Президента РФ от 09.11.2022 № 809 и Стратегии национальной безопасности РФ, поскольку алгоритмический вывод не может подменять человеческое нравственное и ответственное суждение там, где затрагиваются достоинство личности, воспитание, социальная поддержка и иные фундаментальные блага.

Это особенно важно для:

Негативные последствия:

4. В проекте отсутствует специальное регулирование применения ИИ в образовании, что создает прямую угрозу детям, педагогике и самой сути образовательного процесса

Один из самых опасных пробелов законопроекта — почти полное отсутствие специального режима для образования. Между тем образовательная среда не является обычным рынком цифровых услуг. Здесь речь идет не просто о потреблении технологии, а о формировании личности, мышления, памяти, внимания, ценностей, навыков общения и способности к самостоятельному суждению. Любое внедрение ИИ в образование без специальных гарантий затрагивает не только техническую, но и культурную, психологическую и цивилизационную основу общества.

Если в законе нет специальных ограничений, это означает, что ИИ-системы могут внедряться в школы, колледжи, вузы и иные образовательные организации:

Это особенно опасно в отношении детей и подростков, чья психика и когнитивные функции находятся в стадии формирования. Для них ИИ — не просто удобный цифровой инструмент, а фактор, который может менять структуру учебного процесса, сокращать объем самостоятельной умственной работы, ослаблять способность к сосредоточению и формировать зависимость от машинной подсказки.

Отсутствие специального режима для образования требует проверки на соответствие статьям 21, 38 и 43 Конституции РФ, Федеральному закону № 273-ФЗ «Об образовании в Российской Федерации» и Федеральному закону № 124-ФЗ «Об основных гарантиях прав ребенка в Российской Федерации», поскольку внедрение ИИ в образовательный процесс без специальных гарантий может затронуть достоинство обучающегося, безопасность образовательной среды и право ребенка на развитие.

Негативные последствия:

5. В законопроекте необходимо прямо закрепить специальные образовательные гарантии: запрет распознавания эмоций, обязательную экспертизу и особый режим данных несовершеннолетних

Если законопроект вообще будет дорабатываться, в нем обязательно должны появиться специальные защитные механизмы для образования. Эти механизмы не могут оставаться на уровне рекомендаций, локальных актов школы или ведомственных писем. Они должны быть закреплены непосредственно в законе, поскольку речь идет о правах детей, роли семьи, достоинстве личности и допустимых пределах цифрового воздействия в воспитательной и образовательной среде.

5.1. Запрет на применение систем ИИ для распознавания эмоций в образовательных организациях

Системы распознавания эмоций не должны использоваться в школах, колледжах, вузах и иных образовательных организациях. Такие технологии строятся на крайне спорных предпосылках о возможности по мимике, голосу, микродвижениям, темпу речи или иным сигналам достоверно судить о внутреннем состоянии человека. В реальности они дают высокий риск ложных интерпретаций, культурных и поведенческих искажений, стигматизации и грубого вторжения в личное пространство.

Для ребенка или подростка это особенно опасно. В образовательной среде система, которая “считывает эмоции”, неизбежно превращается в инструмент психологического наблюдения. Она может маркировать ученика как “нелояльного”, “тревожного”, “агрессивного”, “пассивного”, “неуспешного”, “неудобного” или “подозрительного” на основе сомнительной машинной интерпретации. Это несовместимо с уважением достоинства личности и с базовыми принципами педагогики.

Использование систем распознавания эмоций и расширенная обработка образовательных данных несовершеннолетних без специального правового режима требуют оценки на соответствие статьям 21, 23 и 24 Конституции РФ, положениям Федерального закона № 152-ФЗ «О персональных данных», а также гарантиям защиты прав ребенка, поскольку затрагивают частную жизнь, достоинство личности и чувствительную информацию о несовершеннолетних.

Негативные последствия:

5.2. Обязательная педагогическая, психологическая и этическая экспертиза ИИ-инструментов до их внедрения

Любой ИИ-инструмент, который предполагается использовать в образовательном процессе, должен проходить обязательную независимую экспертизу. Недостаточно проверять только техническую работоспособность или информационную безопасность. Необходимо заранее оценивать:

Без такой экспертизы образовательные учреждения становятся зависимыми от маркетинга поставщиков и административного давления на цифровизацию. Педагогика не может подчиняться логике “сначала внедрим, потом посмотрим”. В отношении детей и молодежи такая логика недопустима.

Негативные последствия:

5.3. Особый режим обработки образовательных данных несовершеннолетних

Образовательные данные ребенка — это не просто техническая информация. К ним относятся:

Такие данные являются чувствительными и в совокупности могут формировать глубокий цифровой профиль несовершеннолетнего. Поэтому в законе должен быть закреплен особый режим их обработки.

Негативные последствия при отсутствии этих гарантий:

II. ДОПОЛНИТЕЛЬНЫЕ СИСТЕМНЫЕ ЗАМЕЧАНИЯ

6. Базовые понятия законопроекта размыты, противоречивы и непригодны для устойчивого правоприменения

Проект одновременно вводит понятия “искусственный интеллект”, “система искусственного интеллекта”, “сервис искусственного интеллекта”, “технологии искусственного интеллекта”, “модель искусственного интеллекта”, но не выстраивает между ними ясной и непротиворечивой логики. Частично они дублируют друг друга, частично пересекаются, а в ряде случаев используются так, будто сами авторы закона не определились, что именно является основным объектом регулирования.

Это не терминологическая мелочь, а фундаментальный дефект конструкции закона. Если закон не различает объект разработки, объект эксплуатации, пользовательский сервис, модель как вычислительный объект и систему как интегрированное прикладное решение, то невозможно четко распределить:

Например, одни нормы адресуются модели, другие — сервису, третьи — технологии, четвертые — системе. Но без четкого разграничения невозможно понять, какие обязанности относятся к базовой модели, какие — к прикладной оболочке, какие — к оператору внедренного решения, а какие — к конечному владельцу продукта.

Размытость базовых понятий законопроекта требует оценки с точки зрения конституционного принципа правовой определенности, вытекающего из статей 15, 17, 18 и 19 Конституции РФ и подтвержденного в практике Конституционного Суда РФ, поскольку неясность объекта регулирования неизбежно ведет к произвольному толкованию обязанностей, ограничений и ответственности.

Негативные последствия:

7. Законопроект декларирует безопасность, но не содержит реальных технических стандартов безопасного ИИ

Проект многократно ссылается на безопасность, но фактически не раскрывает, в чем именно должна выражаться безопасность ИИ-систем. В современном контексте безопасность ИИ — это не просто защита информации в традиционном смысле. Это также:

Ничего этого закон в явном виде не требует. Не установлены единые обязательные процедуры:

В итоге создается иллюзия строгого подхода к безопасности при фактическом отсутствии его содержательного наполнения.

Декларативный характер требований к безопасности требует оценки на соответствие статьям 41 и 45 Конституции РФ, Федеральному закону № 149-ФЗ и, применительно к значимым объектам, Федеральному закону № 187-ФЗ, поскольку отсутствие специальных технических стандартов безопасного ИИ создает риск формального, а не реального обеспечения безопасности личности, организаций и инфраструктуры.

Негативные последствия:

8. Реестр “доверенных моделей” создает риск административной монополизации и вытеснения независимых разработчиков

Идея отдельного режима допуска к государственным системам сама по себе может обсуждаться, но в предложенном виде механизм “доверенных моделей” слишком тесно связан с административным усмотрением. Если критерии доверенности, порядок включения, порядок проверки и условия обязательного применения выносятся на подзаконный уровень, реестр становится не только инструментом безопасности, но и инструментом перераспределения рынка.

В таких условиях выигрывает не обязательно лучший технологический продукт, а тот, кто:

Малые и средние компании, исследовательские команды, университетские лаборатории и независимые разработчики в такой конструкции почти неизбежно оказываются в неравном положении.

Конструкция реестра доверенных моделей в сочетании с широким подзаконным усмотрением требует оценки на соответствие статьям 8 и 34 Конституции РФ и Федеральному закону № 135-ФЗ «О защите конкуренции», поскольку способна привести к созданию административных барьеров входа, дискриминации независимых участников рынка и концентрации доступа к стратегическим сегментам у ограниченного круга игроков.

Негативные последствия:

9. Конструкция “суверенных” и “национальных” моделей оторвана от реальности современной разработки ИИ

Современная разработка ИИ — это глобальная кооперация. Она включает:

В этом контексте требование, чтобы все стадии разработки, обучения и эксплуатации модели происходили исключительно на территории РФ и исключительно российскими лицами, выглядит либо технически и организационно невыполнимым, либо резко сужающим круг потенциальных участников рынка.

Фактически такая конструкция не столько создает суверенитет, сколько вводит искусственный барьер против реальной научно-технологической среды, в которой сегодня развивается ИИ. Суверенитет в высоких технологиях достигается не запретом на международную кооперацию как таковую, а способностью создавать собственные конкурентоспособные решения, пользуясь лучшими доступными инструментами, знаниями и инфраструктурами.

Чрезмерно широкая возможность ограничивать трансграничные ИИ-решения требует оценки на соответствие статьям 29, 34 и 44 Конституции РФ, поскольку может затронуть свободу получения информации, предпринимательскую деятельность, научное и техническое творчество и создать несоразмерные барьеры для развития отечественной науки и высокотехнологичного бизнеса.

Негативные последствия:

10. Возможность ограничения или запрета трансграничных ИИ-решений нанесет удар по науке, бизнесу и кадрам

Положения о трансграничных технологиях ИИ в текущем виде открывают путь к ограничению или запрету значимой части зарубежных платформ и решений. Формально это может подаваться как защита суверенитета, но на практике для современной ИИ-отрасли доступ к передовым мировым инструментам является не роскошью, а частью профессиональной среды.

Сегодня обучение специалистов, научные исследования, стартапы, прикладные интеграции, корпоративные продукты и образовательные программы часто строятся с использованием лучших доступных глобальных решений. Ограничение такого доступа ударяет не только по “пользовательскому удобству”, но и по всей экосистеме:

Если передовые решения будут ограничены, а взамен рынок будет вынужден использовать менее конкурентоспособные аналоги только потому, что они доступны внутри административно защищенного контура, это резко ухудшит позиции России в глобальной технологической гонке.

Недостаточная определенность прав граждан на информирование, отказ, получение объяснения и эффективное обжалование требует оценки на соответствие статьям 18, 21, 24, 45 и 46 Конституции РФ, поскольку без ясных гарантий человек оказывается в уязвимом положении перед непрозрачными автоматизированными процедурами, способными затрагивать его права и законные интересы.

Негативные последствия:

11. Формально закрепленные права граждан остаются слабыми, неполными и во многом декларативными

Законопроект формально говорит об информировании граждан о применении ИИ, о возможности уведомления при автономных решениях и о досудебном обжаловании. Однако эти положения не образуют полноценного и реально работающего режима защиты. В тексте отсутствуют ясные ответы на вопросы:

Особенно тревожно то, что право на отказ от использования ИИ поставлено в зависимость от случаев, которые в дальнейшем установит Правительство. Это означает, что право существует как абстрактная декларация, но его реальный объем определяется не самим законом.

Отсутствие прямых и развернутых запретов на манипулятивное и профилирующее использование ИИ требует оценки на соответствие статьям 19, 21, 23, 24 и 29 Конституции РФ, поскольку подобные практики затрагивают достоинство личности, автономию воли, частную жизнь и могут вести к скрытому ограничению свободы выбора.

Негативные последствия:

12. Законопроект не вводит полноценной защиты от манипулятивного, профилирующего и поведенчески воздействующего использования ИИ

Современные ИИ-системы способны не только “обрабатывать информацию”, но и влиять на поведение человека через персонализированное воздействие, скрытое профилирование, индивидуализированную подачу контента, подстройку рекомендаций под психологические особенности и эксплуатацию уязвимостей. Закон упоминает эксплуатацию уязвимостей человека, но не создает полноценного специального режима защиты от таких практик.

Между тем реальная опасность ИИ сегодня состоит не только в ошибке, но и в способности незаметно подталкивать человека к нужному для платформы, продавца, работодателя, кредитора или иного субъекта решению. Особенно остро это проявляется в отношении:

Лазейки в регулировании маркировки синтетического контента требуют оценки на соответствие статье 29 Конституции РФ, а также нормам гражданского законодательства о защите чести, достоинства и деловой репутации (в частности, статьи 150 и 152 ГК РФ), поскольку недостаточная прозрачность происхождения контента создает риски введения граждан в заблуждение, мошенничества и причинения репутационного вреда.

Негативные последствия:

13. Нормы о маркировке синтезированного контента содержат лазейки, фактически подрывающие саму идею прозрачности

Статья о маркировке синтезированного контента могла бы стать важной гарантией информационной прозрачности, однако в текущем виде она содержит опасную лазейку. Возможность предусмотреть соглашением отсутствие обязательности маркировки в формате, воспринимаемом человеком, фактически позволяет владельцу сервиса переложить проблему на пользовательское соглашение.

Это означает, что сервис сможет формально соблюдать закон, а пользователь — “согласиться” на отсутствие видимой маркировки, зачастую даже не осознавая всех последствий такого согласия. В результате значимая защита от скрытой генерации контента обнуляется.

Положения проекта об интеллектуальной собственности требуют проверки на согласованность со статьей 44 Конституции РФ и частью IV Гражданского кодекса РФ, поскольку без специальной и детальной увязки с действующим режимом охраны результатов интеллектуальной деятельности они не устраняют, а закрепляют правовую неопределенность в отношении статуса результатов, созданных с использованием ИИ.

Негативные последствия:

14. Положения об интеллектуальной собственности не решают существующих проблем и лишь создают видимость регулирования

Законопроект касается вопросов интеллектуальной собственности, однако фактически не решает ни одной из базовых проблем генеративного ИИ. Он не дает ясного ответа:

Простая отсылка к Гражданскому кодексу не решает проблему, потому что действующее регулирование не создавалось под нынешние масштабы генеративных моделей и связанные с ними конфликты. В результате проект не урегулирует вопрос, а лишь создает впечатление, будто он урегулирован.

Декларативное упоминание риск-ориентированного подхода без его нормативного наполнения требует оценки с точки зрения принципа соразмерности, вытекающего из статей 18 и 55 Конституции РФ, поскольку без выделения категорий риска невозможно установить справедливый баланс между развитием технологий, защитой прав граждан и необходимыми ограничениями.

Негативные последствия:

15. Законопроект не реализует настоящий риск-ориентированный подход, хотя декларирует его

В тексте проекта заявлен риск-ориентированный подход, но в реальности он не воплощен в работающую правовую конструкцию. Закон не делит ИИ-системы на категории риска в юридически значимой форме и не привязывает к этим категориям разные режимы допуска, запретов, обязанностей и ответственности.

Между тем принципиально важно различать:

Без этого один и тот же закон начинает одинаково смотреть на принципиально разные по опасности технологии.

Негативные последствия:

III. ЗАКЛЮЧЕНИЕ И ТРЕБОВАНИЯ

Исходя из изложенного, мы считаем, что проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации» в текущей редакции:

В связи с этим просим:

  1. Не принимать законопроект в текущей редакции.
  2. Вернуть его на глубокую концептуальную переработку с участием независимых технических, юридических, педагогических, психологических и этических экспертов.
  3. Закрепить ключевые правила регулирования непосредственно в федеральном законе, а не передавать их на подзаконный уровень.
  4. Прямо установить перечень сфер, в которых ИИ не может применяться для автономного принятия решений, влияющих на судьбу человека.
  5. Выделить сферу образования в специальный объект правовой охраны и регулирования.
  6. Закрепить прямой запрет на применение систем ИИ для распознавания эмоций в образовательных организациях.
  7. Ввести особый режим обработки образовательных данных несовершеннолетних, включая запрет на их коммерческое использование и на дообучение моделей.
  8. Установить реальные, а не декларативные стандарты распределения ответственности между разработчиком, владельцем сервиса, оператором, интегратором и пользователем.
  9. Обеспечить прозрачность, недискриминационность и ограниченность применения механизмов реестров и доверенных моделей.
  10. Исключить правовые лазейки, позволяющие фактически отменять понятную человеку маркировку синтетического контента.
  11. Пересмотреть положения о трансграничных технологиях и “суверенных” моделях так, чтобы защита суверенитета не превращалась в технологическую самоизоляцию.

Принятие такого закона в сыром, противоречивом и чрезмерно рамочном виде может иметь долгосрочные негативные последствия для прав граждан, для детей, для образования, для науки, для конкуренции, для технологического развития страны и для качества государственного управления.

Искусственный интеллект требует не декларативного, а точного, ответственного, профессионального и человекоцентричного регулирования. В нынешнем виде представленный законопроект этим требованиям не соответствует.

Остались вопросы? Вы можете задать их нам через чат-бота в телеграм
Задать вопрос
Подписывайтесь на наши ресурсы:
#Искусственный Интеллект
Дорогие друзья!

Наша деятельность ведется на общественных началах и энтузиазме. Мы обращаемся к Вам с просьбой оказать посильную помощь нашей экспертной и правозащитной деятельности по защите традиционной семьи и детей России от западных технологий и адаптированных с помощью лоббистов законов. С Вашей помощью мы сможем сделать еще больше полезных дел в защите традиционной Российской семьи!

Для оказания помощи можно перечислить деньги на карту СБЕРБАНКА 4276 5500 3421 4679,
получатель Баранец Ольга Николаевна
или воспользуйтесь формой для приема взносов: