Цифровизация государственного управления является глобальным трендом, а технологии искусственного интеллекта становятся ключевым инструментом для повышения эффективности, снижения бюрократических издержек и оптимизации предоставления публичных услуг. Однако использование «черных ящиков» — сложных, непрозрачных алгоритмов — органами публичной власти порождает уникальные правовые и этические вызовы. На кону стоит не просто эффективность, но фундаментальные принципы правового государства: верховенство права, гарантии прав и свобод человека, принцип гласности и подконтрольности власти обществу.
Проблема алгоритмической прозрачности и подотчетности выходит на первый план именно в публично-правовой сфере, где решения, принимаемые с помощью ИИ, напрямую влияют на правовой статус, имущественные и личные неимущественные права граждан и организаций (например, при назначении социальных выплат, проверке налоговых деклараций, распределении бюджетных средств, оценке рисков при контрольно-надзорной деятельности).
Целью данной статьи является комплексный анализ существующих и формирующихся правовых требований к прозрачности и подотчетности систем ИИ, используемых в государственном и муниципальном управлении в Российской Федерации. Для достижения цели поставлены задачи: определить понятийный аппарат, изучить нормативную базу, выявить практические проблемы правоприменения и сформулировать предложения по совершенствованию законодательства.
Концептуальные основы и нормативная база: от общих принципов к специальным требованиям. Использование ИИ в государственном управлении в России регулируется как общими нормами о цифровизации, так и нарождающимся специальным законодательством об ИИ. Фундаментальной основой являются принципы, закрепленные в Конституции РФ : законность, открытость деятельности государственных органов, гарантии прав и свобод человека (ст. 2, 15, 18). Эти принципы получают развитие в Федеральном законе от 09.02.2009 № 8-ФЗ «Об обеспечении доступа к информации о деятельности государственных органов и органов местного самоуправления» , который обязывает власти предоставлять информацию о своей деятельности, в том числе о принятых решениях.
Стратегические ориентиры задает Национальная стратегия развития искусственного интеллекта до 2030 года (утв. Указом Президента № 490 от 10.10.2019), прямо указывающая на необходимость использования ИИ в государственном управлении и одновременно — на важность обеспечения его прозрачности и подотчетности.
В отсутствие единого базового закона специальные требования к ИИ в госуправлении формируются на стыке действующего законодательства, стратегических документов и норм законопроекта, находящегося в стадии разработки. Ключевыми документами, задающими вектор регулирования, являются:
— Федеральный закон от 02.07.2021 № 331-ФЗ «О экспериментальных правовых режимах в сфере цифровых инноваций». Он предоставляет правовую основу для тестирования систем ИИ в публичном секторе в рамках «регуляторных песочниц», позволяя временно отступать от иных норм для апробации новых подходов, в том числе и к обеспечению прозрачности.
— Концепция регулирования искусственного интеллекта и робототехники до 2026 года (утверждена Минэкономразвития России). Этот документ, хотя и не является нормативным актом прямого действия, служит основополагающим источником принципов регулирования ИИ . В нем прямо закреплены принципы, которые впоследствии планируется перенести в законодательство: безопасность, прозрачность и объяснимость, технологический нейтралитет, приоритет прав человека . Именно Концепция детализирует, что принцип прозрачности подразумевает возможность получения пользователем информации о факте использования ИИ, его целях и основных параметрах.
— Проект Федерального закона «Об искусственном интеллекте и внесении изменений в отдельные законодательные акты Российской Федерации» (внесен Правительством РФ, прошел первое чтение в Государственной Думе). Публично доступные редакции данного законопроекта отражают консенсус законодателя по ключевым вопросам и позволяют прогнозировать будущие обязательные требования. Согласно логике проекта:
— Государственные и муниципальные органы, применяющие ИИ в социально значимых сферах (безопасность, правосудие, здравоохранение и т. д.), будут отнесены к категории операторов высокорисковых систем ИИ .
— На таких операторов будут возложены повышенные обязанности, включающие обязательную оценку соответствия системы перед вводом в эксплуатацию, регистрацию данных о системе в специальном реестре, внедрение системы управления рисками.
— Важнейшей гарантией для сферы госуправления является закрепляемый проектом принцип «человеческого контроля , требующий, чтобы окончательное решение, существенно затрагивающее права и свободы граждан, принималось человеком с возможностью отклонения рекомендации, сформированной ИИ.
Таким образом, хотя прямое императивное регулирование алгоритмической прозрачности в виде федерального закона еще не принято, его концептуальные основы и будущие контуры уже четко обозначены в документах, формирующих государственную политику в данной области. Текущий этап можно охарактеризовать как переход от декларации принципов к созданию конкретных правовых механизмов их обеспечения.
Требования к автоматизированным процессам также содержатся в:
— Федеральном законе от 27.07.2010 № 210-ФЗ «Об организации предоставления государственных и муниципальных услуг» (требования к процедурам).
— Регламентах предоставления конкретных услуг , которые должны описывать логику автоматических решений.
— Нормы о персональных данных (Федеральный закон «О персональных данных» от 27.07.2006 № 152-ФЗ) накладывают дополнительные ограничения на обработку информации системами ИИ.
Таким образом, нормативная база движется от общих деклараций к конкретным императивным требованиям, возлагающим на государственных операторов ИИ повышенные обязанности.
Несмотря на формирующуюся законодательную базу, на практике реализация принципов прозрачности и подотчетности сталкивается с серьезными препятствиями.
Коллизия между «объяснимостью» и «коммерческой/государственной тайной». Проект закона «Об ИИ» требует объяснимости, однако логика сложных алгоритмов (особенно глубокого обучения) часто не поддается простой интерпретации даже разработчиками. Более того, поставщик технологий может ссылаться на коммерческую тайну (ст. 1465 ГК РФ) , отказываясь раскрывать исходный код и архитектуру модели. Когда заказчиком выступает государство, на первый план может выйти и государственная тайна . Неразработанность правовых механизмов преодоления этой коллизии создает риск формального соблюдения требований.
Проблема содержания «объяснения». Законопроект не раскрывает, что доставляет достаточное объяснение. Будет ли им техническое описание алгоритма, недоступное для понимания обычного гражданина, или простой вывод фактов, на которых основано решение? Для истинной подотчетности объяснение должно быть содержательным, своевременным и адаптированным для адресата (гражданина, суда, надзорного органа). Отсутствие стандартов объяснимости — значительный правовой пробел.
Сложность распределения ответственности. Кто несет ответственность за вредоносное или дискриминационное решение, принятое государственным органом на основе рекомендации системы ИИ: орган-оператор, разработчик (внешний подрядчик) или оба солидарно? Действующий Закон № 59-ФЗ «О порядке рассмотрения обращений граждан» и нормы о судебном обжаловании действий органов власти (гл. 22 КАС РФ, гл. 24 АПК РФ) не адаптированы для ситуаций, где ключевую роль сыграл алгоритм. Требуется четкое закрепление в законодательстве, что оператор (госорган) несет полную ответственность перед гражданином за любое решение, вынесенное с использованием ИИ, с последующим регрессным требованием к разработчику при наличии вины.
Обеспечение человеческого контроля. Хотя законопроект упоминает главенство человека над ИИ, он не определяет четко, в каких именно случаях, затрагивающих права граждан, окончательное решение обязательно должен принимать человек, а ИИ может выступать лишь в роли советующего инструмента. Это оставляет пространство для злоупотреблений и полной автоматизации социально-значимых решений, что недопустимо в правовом государстве.
Внедрение искусственного интеллекта в государственное и муниципальное управление — неизбежный и потенциально полезный процесс. Однако его правовое сопровождение должно быть сфокусировано не только на эффективности, но в первую очередь на защите основ конституционного строя и прав граждан.
Анализ показывает, что российский законодатель осознает важность проблем алгоритмической прозрачности и подотчетности, что отражается в проекте базового закона об ИИ. Закрепление принципа объяснимости, обязанностей для операторов высокого риска и создания госреестра ИИ — это важные шаги в правильном направлении.
Тем не менее, действующие и проектируемые нормы носят рамочный характер и требуют серьезной детализации. Для формирования полноценного правового режима необходимо:
- Детализировать в подзаконных актах стандарты объяснимости для систем ИИ, используемых в госуправлении, установив требования к форме, содержанию и доступности объяснений для разных категорий пользователей.
- Четко законодательно разграничить сферы , где допустимо полностью автоматическое решение, а где обязателен человеческий контроль с правом вето на алгоритмическую рекомендацию.
- Ввести обязанность проведения обязательного независимого аудита (оценки воздействия) алгоритмов на предмет дискриминации и соблюдения прав человека до их внедрения в публичные процессы.
- Установить ясные процедуры обжалования алгоритмических решений в административном и судебном порядке, с возложением бремени доказывания корректности работы системы на государственный орган-оператор.
- Создать эффективный механизм разрешения конфликта между требованием прозрачности и режимом коммерческой/государственной тайны, возможно, через институт доверенных третьих сторон или специальные процедуры проверки кода для уполномоченных органов.
Только комплексный подход, ставящий во главу угла права человека и публичный интерес, позволит превратить искусственный интеллект в инструмент не просто «умного», но справедливого и подотчетного государства.
Литература:
1. Федеральный закон Российской Федерации «Об обеспечении доступа к информации о деятельности государственных органов и органов местного самоуправления» от 09.02.2009 № 8-ФЗ // Собрание законодательства Российской Федерации
2. Указ Президента Российской Федерации «О развитии искусственного интеллекта в Российской Федерации» от 10.10.2019 № 490 // Собрание законодательства Российской Федерации.
3. Гражданский кодекс Российской Федерации от 18.12.2006 № 230-ФЗ // часть четвертая. — 2006.
4. Федеральный закон Российской Федерации «О внесении изменений в отдельные законодательные акты Российской Федерации в связи с принятием Федерального закона «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации» от 02.07.2021 № 331-ФЗ // Собрание законодательства Российской Федерации.
5. Федеральный закон Российской Федерации «О персональных данных» от 14.07.2006 № 152-ФЗ // Собрание законодательства Российской Федерации.

