Отправьте статью сегодня! Журнал выйдет ..., печатный экземпляр отправим ...
Опубликовать статью

Молодой учёный

Правовое регулирование системы искусственного интеллекта: актуальные вопросы

Юриспруденция
14.02.2026
5
Поделиться
Аннотация
В статье рассматриваются вопросы законодательного регулирования применению искусственного интеллекта в России, поскольку эта технология представляет потенциальную угрозу для информационной безопасности, которая является основополагающим элементом защиты национальных интересов. В том числе автором исследован опыт иных стран, выделены основные особенности правового регулирования применения искусственного интеллекта в судопроизводстве иных государств, отмечены основные проблемы нормативного регулирования. Автором установлено, что несмотря на широту своего распространения, и обсуждаемость в научно-практических кругах, вопросы применения технологии искусственный интеллект не получили своего нормативного закрепления. Объектом исследования стали комплекс проблем применения технологии искусственный интеллект в контексте обеспечения информационной безопасности. Результатом исследования выступают предложения, направленные на совершенствование законодательной основы, регулирующей применение искусственного интеллекта в различных отраслях, поскольку в настоящее время подобная нормативная основа отсутствует, что влечет рост числа правонарушений, связанных с применением этой технологии. Издавая регламентирующие документы, правительство оставляет за собой весомые рычаги воздействия, что существенно расширяет горизонты для контроля за деятельностью предпринимателей. Параллельно с этим, оказывается мощная поддержка внедрению инновационных разработок с целью создания глобальной платформы отслеживания многоплановых сторон общественной жизни. В России реализуемая стратегия основана на определении приоритетных юридических дилемм, а также комплексных и нишевых задач, касающихся юридической регламентации. Также автором сделан вывод, что принимаемые правовые акты должны предусматривать обязательства по прозрачности и объяснению ИИ-алгоритмов, защиту персональных данных, проведение обязательных проверок и аудитов ИИ-систем, а также закреплять ответственность за ошибки или ущерб, связанный с их применением.
Библиографическое описание
Гриньков, В. А. Правовое регулирование системы искусственного интеллекта: актуальные вопросы / В. А. Гриньков. — Текст : непосредственный // Молодой ученый. — 2026. — № 7 (610). — С. 122-126. — URL: https://moluch.ru/archive/610/133330.


Введение

В настоящее время информационные технологии стремительно проникают в повседневную жизнь как всего общества, так и каждого индивидуума в отдельности, становясь существенным элементом государственного и общегражданского потребления. Нельзя отрицать то, что человечество достигло того этапа цивилизационного развития, на котором основой прогресса являются успехи научно-технического развития, цифровые технологии, нейронные сети, вычислительные машины и интеллектуальные системы. Особое внимание уделяется искусственному интеллекту (ИИ), который, является одной из самых дискуссионных тем в текущий период развития общества. При этом, несмотря на широту своего распространения, и обсуждаемость в научно-практических кругах, вопросы применения технологии искусственный интеллект не получили своего нормативного закрепления. Кроме того, особую актуальность в условиях стремительного развития технологий и появления новых угроз приобретают вопросы обеспечения кибербезопасности, поскольку от этого зависит не только эффективность цифровой экономики, но и безопасность личности, бизнеса и государства. Наряду с этим, среди актуальных проблем в правовом регулировании, следует выделить:

  1. Фрагментарность законодательных положений для использования искусственного интеллекта в медицинских учреждениях, что создает риск нарушения прав пациентов при обработке их медицинской информации и принятии неверных решений в диагностике и лечении.
  2. Фактическое отсутствие законодательной базы для использования искусственного интеллекта в банковском секторе, что может стать причиной незаконных и недобросовестных действий банков и потребителей финансовых услуг.
  3. Существует опасность чрезмерного применения искусственного интеллекта в правоохранительных органах, что может привести к ущемлению гражданских прав и несправедливому судебному преследованию [4, с.365].
  4. Отсутствие механизма юридической ответственности за вред, причиненный в результате использования технологии ИИ.

Необходимо разработать законы и механизмы, которые учитывают все перечисленные выше факторы, для обеспечения разумного использования искусственного интеллекта. Эти правовые акты должны предусматривать обязательства по прозрачности и объяснению ИИ-алгоритмов, защиту персональных данных, проведение обязательных проверок и аудитов ИИ-систем, а также закреплять ответственность за ошибки или ущерб, связанный с их применением. Одним из важных шагов является укрепление сотрудничества между государственными структурами, академическими учреждениями, бизнесом и обществом, чтобы эффективно разрабатывать законодательство, которое учтет быстрый прогресс технологий и потребности современного общества.

Материалы и методы исследований

Материалами исследования послужили российское и иностранное законодательство, научная литература по теме исследования. Методы исследования включают в себя методы анализа, в частности анализа концепций правового регулирования, метод синтеза, индукции и дедукции. При помощи формально-юридического метода изучены положения отдельных нормативных правовых актов, что позволило определить особенности правового регулирования общественных отношений в рассматриваемой сфере.

Результаты и обсуждение

Логику научного повествования следует начинать с уяснения самого понятия «информационная безопасность», которая охватывает защиту как отдельных граждан, так и государства от разнообразных информационных угроз, что помогает сохранить конституционные права и свободы населения [2].

Информационная безопасность включает методы использования информационных и коммуникационных технологий. Основные направления её развития закреплены в Указе Президента Российской Федерации № 203 «О Стратегии развития информационного общества в Российской Федерации на 2017–2030 годы» [3], предусматривающем внедрение таких технологий, как искусственный интеллект.

Министерство цифрового развития, связи и массовых коммуникаций Российской Федерации выделяет искусственный интеллект в рамках Национальной программы «Цифровая экономика Российской Федерации», рассматривая его как технологию с применением в различных областях общественной жизни, что подчеркивает значимость данной темы и необходимость разработки единого правового механизма регулирования, учитывающего особенности разных сфер.

На данный момент в правовой системе России отсутствует единое определение искусственного интеллекта. Однако экспериментальный закон от 24 апреля 2020 года № 123-ФЗ определяет искусственный интеллект как технологическую систему, способную имитировать когнитивные функции человека. Это подразумевает ее способность к обучению и выполнению задач без заранее заданных алгоритмов, а также достижение результатов, сопоставимых с человеческим мышлением [4]. Полагаем, текущее определение, носящее экспериментальный характер, основывается на технических аспектах и не учитывает специфических правовых критериев; что, на наш взгляд, является недостатком. В этом контексте, стоит отметить, что в специальном Федеральном законе «Об информации, информационных технологиях и защите информации» искусственный интеллект не упоминается совсем, что создает пробел в правовом регулировании и способствует как широкому распространению этих технологий, так и созданию угрозы кибербезопасности в России. Полагаем, необходимо устранить данный недостаток путем нормативного закрепления в Федеральный закон «Об информации, информационных технологиях и защите информации» технологию искусственный интеллект, сформулировать ее дефиницию и определить принципы применения.

Рассматривая зарубежный опыт применения искусственного интеллекта отметим также фрагментарное правовое регулирование. Так, в США и Великобритании существуют отдельные законы, посвященные сфере робототехники. 11 февраля 2019 года президент США издал указ, который поддерживает лидерство страны в области искусственного интеллекта, подчёркивая его значение для поддержания экономической и национальной безопасности. Современные технологии, включая ИИ, рассматриваются как основная сила для развития «отраслей будущего», влияющая практически на все аспекты жизни. С марта 2019 года функционирует интернет-ресурс AI.gov, который упрощает доступ к информации о национальных инициативах в этой области для граждан и организаций.

В США законодательные предложения по регулированию искусственного интеллекта представлены несколькими законопроектами, среди которых выделяются:

– законопроект о будущих перспективах ИИ (Future of AI Act, 2017);

– законопроект о создании Национальной комиссии по безопасности в секторе ИИ (National Security Commission Artificial Intelligence Act, 2018), одобренный Конгрессом;

– проект закона, требующий отчётности по вопросам ИИ (Artificial Intelligence Reporting Act, 2018);

– законопроект об использовании ИИ в государственном управлении (AI in Government Act, 2018);

– закон о внедрении ИИ на рабочих местах (AI Jobs Act, 2019);

– инициативный законопроект в сфере ИИ (Artificial Intelligence Initiative Act, 2019) и прочие [5, c. 40].

В Китае искусственный интеллект также признан приоритетным направлением государственной политики, что было отражено в июле 2017 года в «Плане развития искусственного интеллекта следующего поколения», который интегрирован в инициативу «Сделано в Китае 2025».

В китайском законодательстве первоначально искусственный интеллект рассматривался не как самостоятельный субъект, а как компонент промышленной отрасли [6, 132].

В китайской стратегии ИИ считается ключевым элементом экономического роста, способствующим развитию новых технологий и секторов, что изменяет экономическую структуру, производство, стиль жизни и мышление общества.

Особенности развития искусственного интеллекта в Китае обусловлены несколькими важными аспектами. В первую очередь, в КНР существенная доля исследований в области ИИ проводится в соответствии с законодательными нормами и нормативно-правовым регулированием [7, c. 1]. При этом акцент делается на том, что при обеспечении законности необходимо придерживаться принципов прозрачности и понятности. В соответствии с технологическими возможностями устанавливаются различные требования к предоставлению и толкованию данных, учитывая потенциал как регулирующих органов, так и общества в целом.

Еще одной отличительной чертой китайского подхода является акцент на классификации систем ИИ. Анализ профильной литературы показывает, что в сфере цифрового права Китая прослеживается динамика: от изначальной стратегии выборочного снижения рисков эксперты перешли к систематическому управлению рисками, основанному на иерархической структуре управления, охватывающей все стадии жизненного цикла ИИ-систем [8, c. 136]. Указанная стратегия имеет точки соприкосновения с европейским опытом. Подобно Европейскому союзу, категоризация используемых алгоритмов и контроль за безопасностью рассматриваются как основные инструменты для обеспечения безопасности алгоритмов в будущем.

Китайская ассоциация искусственного интеллекта (CAAI) играет значительную роль в установлении этических стандартов в области ИИ. В мае 2019 года были обнародованы «Пекинские принципы искусственного интеллекта», акцентирующие внимание на значимости формирования единого мирового сообщества с общей судьбой и настоятельно рекомендующие использовать ИИ во благо человечества и природы. В этом же контексте, Европейский парламент принял резолюцию, содержащую рекомендации Комиссии по юридическим вопросам в области робототехники, где акцентируется внимание на способности искусственного интеллекта к автономности и адаптации. Некоторые считают, что это дает основания для привлечения ИИ к ответственности за вредоносные поступки [9, с. 206]. Однако полагаем, что такая точка зрения поспешна, побуждает вновь обращаться к дискуссии о субъектовости искусственного интеллекта. Считаем, следует в дальнейшем придерживаться того, что технология искусственный объект выступает объектом прав, а потому привлекать к ответственности следует субъектов, а именно тех лиц, которые используют данную технологию в противоправных целях. Это утверждение основывается на нескольких объективных причинах.

Прежде всего, юридическая ответственность предполагает негативные последствия для нарушителя, ограничивая его права в личной и имущественной сферах. Возникает вопрос: какие личные права могут быть у искусственного интеллекта, который всего лишь набор технологий и не является субъектом права?

Кроме этого, при оценке правовой ответственности людей, пользующихся такими технологиями, важно различать роль «разработчика», «владельца» и «пользователя». Владение подразумевает фактическое обладание объектом, в то время как использование связано с извлечением из него полезных функций.

Например, не каждый обладатель искусственного интеллекта непосредственно им пользуется, следовательно, он не может контролировать его действия. Поэтому в этой ситуации ответственность должен нести пользователь.

Вопрос ответственности за развитие технологий искусственного интеллекта вызывает дискуссии среди юристов. С одной стороны, разработчики создают основные алгоритмы программ, и в международной практике права известны случаи, когда именно они несли ответственность за ущерб, причинённый этими технологиями. Например, в 2013 году в США компанию Toyota обязали выплатить компенсацию в деле Bookout против Toyota.

С другой стороны, эти технологии задействуют множество процессов, которые трудно контролировать, и разработчики не всегда могут предвидеть негативные последствия применения своих программ.

По нашему мнению, законодатель должен учитывать этот аспект и возлагать ответственность на разработчиков только в тех случаях, когда искусственный интеллект создаётся с целью нарушения закона.

При изучении правового регулирования искусственного интеллекта необходимо принимать во внимание потенциальные риски в сфере кибербезопасности. Текущий федеральный закон не содержит достаточных норм для обеспечения устойчивых отношений в информационной среде.

Ключевая задача заключается в том, чтобы защитить данные от несанкционированных попыток доступа, уничтожения, изменения, блокировки, копирования, распространения и других неправомерных действий. Однако с появлением искусственного интеллекта выполнение этой задачи усложнилось [10, с. 46]. Известный фантаст Айзек Азимов писал: «Робот не должен причинять вред человеку или своим бездействием допускать, чтобы человеку был причинён вред». Этот принцип также применяется к искусственному интеллекту.

Некоторые виды кибератак могут проводиться с помощью искусственного интеллекта, включая атаки на банковские карты и защищённые цифровые данные. Это становится особенно важным, когда искусственный интеллект начинает действовать по непредсказуемым алгоритмам, отклоняясь от первоначальных инструкций. В таких условиях существует риск того, что искусственный интеллект может самостоятельно совершить незаконные действия, такие как несанкционированный доступ к информации.

Поэтому необходимо не только закрепить понятие «искусственный интеллект» и его ключевые принципы в соответствующих законах, но и разработать меры для повышения уровня защиты личных данных граждан.

Выводы

В свете всего изложенного выше, важно отметить, что цифровое преобразование не должно ущемлять права индивидов. Развитие технологий в сфере искусственного интеллекта представляет собой ключевое направление, которое требует своевременного законодательного регулирования с учётом особенностей различных областей человеческой деятельности, где эти технологии находят активное применение.

Следует выделить главные аспекты законодательного регулирования искусственного интеллекта в России:

  1. введение официального определения термина «искусственный интеллект» на уровне федерального закона. Например, искусственный интеллект — комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека;
  2. определение правового положения этой технологии и принципов (пределов) её применения;
  3. установление ответственности перед законом для разработчиков, владельцев и пользователей искусственного интеллекта;
  4. обеспечение безопасности информации при использовании искусственного интеллекта в разных секторах общественной жизни.

Литература:

  1. Забродский Д. С. Некоторые особенности правового регулирования искусственного интеллекта / Д. С. Забродский // В книге: Проблемы совершенствования российского законодательства. Барнаул, 2024. С. 365–367.
  2. Об информации, информационных технологиях и о защите информации: Федеральный закон от 27.07.2006 № 149-ФЗ (в ред. от 23.11.2014) // СПС «Консультант плюс». — URL: https://www.consultant.ru/cons/cgi/online.cgi?req=doc&base=LAW&n=483355&dst=1000000001&cacheid=C8ACA5A57496D734CE216AC57F295727&mode=splus&rnd=XHBAuaUg7xNtapNw#Y9KAuaUGyXj9fvxa2 (дата обращения: 30.08.2025).
  3. О Стратегии развития информационного общества в Российской Федерации на 2017–2030 годы: Указ Президента РФ от 09.05.2017 N 203 Об информации, информационных технологиях и о защите информации: Федеральный закон от 27.07.2006 № 149-ФЗ (в ред. от 23.11.2014) // СПС «Консультант плюс». — URL: https://www.consultant.ru/cons/cgi/online.cgi?req=doc&base=LAW&n=216363&dst=1000000001&cacheid=49CCBC64FB71A831C650AA32C790AEFD&mode=splus&rnd=TYWEdw#1JNAuaUk4HyF6pr7 (дата обращения: 30.08.2025).
  4. О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных»: Федеральный закон от 24.04.2020 N 123-ФЗ // СПС «Консультант плюс». — URL: https://www.consultant.ru/cons/cgi/online.cgi?req=doc&base=LAW&n=351127&cacheid=285E19C0CE23818AF6CA97C72B0F0521&mode=splus&rnd=TYWEdw#USZAuaUqHsL2GPvJ (дата обращения: 30.08.2025).
  5. Kan A. E. Comparative analysis of the american and chinese approaches to the legal regulation of artificial intelligence / A. E. Kan, N. V. Barsukova // Актуальные вопросы борьбы с преступлениями. 2024. № 5. С. 39–43.
  6. Харитонова Ю. С. Правовые подходы к регулированию искусственного интеллекта: уроки китайского права / Ю. С. Харитонова // Lex Russica (Русский закон). 2025. Т. 78. № 5 (222). С. 130–138.
  7. Чжан С. Продвижение верховенства закона с главным направлением продвижения нового качества продуктивности цифрового интеллекта / С. Чжан // Цифровое правовое государство. 2024. № 4. С. 1–4.
  8. Чжао Ц. О смене парадигмы цифровых юридических исследований: системное управление рисками / Ц. Чжао, Ж. Чжоу // Академический журнал Цюши. 2024. № 4. С. 135–138.
  9. Овчинников А. И. Правовая политика в сфере регулирования искусственного интеллекта: зарубежный опыт нормирования и выстраивания приоритетов / А. И. Овчинников, Е. С. Селиванова, А. С. Конопий // Вестник Томского государственного университета. 2024. № 502. С. 204–213.
  10. Завьялов Д. Д. Правовое регулирование искусственного интеллекта / Д. Д. Завьялов // Digital. 2024. Т. 5. № 3. С. 44–51.
Можно быстро и просто опубликовать свою научную статью в журнале «Молодой Ученый». Сразу предоставляем препринт и справку о публикации.
Опубликовать статью

Молодой учёный