Введение
В настоящее время информационные технологии стремительно проникают в повседневную жизнь как всего общества, так и каждого индивидуума в отдельности, становясь существенным элементом государственного и общегражданского потребления. Нельзя отрицать то, что человечество достигло того этапа цивилизационного развития, на котором основой прогресса являются успехи научно-технического развития, цифровые технологии, нейронные сети, вычислительные машины и интеллектуальные системы. Особое внимание уделяется искусственному интеллекту (ИИ), который, является одной из самых дискуссионных тем в текущий период развития общества. При этом, несмотря на широту своего распространения, и обсуждаемость в научно-практических кругах, вопросы применения технологии искусственный интеллект не получили своего нормативного закрепления. Кроме того, особую актуальность в условиях стремительного развития технологий и появления новых угроз приобретают вопросы обеспечения кибербезопасности, поскольку от этого зависит не только эффективность цифровой экономики, но и безопасность личности, бизнеса и государства. Наряду с этим, среди актуальных проблем в правовом регулировании, следует выделить:
- Фрагментарность законодательных положений для использования искусственного интеллекта в медицинских учреждениях, что создает риск нарушения прав пациентов при обработке их медицинской информации и принятии неверных решений в диагностике и лечении.
- Фактическое отсутствие законодательной базы для использования искусственного интеллекта в банковском секторе, что может стать причиной незаконных и недобросовестных действий банков и потребителей финансовых услуг.
- Существует опасность чрезмерного применения искусственного интеллекта в правоохранительных органах, что может привести к ущемлению гражданских прав и несправедливому судебному преследованию [4, с.365].
- Отсутствие механизма юридической ответственности за вред, причиненный в результате использования технологии ИИ.
Необходимо разработать законы и механизмы, которые учитывают все перечисленные выше факторы, для обеспечения разумного использования искусственного интеллекта. Эти правовые акты должны предусматривать обязательства по прозрачности и объяснению ИИ-алгоритмов, защиту персональных данных, проведение обязательных проверок и аудитов ИИ-систем, а также закреплять ответственность за ошибки или ущерб, связанный с их применением. Одним из важных шагов является укрепление сотрудничества между государственными структурами, академическими учреждениями, бизнесом и обществом, чтобы эффективно разрабатывать законодательство, которое учтет быстрый прогресс технологий и потребности современного общества.
Материалы и методы исследований
Материалами исследования послужили российское и иностранное законодательство, научная литература по теме исследования. Методы исследования включают в себя методы анализа, в частности анализа концепций правового регулирования, метод синтеза, индукции и дедукции. При помощи формально-юридического метода изучены положения отдельных нормативных правовых актов, что позволило определить особенности правового регулирования общественных отношений в рассматриваемой сфере.
Результаты и обсуждение
Логику научного повествования следует начинать с уяснения самого понятия «информационная безопасность», которая охватывает защиту как отдельных граждан, так и государства от разнообразных информационных угроз, что помогает сохранить конституционные права и свободы населения [2].
Информационная безопасность включает методы использования информационных и коммуникационных технологий. Основные направления её развития закреплены в Указе Президента Российской Федерации № 203 «О Стратегии развития информационного общества в Российской Федерации на 2017–2030 годы» [3], предусматривающем внедрение таких технологий, как искусственный интеллект.
Министерство цифрового развития, связи и массовых коммуникаций Российской Федерации выделяет искусственный интеллект в рамках Национальной программы «Цифровая экономика Российской Федерации», рассматривая его как технологию с применением в различных областях общественной жизни, что подчеркивает значимость данной темы и необходимость разработки единого правового механизма регулирования, учитывающего особенности разных сфер.
На данный момент в правовой системе России отсутствует единое определение искусственного интеллекта. Однако экспериментальный закон от 24 апреля 2020 года № 123-ФЗ определяет искусственный интеллект как технологическую систему, способную имитировать когнитивные функции человека. Это подразумевает ее способность к обучению и выполнению задач без заранее заданных алгоритмов, а также достижение результатов, сопоставимых с человеческим мышлением [4]. Полагаем, текущее определение, носящее экспериментальный характер, основывается на технических аспектах и не учитывает специфических правовых критериев; что, на наш взгляд, является недостатком. В этом контексте, стоит отметить, что в специальном Федеральном законе «Об информации, информационных технологиях и защите информации» искусственный интеллект не упоминается совсем, что создает пробел в правовом регулировании и способствует как широкому распространению этих технологий, так и созданию угрозы кибербезопасности в России. Полагаем, необходимо устранить данный недостаток путем нормативного закрепления в Федеральный закон «Об информации, информационных технологиях и защите информации» технологию искусственный интеллект, сформулировать ее дефиницию и определить принципы применения.
Рассматривая зарубежный опыт применения искусственного интеллекта отметим также фрагментарное правовое регулирование. Так, в США и Великобритании существуют отдельные законы, посвященные сфере робототехники. 11 февраля 2019 года президент США издал указ, который поддерживает лидерство страны в области искусственного интеллекта, подчёркивая его значение для поддержания экономической и национальной безопасности. Современные технологии, включая ИИ, рассматриваются как основная сила для развития «отраслей будущего», влияющая практически на все аспекты жизни. С марта 2019 года функционирует интернет-ресурс AI.gov, который упрощает доступ к информации о национальных инициативах в этой области для граждан и организаций.
В США законодательные предложения по регулированию искусственного интеллекта представлены несколькими законопроектами, среди которых выделяются:
– законопроект о будущих перспективах ИИ (Future of AI Act, 2017);
– законопроект о создании Национальной комиссии по безопасности в секторе ИИ (National Security Commission Artificial Intelligence Act, 2018), одобренный Конгрессом;
– проект закона, требующий отчётности по вопросам ИИ (Artificial Intelligence Reporting Act, 2018);
– законопроект об использовании ИИ в государственном управлении (AI in Government Act, 2018);
– закон о внедрении ИИ на рабочих местах (AI Jobs Act, 2019);
– инициативный законопроект в сфере ИИ (Artificial Intelligence Initiative Act, 2019) и прочие [5, c. 40].
В Китае искусственный интеллект также признан приоритетным направлением государственной политики, что было отражено в июле 2017 года в «Плане развития искусственного интеллекта следующего поколения», который интегрирован в инициативу «Сделано в Китае 2025».
В китайском законодательстве первоначально искусственный интеллект рассматривался не как самостоятельный субъект, а как компонент промышленной отрасли [6, 132].
В китайской стратегии ИИ считается ключевым элементом экономического роста, способствующим развитию новых технологий и секторов, что изменяет экономическую структуру, производство, стиль жизни и мышление общества.
Особенности развития искусственного интеллекта в Китае обусловлены несколькими важными аспектами. В первую очередь, в КНР существенная доля исследований в области ИИ проводится в соответствии с законодательными нормами и нормативно-правовым регулированием [7, c. 1]. При этом акцент делается на том, что при обеспечении законности необходимо придерживаться принципов прозрачности и понятности. В соответствии с технологическими возможностями устанавливаются различные требования к предоставлению и толкованию данных, учитывая потенциал как регулирующих органов, так и общества в целом.
Еще одной отличительной чертой китайского подхода является акцент на классификации систем ИИ. Анализ профильной литературы показывает, что в сфере цифрового права Китая прослеживается динамика: от изначальной стратегии выборочного снижения рисков эксперты перешли к систематическому управлению рисками, основанному на иерархической структуре управления, охватывающей все стадии жизненного цикла ИИ-систем [8, c. 136]. Указанная стратегия имеет точки соприкосновения с европейским опытом. Подобно Европейскому союзу, категоризация используемых алгоритмов и контроль за безопасностью рассматриваются как основные инструменты для обеспечения безопасности алгоритмов в будущем.
Китайская ассоциация искусственного интеллекта (CAAI) играет значительную роль в установлении этических стандартов в области ИИ. В мае 2019 года были обнародованы «Пекинские принципы искусственного интеллекта», акцентирующие внимание на значимости формирования единого мирового сообщества с общей судьбой и настоятельно рекомендующие использовать ИИ во благо человечества и природы. В этом же контексте, Европейский парламент принял резолюцию, содержащую рекомендации Комиссии по юридическим вопросам в области робототехники, где акцентируется внимание на способности искусственного интеллекта к автономности и адаптации. Некоторые считают, что это дает основания для привлечения ИИ к ответственности за вредоносные поступки [9, с. 206]. Однако полагаем, что такая точка зрения поспешна, побуждает вновь обращаться к дискуссии о субъектовости искусственного интеллекта. Считаем, следует в дальнейшем придерживаться того, что технология искусственный объект выступает объектом прав, а потому привлекать к ответственности следует субъектов, а именно тех лиц, которые используют данную технологию в противоправных целях. Это утверждение основывается на нескольких объективных причинах.
Прежде всего, юридическая ответственность предполагает негативные последствия для нарушителя, ограничивая его права в личной и имущественной сферах. Возникает вопрос: какие личные права могут быть у искусственного интеллекта, который всего лишь набор технологий и не является субъектом права?
Кроме этого, при оценке правовой ответственности людей, пользующихся такими технологиями, важно различать роль «разработчика», «владельца» и «пользователя». Владение подразумевает фактическое обладание объектом, в то время как использование связано с извлечением из него полезных функций.
Например, не каждый обладатель искусственного интеллекта непосредственно им пользуется, следовательно, он не может контролировать его действия. Поэтому в этой ситуации ответственность должен нести пользователь.
Вопрос ответственности за развитие технологий искусственного интеллекта вызывает дискуссии среди юристов. С одной стороны, разработчики создают основные алгоритмы программ, и в международной практике права известны случаи, когда именно они несли ответственность за ущерб, причинённый этими технологиями. Например, в 2013 году в США компанию Toyota обязали выплатить компенсацию в деле Bookout против Toyota.
С другой стороны, эти технологии задействуют множество процессов, которые трудно контролировать, и разработчики не всегда могут предвидеть негативные последствия применения своих программ.
По нашему мнению, законодатель должен учитывать этот аспект и возлагать ответственность на разработчиков только в тех случаях, когда искусственный интеллект создаётся с целью нарушения закона.
При изучении правового регулирования искусственного интеллекта необходимо принимать во внимание потенциальные риски в сфере кибербезопасности. Текущий федеральный закон не содержит достаточных норм для обеспечения устойчивых отношений в информационной среде.
Ключевая задача заключается в том, чтобы защитить данные от несанкционированных попыток доступа, уничтожения, изменения, блокировки, копирования, распространения и других неправомерных действий. Однако с появлением искусственного интеллекта выполнение этой задачи усложнилось [10, с. 46]. Известный фантаст Айзек Азимов писал: «Робот не должен причинять вред человеку или своим бездействием допускать, чтобы человеку был причинён вред». Этот принцип также применяется к искусственному интеллекту.
Некоторые виды кибератак могут проводиться с помощью искусственного интеллекта, включая атаки на банковские карты и защищённые цифровые данные. Это становится особенно важным, когда искусственный интеллект начинает действовать по непредсказуемым алгоритмам, отклоняясь от первоначальных инструкций. В таких условиях существует риск того, что искусственный интеллект может самостоятельно совершить незаконные действия, такие как несанкционированный доступ к информации.
Поэтому необходимо не только закрепить понятие «искусственный интеллект» и его ключевые принципы в соответствующих законах, но и разработать меры для повышения уровня защиты личных данных граждан.
Выводы
В свете всего изложенного выше, важно отметить, что цифровое преобразование не должно ущемлять права индивидов. Развитие технологий в сфере искусственного интеллекта представляет собой ключевое направление, которое требует своевременного законодательного регулирования с учётом особенностей различных областей человеческой деятельности, где эти технологии находят активное применение.
Следует выделить главные аспекты законодательного регулирования искусственного интеллекта в России:
- введение официального определения термина «искусственный интеллект» на уровне федерального закона. Например, искусственный интеллект — комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека;
- определение правового положения этой технологии и принципов (пределов) её применения;
- установление ответственности перед законом для разработчиков, владельцев и пользователей искусственного интеллекта;
- обеспечение безопасности информации при использовании искусственного интеллекта в разных секторах общественной жизни.
Литература:
- Забродский Д. С. Некоторые особенности правового регулирования искусственного интеллекта / Д. С. Забродский // В книге: Проблемы совершенствования российского законодательства. Барнаул, 2024. С. 365–367.
- Об информации, информационных технологиях и о защите информации: Федеральный закон от 27.07.2006 № 149-ФЗ (в ред. от 23.11.2014) // СПС «Консультант плюс». — URL: https://www.consultant.ru/cons/cgi/online.cgi?req=doc&base=LAW&n=483355&dst=1000000001&cacheid=C8ACA5A57496D734CE216AC57F295727&mode=splus&rnd=XHBAuaUg7xNtapNw#Y9KAuaUGyXj9fvxa2 (дата обращения: 30.08.2025).
- О Стратегии развития информационного общества в Российской Федерации на 2017–2030 годы: Указ Президента РФ от 09.05.2017 N 203 Об информации, информационных технологиях и о защите информации: Федеральный закон от 27.07.2006 № 149-ФЗ (в ред. от 23.11.2014) // СПС «Консультант плюс». — URL: https://www.consultant.ru/cons/cgi/online.cgi?req=doc&base=LAW&n=216363&dst=1000000001&cacheid=49CCBC64FB71A831C650AA32C790AEFD&mode=splus&rnd=TYWEdw#1JNAuaUk4HyF6pr7 (дата обращения: 30.08.2025).
- О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных»: Федеральный закон от 24.04.2020 N 123-ФЗ // СПС «Консультант плюс». — URL: https://www.consultant.ru/cons/cgi/online.cgi?req=doc&base=LAW&n=351127&cacheid=285E19C0CE23818AF6CA97C72B0F0521&mode=splus&rnd=TYWEdw#USZAuaUqHsL2GPvJ (дата обращения: 30.08.2025).
- Kan A. E. Comparative analysis of the american and chinese approaches to the legal regulation of artificial intelligence / A. E. Kan, N. V. Barsukova // Актуальные вопросы борьбы с преступлениями. 2024. № 5. С. 39–43.
- Харитонова Ю. С. Правовые подходы к регулированию искусственного интеллекта: уроки китайского права / Ю. С. Харитонова // Lex Russica (Русский закон). 2025. Т. 78. № 5 (222). С. 130–138.
- Чжан С. Продвижение верховенства закона с главным направлением продвижения нового качества продуктивности цифрового интеллекта / С. Чжан // Цифровое правовое государство. 2024. № 4. С. 1–4.
- Чжао Ц. О смене парадигмы цифровых юридических исследований: системное управление рисками / Ц. Чжао, Ж. Чжоу // Академический журнал Цюши. 2024. № 4. С. 135–138.
- Овчинников А. И. Правовая политика в сфере регулирования искусственного интеллекта: зарубежный опыт нормирования и выстраивания приоритетов / А. И. Овчинников, Е. С. Селиванова, А. С. Конопий // Вестник Томского государственного университета. 2024. № 502. С. 204–213.
- Завьялов Д. Д. Правовое регулирование искусственного интеллекта / Д. Д. Завьялов // Digital. 2024. Т. 5. № 3. С. 44–51.

