В последние десятилетия стремительное развитие технологий искусственного интеллекта (далее — ИИ) поставило перед юридическим сообществом целый ряд вопросов, которые прежде казались уделом исключительно научной фантастики. Роботы заключают сделки, алгоритмы управляют финансовыми активами, а автономные транспортные средства становятся участниками дорожно-транспортных происшествий.
Актуальность темы обусловлена тем, что действующее законодательство России не содержит чёткого ответа на вопрос о правовом статусе систем ИИ. В целях настоящего исследования под искусственным интеллектом понимается «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека».
Гражданский кодекс Российской Федерации по-прежнему исходит из классического разделения субъектов — физических и юридических лиц — и не предусматривает для ИИ никакого самостоятельного места в системе гражданского права. Между тем мировая практика уже демонстрирует попытки выйти за пределы устоявшихся правовых категорий. С позиции классической правовой доктрины всё многообразие явлений окружающего мира делится на субъекты права (носители прав и обязанностей) и объекты права (то, по поводу чего возникают правоотношения). Традиционно ИИ относили к объектам права — программному обеспечению, охраняемому нормами об интеллектуальной собственности. Однако усложнение систем ИИ, их способность к самообучению и принятию автономных решений всё труднее поддаётся описанию в рамках данной парадигмы. Принципиальная сложность состоит в том, что поведение современных систем ИИ зачастую не может быть полностью предсказано и объяснено даже их разработчиком [1].
В доктрине сложилось несколько конкурирующих подходов. Первый — инструментальный: рассматривает ИИ исключительно как сложную вещь или программный продукт, то есть объект гражданских прав. Второй — субъектный: допускает признание ИИ самостоятельным субъектом права. Третий — смешанный: предполагает создание специального правового режима, не вписывающегося в традиционные категории. По мнению ряда исследователей, именно смешанный подход наиболее соответствует природе современных ИИ-систем [4].
Наиболее резонансной попыткой решить данную проблему на законодательном уровне стала Резолюция Европейского парламента от 16 февраля 2017 года, в которой законодателям предложили рассмотреть возможность создания специального правового статуса для наиболее продвинутых роботов — так называемого «электронного лица» [7]. Согласно данной концепции, наиболее автономные роботы могли бы быть наделены определённой правосубъектностью и нести ответственность за причинённый ущерб при наличии специального страхового фонда. Данная идея прямо перекликалась с исторически существовавшими аналогами: правовым статусом раба в римском праве или особого имущества, выделенного подвластному лицу. Концепция «электронного лица» вызвала волну критики: в открытом письме в Европейскую комиссию в 2018 году более 150 экспертов в области ИИ и этики указали на преждевременность данного шага и риск создания безответственных корпоративных структур.
В российской науке справедливо отмечают, что идея «электронного лица» во многом основана на перенесении человеческих качеств на технику. Авторы пытаются подогнать совершенно новое явление под правила, которые изначально писались для людей. Но этот спор очень важен, потому что он впервые заставил мировое сообщество серьёзно задуматься о том, нужен ли искусственному интеллекту свой собственный правовой статус. В российском праве вопрос о правовом статусе ИИ не нашёл законодательного разрешения. Федеральный закон от 31 июля 2020 г. № 258-ФЗ создал рамочные условия для тестирования технологий ИИ в рамках экспериментальных правовых режимов, однако прямо не затронул вопросы правосубъектности.
Есть несколько подходов к оценке ИИ как в качестве субъекта, так и в качестве объекта. Первый — инструментальный: подход рассматривает ИИ исключительно как объект гражданских прав, возлагая всю ответственность за его действия на владельца или разработчика по модели ответственности за вред, причинённый источником повышенной опасности. Данный подход сохраняет правовую определённость, однако плохо работает в ситуациях, когда поведение ИИ не может быть предсказано никем из участников цепочки создания и эксплуатации системы. Второй — субъектный: подход допускает наделение ИИ ограниченной правоспособностью. В частности, предлагается разработать концепцию «робота-агента», действующего в гражданском обороте в рамках заранее определённых полномочий [4]. Третий — смешанный: подход предполагает создание специального правового режима без полного отказа от традиционных категорий.
В классическом понимании деликтная ответственность предполагает наличие вины как психического отношения субъекта к своим действиям и их последствиям. Очевидно, что ИИ не обладает психикой и не может «виновно» причинить вред, что создаёт серьёзные препятствия для применения традиционных конструкций гражданско-правовой ответственности. Именно поэтому в условиях, когда поведение ИИ становится непредсказуемым даже для его создателей, концепция вины как центрального элемента деликтного права существенно утрачивает своё значение.
Особую проблему представляет так называемый «разрыв в ответственности»: ситуация, когда поведение ИИ, причинившее вред, не может быть в полной мере приписано ни разработчику, который не мог предвидеть конкретное решение самообучающейся системы, ни пользователю, который не контролировал алгоритм принятия решений, ни самой системе, которая не является субъектом права. Данная проблема особенно остро проявляется при применении технологий глубокого обучения, где объяснимость решений ИИ принципиально ограничена [1].
Показательно, что данная проблема фиксируется не только в доктринальных исследованиях, но и в специальной учебной литературе. Так, К. И. Тимощук, Ю. М. Боброва и Ш. М. Шурпаев констатируют, что ИИ «не является субъектом правовых отношений и его правовой статус не определён, т. е. не установлена ни его правоспособность, ни дееспособность и, как следствие, ИИ не может нести ответственность за свои действия», квалифицируя систему ИИ как инструмент, ответственность за действия которого всецело лежит на использующем его человеке [3, с. 77]. Данная позиция, воспринятая российской правовой педагогикой в качестве базовой, свидетельствует о том, что инструментальный взгляд на ИИ как на объект, а не субъект права утвердился на доктринальном уровне, однако требует законодательного закрепления.
В контексте российского права данная проблема может быть частично решена посредством расширительного толкования статьи 1079 ГК РФ об ответственности за вред, причинённый источником повышенной опасности. Деятельность по эксплуатации сложных автономных систем уже сегодня может быть квалифицирована как деятельность, создающая повышенную опасность для окружающих [2]. Вместе с тем такое решение является частичным: применение ст. 1079 ГК РФ предполагает установление конкретного владельца источника повышенной опасности, однако в распределённых облачных системах ИИ с множеством пользователей определить такового крайне затруднительно. В качестве возможных моделей привлечения к ответственности в доктрине рассматриваются: ответственность производителя по аналогии с ответственностью за качество продукции; ответственность владельца источника повышенной опасности; ответственность оператора ИИ-системы; наконец, ответственность из специального страхового фонда. Ни одна из этих моделей не является универсальной, что подчёркивает необходимость специального законодательного решения.
Международный опыт правового регулирования статуса ИИ весьма разнообразен. В 2017 году Саудовская Аравия предоставила роботу Sophia гражданство, что, однако, носило скорее рекламный характер и не повлекло реальных правовых последствий. Более серьёзным шагом стало принятие в Эстонии законодательных инициатив, направленных на регулирование ответственности за вред, причинённый автономными системами. Наиболее комплексным документом в данной сфере на сегодняшний день является Регламент Европейского союза об искусственном интеллекте (AI Act), принятый в 2024 году. Данный нормативный акт вводит классификацию ИИ-систем по степени риска и устанавливает дифференцированные требования к ним, хотя прямо и не наделяет ИИ правосубъектностью. В США вопросы ответственности за вред, причинённый ИИ, решаются преимущественно в рамках деликтного права с опорой на доктрины строгой ответственности производителя и небрежности. Американские суды, как правило, возлагают ответственность на разработчика или оператора ИИ-системы, не ставя вопроса о её самостоятельной правосубъектности. Показательно, что ни одно государство мира пока не решилось на признание ИИ полноправным субъектом гражданского права, что свидетельствует о неготовности данной идеи к практической реализации без существенной переработки основополагающих правовых концепций.
С учётом изложенного представляется возможным обозначить несколько направлений совершенствования российского законодательства. Во-первых, необходимо законодательно закрепить понятие «система искусственного интеллекта» применительно к гражданско-правовым отношениям, разграничив его с иными видами программного обеспечения. Во-вторых, целесообразно ввести специальный режим ответственности для операторов высокорисковых ИИ-систем (это категории ИИ-систем, которые могут повлиять на безопасность, права граждан или критически важные процессы) [8], основанный на принципе безвиновной ответственности с обязательным страхованием. В-третьих, перспективным направлением является разработка концепции «ограниченного электронного лица» — особого правового статуса для автономных ИИ-систем, систематически действующих в гражданском обороте. Введение специального статуса для ИИ-систем не потребует отказа от традиционных правовых категорий: речь идёт о создании новой разновидности участников гражданского оборота с заранее определённым объёмом прав и обязанностей и обособленным имуществом для удовлетворения требований кредиторов.
В-четвёртых, представляется необходимым принятие комплексного федерального закона об искусственном интеллекте, который систематизировал бы разрозненные нормы в данной сфере. Такой закон должен охватить весь цикл — от разработки и тестирования до коммерческого применения и вывода из эксплуатации ИИ-систем. Именно подобный комплексный подход позволит создать правовую определённость как для разработчиков, так и для пострадавших от действий ИИ лиц.
Вместе с тем разработка комплексного законодательства об ИИ неизбежно затронет не только гражданско-правовые, но и этико-правовые вопросы его применения. Как отмечают К. И. Тимощук, Ю. М. Боброва и Ш. М. Шурпаев, в условиях стремительного развития технологий ИИ особую актуальность приобретают вопросы регулирования его использования с точки зрения принципов ответственности и прозрачности, а нормативное урегулирование этих аспектов составляет «вопрос ближайшего будущего» [3, с. 79–80].
Проведённое исследование позволяет сформулировать следующие выводы. Вопрос о правовом статусе искусственного интеллекта является одним из наиболее актуальных в современной правовой науке. Действующее законодательство России не содержит адекватного ответа на вызовы, порождаемые развитием технологий ИИ, что создаёт значительную правовую неопределённость как для участников гражданского оборота, так и для пострадавших от действий автономных систем лиц.
Концепция электронного лица, предложенная Европейским парламентом в 2017 году, несмотря на теоретическую привлекательность, встречает серьёзные практические и этические возражения и не может быть механически перенесена в российское право. Вместе с тем инструментальный подход, рассматривающий ИИ исключительно как объект права, всё хуже соответствует реалиям развития технологий и порождает «разрывы в ответственности», несправедливые как для пострадавших, так и для добросовестных разработчиков.
Наиболее перспективным представляется смешанный подход, предполагающий создание специального правового режима для высокоавтономных ИИ-систем с установлением строгой ответственности их операторов и введением обязательного страхования. В долгосрочной перспективе возможно введение ограниченной правосубъектности для отдельных категорий ИИ-систем — но лишь при условии глубокой теоретической разработки и широкого общественного обсуждения. Таким образом, правовое регулирование ИИ — это не вопрос отдалённого будущего, а насущная потребность сегодняшнего дня.
Литература:
- Архипов В. В., Наумов В. Б. Искусственный интеллект и автономные устройства в контексте права: о разработке первого в России регионального закона о роботах // Труды СПИИРАН. 2017. № 6 (55). С. 46–62. DOI: 10.15622/sp.55.2. URL: https://ia.spcras.ru/index.php/sp/article/view/3621 (дата обращения: 05.04.2026).
- Белов В. А. Гражданское право: Общая часть. Т. II. Лица, блага, факты: учебник. Москва: Юрайт, 2022. 582 с.
- Боброва Ю. М., Тимощук К. И., Шурпаев Ш. М. Информационное обеспечение научного исследования: учеб. пособие. Санкт-Петербург: Санкт-Петербургский юридический институт (филиал) Университета прокуратуры Российской Федерации, 2025. 92 с.
- Гаджиев Г. А., Войниканис Е. А. Может ли робот быть субъектом права? (поиск правовых форм для регулирования цифровой экономики) // Право. Журнал Высшей школы экономики. 2018. № 4. С. 24–48. URL: https://law-journal.hse.ru/ (дата обращения: 05.04.2026).
- Гражданский кодекс Российской Федерации (часть первая) от 30.11.1994 № 51-ФЗ (ред. от 24.07.2023) // Собрание законодательства РФ. 1994. № 32. Ст. 3301.
- Гражданский кодекс Российской Федерации (часть вторая) от 26.01.1996 № 14-ФЗ (ред. от 24.07.2023) // Собрание законодательства РФ. 1996. № 5. Ст. 410.
- Европейский парламент. Резолюция Европейского парламента от 16 февраля 2017 г. с рекомендациями Комиссии о нормах гражданского права о робототехнике (2015/2103(INL)) // Официальный сайт Европейского парламента. URL: https://www.europarl.europa.eu/doceo/document/TA-8–2017–0051_EN.html (дата обращения: 05.04.2026).
- EU AI Act: требования к производителям ИИ-систем и высокорисковым приложениям 2026 // Реестр Гарант. URL: https://jeksport.vnesenie-v-reestr.ru/news/eu-ai-act-trebovaniya-k-proizvoditelyam-ii-sistem-i-vysokoriskovym-prilozheniyam-2026 (дата обращения: 28.04.2026).
- Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации: Федеральный закон от 31.07.2020 № 258-ФЗ (ред. от 08.08.2024) // Собрание законодательства РФ. 2020. № 31 (ч. I). Ст. 5017. URL: http://pravo.gov.ru/proxy/ips/?docbody=&nd=102788432 (дата обращения: 05.04.2026).
- О развитии искусственного интеллекта в Российской Федерации: Указ Президента РФ от 10.10.2019 № 490 (утратил силу с 01.01.2025) // Собрание законодательства РФ. 2019. № 41. Ст. 5700. URL: https://base.garant.ru/72811626/ (дата обращения: 05.04.2026).
- Савельев А. И. Некоторые правовые аспекты использования смарт-контрактов и блокчейн-технологий по российскому праву // Закон. 2017. № 5. С. 94–117.

