Искусственный интеллект как возможный источник повышенной опасности | Статья в журнале «Молодой ученый»

Отправьте статью сегодня! Журнал выйдет 13 июля, печатный экземпляр отправим 17 июля.

Опубликовать статью в журнале

Автор:

Научный руководитель:

Рубрика: Юриспруденция

Опубликовано в Молодой учёный №22 (521) май 2024 г.

Дата публикации: 04.06.2024

Статья просмотрена: 7 раз

Библиографическое описание:

Мехряков, А. А. Искусственный интеллект как возможный источник повышенной опасности / А. А. Мехряков. — Текст : непосредственный // Молодой ученый. — 2024. — № 22 (521). — С. 392-395. — URL: https://moluch.ru/archive/521/114850/ (дата обращения: 30.06.2024).



Развитие технологий искусственного интеллекта (ИИ) создаёт уникальный феномен, который ещё не полностью осмыслен в юридическом контексте, ведя к разнообразию интерпретаций его последствий. Ключевая характеристика ИИ заключается в его способности к обучению без прямого вмешательства, что даёт ему возможность принимать разнообразные решения в аналогичных условиях, основываясь на предшествующем опыте. Это порождает вопрос о юридических основаниях для ответственности, если в процессе эксплуатации таких систем возникает вред. В юридической теории иногда предлагается концепция признания ИИ субъектом прав.

Объект исследования затрагивает социальные взаимодействия, происходящие в контексте определения юридической ответственности за ущерб, вызванный использованием технологий искусственного интеллекта. Основная задача исследования — исследовать критерии, которые приводят к возникновению юридической ответственности и урегулированию компенсации ущерба, нанесенного в ходе эксплуатации технологий искусственного интеллекта, а также определить пути улучшения законодательства в этой области, принимая во внимание международный опыт. Для исследования были использованы методы диалектического анализа, логического размышления, формально-правового подхода и системно-структурного анализа. Источниками исследования послужили российское законодательство и научные работы, посвященные проблематике использования искусственного интеллекта и решениям, связанным с ответственностью за причиненный вред.

Исследование дало автору основание сделать вывод о том, что вопросы компенсации ущерба, возникшего в процессе применения технологий искусственного интеллекта, могут быть эффективно рассмотрены в контексте гражданско-правовой ответственности, рассматривая ИИ как потенциальный источник повышенного опасности Это предполагает возможность возложения ответственности на лицо, которое создало, произвело, владело, использовало или управляло данными технологиями. Тем не менее, при формировании норм гражданской ответственности в случаях использования искусственного интеллекта крайне важно найти равновесие между защитой интересов общества и стимулированием инвестиций в новаторские продукты. В этом контексте ключевым элементом защиты имущественных интересов пострадавших должно стать страхование ответственности лиц, применяющих технологии искусственного интеллекта. Решение вопросов административной и уголовной ответственности должно базироваться на характере последствий и степени вины виновного, который определял параметры и условия использования данных технологий.

Ключевые слова : источник повышенной опасности, компенсация ущерба, обеспечение защиты имущественных прав, использование искусственного интеллекта, классификацию как объекта повышенного риска, применение цифровых инноваций, страхование ответственности и аспекты правовой ответственности.

The development of artificial intelligence (AI) technologies is creating a unique phenomenon that is not yet fully understood in a legal context, leading to a variety of interpretations of its consequences. A key characteristic of AI is its ability to learn without direct intervention, which gives it the ability to make a variety of decisions under similar conditions based on previous experience. This raises the question of the legal basis for liability if harm occurs during the operation of such systems. Legal theory sometimes proposes the concept of recognizing AI as a subject of rights.

The object of the study concerns social interactions that occur in the context of determining legal liability for damage caused by the use of artificial intelligence technologies. The main objective of the study is to explore the criteria that lead to the emergence of legal liability and the settlement of compensation for damage caused during the operation of artificial intelligence technologies, as well as to determine ways to improve legislation in this area, taking into account international experience. For the study, methods of dialectical analysis, logical thinking, formal legal approach and systemic structural analysis were used. The sources of the study were Russian legislation and scientific works devoted to the problems of using artificial intelligence and decisions related to liability for harm caused.

The study gave the author reason to conclude that issues of compensation for damage arising in the process of using artificial intelligence technologies can be effectively considered in the context of civil liability, considering AI as a potential source of increased danger. This implies the possibility of assigning responsibility to the person who created, produced, owned, used or controlled these technologies. However, it is critical to strike a balance between protecting public interests and stimulating investment in innovative products when establishing civil liability rules for artificial intelligence. In this context, a key element in protecting the property interests of victims should be liability insurance for persons using artificial intelligence technologies. Resolving issues of administrative and criminal liability should be based on the nature of the consequences and the degree of guilt of the perpetrator, who determined the parameters and conditions for the use of these technologies.

Keywords : source of increased danger, compensation for damage, ensuring the protection of property rights, the use of artificial intelligence, classification as an object of increased risk, the use of digital innovations, liability insurance and aspects of legal liability.

Тема искусственного интеллекта, впервые представленная в 1956 году, все чаще привлекает внимание правоведов, учитывая постоянно расширяющееся применение таких технологий. Технологии искусственного интеллекта постоянно эволюционируют, принося как пользу, так и новые, иногда труднопредсказуемые риски, особенно в свете самостоятельности ИИ в принятии решений и его способности к обучению и накоплению знаний. Эти опасности признаны разработчиками Концепции развития регулирования отношений в области искусственного интеллекта и робототехники до 2024 года, одобренной Правительством РФ распоряжением от 19 августа 2020 г. № 2129-р. В этой Концепции, среди прочего, акцентируется на важности обоснованной оценки рисков, которые могут угрожать жизни и здоровью людей, обороне страны и национальной безопасности при использовании искусственного интеллекта, запрет на нанесение ущерба человеку системами искусственного интеллекта требует ограничения в разработке, циркуляции и использовании технологий, которые могут самостоятельно и целенаправленно причинять ущерб людям. Это предполагает контроль над ИИ со стороны человека в максимально возможной степени, учитывая необходимый уровень автономии таких систем. На этой основе возникает необходимость разработки механизмов для гражданско-правовой, уголовной и административной ответственности в случаях, когда системы искусственного интеллекта с высокой степенью автономности причиняют вред. Особое внимание следует уделить определению лиц, ответственных за действия ИИ, пересмотру механизмов безвиновной гражданско-правовой ответственности и изучению способов возмещения ущерба, включая страхование ответственности, вызванного действиями таких автономных систем [10].

Данная проблематика вызывает интерес у ученых как в России [1], так и за рубежом [4], которые анализируют существующие правовые механизмы с точки зрения их применимости для решения обозначенных вопросов и разработки усовершенствований. Целью данного исследования является выяснение причин возникновения правовой ответственности и механизмов компенсации ущерба, вызванного использованием технологий искусственного интеллекта, а также определение путей улучшения законодательства в этой области, учитывая международный опыт. Методологическую базу исследования образуют диалектический, логический, формально-правовой и системно-структурный подходы, позволяющие анализировать вопросы юридической ответственности за ущерб, нанесенный при применении искусственного интеллекта, в рамках взаимодействия с уже существующими правовыми институтами и выявить проистекающие из этого направления развития российского законодательства.

Исходная точка в анализе данной проблематики заключается в определении характеристик искусственного интеллекта, в рамках которого выделяются два фундаментально разных подхода в доктринальных исследованиях [6]. Один подход предполагает признание субъектности искусственного интеллекта, хотя её характеристики нестабильны и зависят от типа ИИ-единицы, его первоначальной ожидаемой или текущей функционально-целевой задачи [1]. Рассматривается концепция 'электронной личности' как формализованного технико-правового субъекта, имеющего элементы юридической фикции, аналогично юридическому лицу [1]. Второй подход утверждает искусственный интеллект как объект права, инструмент для деятельности традиционных правовых субъектов, учитывая, что «возможность мощных самообучающихся роботов превзойти людей по скорости, точности и объему вычислений... не эквивалентна человеческому сознанию, самосознанию и интеллекту». Следовательно, рассматривать ИИ как субъект уголовной или административной ответственности, где эмоционально-волевой аспект поведения критичен для его правовой оценки и применения государственных принудительных мер, представляется маловероятным. Также это касается и деликтной ответственности, основанной на принципе полной компенсации ущерба, источник покрытия которого при признании субъектности ИИ окажется сложным для определения. Концепция ИИ в качестве инструмента получает широкую поддержку в международной доктрине. Нормы строгой ответственности регламентируют действия машины, связывая физическое или юридическое лицо, от имени которого она действовала, вне зависимости от предвидения или планирования такого поведения. Активными участниками могут выступать производители машин, систем искусственного интеллекта, пользователи ИИ, разработчики программного обеспечения для таких машин и их владельцы [5]. Однако существуют и компромиссные взгляды. Например, В. А. Лаптев, рассматривая роботов с ИИ как объекты права, предполагает, что в будущем робот (автоматизированное устройство) может обладать отдельными элементами субъектности (например, коллективной субъектностью в сочетании с лицом, управляющим или определяющим поведение данного робота) [9]. Тем не менее, в научной среде существует мнение, что такой подход может быть реализован уже на современном этапе.

В рамках анализа различных интерпретаций природы искусственного интеллекта актуализируется вопрос о критериях и механизмах осуществления юридической ответственности за ущерб, вызванный использованием таких технологий. Подход, предполагающий рассмотрение неожиданных действий и решений искусственного интеллекта как форс-мажорных обстоятельств, освобождающих от ответственности, не находит поддержки. Некоторые исследователи предлагают устанавливать ответственность на лицо, в интересах которого осуществлялась деятельность ИИ, то есть на того, кто извлекает выгоду из его работы [8], в то время как другие рекомендуют применять существующий в гражданском праве механизм ответственности за ущерб, причиненный источником повышенной опасности (согласно ст. 1079 ГК РФ) [1].

Ряд ученых обращает внимание на источник угрозы, который может быть связан с ошибками в программировании, изготовлении устройств, их неправильной эксплуатации или несанкционированном вмешательстве. В этом контексте предлагается возлагать ответственность за негативные последствия использования ИИ на: 1) автора программы или изобретения; 2) правообладателя ПО или производителя устройства; 3) пользователя или владельца; 4) третьих лиц в случае незаконного управления роботом или его перепрограммирования с целью нанесения ущерба. Также обсуждается качество сборки роботов, влияющее на их эксплуатацию и способное стать причиной нежелательных последствий [11].

В заключение подчеркивается необходимость «размышлений о внесении изменений в действующую систему специализированных деликтов, предусматривающих особые составы правонарушений, непосредственно определенных законом».

Неясность в определении лица, отвечающего за ущерб, вызванный использованием искусственного интеллекта, особенно учитывая сложности в выявлении причин отклонений от установленных алгоритмов, приводит к предложению о внедрении страховых схем для таких рисков. Возможно, следует рассмотреть обязательное страхование гражданской ответственности создателей и пользователей роботов за ущерб, нанесенный третьим лицам, аналогично страхованию ответственности владельцев автотранспорта и других объектов повышенной опасности.

Обсуждая результаты исследования, кажется необходимым, в контексте юридической ответственности, рассматривать искусственный интеллект как инструмент человеческой деятельности, даже при его значительной автономии в принятии решений. Для установления ответственного за ущерб, нанесенный при использовании искусственного интеллекта, целесообразно в каждом отдельном случае, исходя из обстоятельств, выявлять лицо, создающее, управляющее, контролирующее или вмешивающееся в работу ИИ, которое и должно отвечать за возникший ущерб или вред. Это требует установления причинно-следственной связи между его действиями и последствиями. Такой подход позволит рассматривать основания не только для гражданско-правовой, но и административной и уголовной ответственности, особенно если искусственный интеллект был запрограммирован или использован отдельным лицом для незаконных целей.

Устоявшиеся нормы правовой ответственности подразумевают, что сторона, чья активность влечет за собой риски для общества, обязана предпринять действия для снижения потенциального ущерба и, в случае его возникновения, компенсировать его. В зависимости от обстоятельств причинения ущерба, возникает вопрос о возложении ответственности на лицо, ответственное за создание, производство, владение, использование и управление данными технологиями.

В контексте гражданско-правовой ответственности, вопрос компенсации ущерба, вызванного использованием технологий искусственного интеллекта, может быть адресован путем признания этих технологий источниками повышенной опасности. Ключевым аспектом защиты прав потерпевших должно стать страхование ответственности лиц, задействованных в использовании таких технологий.

При рассмотрении вопросов административной и уголовной ответственности, решение должно базироваться на характере произошедших последствий и степени вины виновного, при этом следует учитывать лицо, которое устанавливало условия и параметры применения соответствующей технологии.

Литература:

  1. Апостолова Н. Н. Ответственность за вред, причиненный искусственным интеллектом // Северо-Кавказский юридический вестник. 2021. № 1. С. 112–119.
  2. Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 79–102.
  3. Цуканова Е. Ю., Скопенко О. Р. Правовые аспекты ответственности за причинение вреда роботом с искусственным интеллектом // Вопросы российского и международного права. 2018. Т. 8, № 4А. С. 42–48.
  4. Benhamou, Y. & Ferland, J. 2020, ‘Artificial Intelligence & Damages: Assessing Liability and Calculating the Damages (February 8, 2020)’, Leading Legal Disruption: Artificial Intelligence and a Toolkit for Lawyers and the Law, Forthcoming, viewed 11 November 2021, https://ssrn. com/abstract=3535387.
  5. Cerka P., Grigiene J. & Sirbikyte G. 2015, ‘Liability for damages caused by artificial intelligence’, Computer law & security review, iss. 31, pp. 376–389.
  6. Морхат П. М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы: дис. … д-ра юрид.наук. М., 2018. 420 с.
  7. Лаптев В. А. Ответственность «будущего»: правовое существо и вопрос оценки доказательств // Гражданское право. 2017. № 3. С. 32–35.
  8. Горохова С. С. Технологии на основе искусственного интеллекта: перспективы и ответственность в правовом поле // Юрист. 2021. № 6. С. 60–67.
  9. Регулирование робототехники: введение в «робоправо». Правовые аспекты развития робототехники и технологий искусственного интеллекта / В. В. Архипов [и др.]; под ред. А. В. Незнамова. М.: Инфотропик Медиа, 2018. 232 с.
  10. Романова, И. Н. Проблемы юридической ответственности за вред, причиненный при использовании технологий искусственного интеллекта / И. Н. Романова // Человек: преступление и наказание. — 2022. — Т. 30(1–4), № 1. — С. 72–77. — DOI: 10.33463/2687–1238.2022.30(1–4).1.72–77
  11. Шевченко А. С., Шевченко Г. Н. Деликтные обязательства в российском гражданском праве. М.: Статут, 2013. 133 с.
Основные термины (генерируются автоматически): искусственный интеллект, юридическая ответственность, использование технологий, повышенная опасность, гражданско-правовая ответственность, компенсация ущерба, лицо, правовая ответственность, уголовная ответственность, ущерб.


Ключевые слова

источник повышенной опасности, компенсация ущерба, обеспечение защиты имущественных прав, использование искусственного интеллекта, классификацию как объекта повышенного риска, применение цифровых инноваций, страхование ответственности и аспекты правовой ответственности

Похожие статьи

Задать вопрос