Отправьте статью сегодня! Журнал выйдет ..., печатный экземпляр отправим ...
Опубликовать статью

Молодой учёный

Криминологическая характеристика преступлений, совершаемых с использованием генеративного искусственного интеллекта

Научный руководитель
Уголовное право и криминология
Поделиться
Аннотация
В статье рассматривается актуальная проблема использования генеративных технологий искусственного интеллекта (далее — ИИ), при совершении преступлений против личности и имущества. Исследуется криминологическая характеристика преступлений, совершаемых с помощью дипфейков, и выявляются существенные пробелы в действующем уголовном законодательстве.
Библиографическое описание
Байбародова, М. С. Криминологическая характеристика преступлений, совершаемых с использованием генеративного искусственного интеллекта / М. С. Байбародова. — Текст : непосредственный // Новый юридический вестник. — 2026. — № 2 (54). — URL: https://moluch.ru/th/9/archive/313/10663.


Современное развитие технологий искусственного интеллекта, в частности генеративных алгоритмов и технологий дипфейка, открывает перед обществом качественно новые вызовы в сфере уголовного права и криминологии. Стремительное развитие технологий ИИ в последние годы открыло не только конструктивные и инновационные возможности их применения в различных сферах деятельности, но и создало принципиально новые способы совершения преступлений [2].

Технология дипфейк (deepfake) — это синтезированное видео или аудио с использованием технологий глубокого обучения, позволяющее воспроизводить голос, мимику и изображение любого человека с высокой степенью реалистичности. Особая опасность этой технологии заключается в ее беспрецедентной доступности. Если еще несколько лет назад создание убедительного дипфейка требовало значительных технических знаний и профессионального оборудования, то сегодня любой пользователь смартфона может создать поддельное видео с использованием мобильных приложений (FaceApp, ReFaceApp, FaceMagic и прочих) за короткий промежуток времени.

Основная проблема состоит в том, что традиционное уголовное законодательство Российской Федерации, сформировавшееся в условиях, когда таких технологий не существовало, недостаточно адаптировано к новым технологическим способам совершения преступлений. Существующие нормы УК РФ не содержат специализированных положений, предусматривающих повышенную ответственность за использование дипфейк-технологий. Недостаточность квалифицирующих положений создает ситуацию, при которой преступления, совершаемые с применением ИИ, по общественной опасности существенно превосходят традиционные деяния того же вида, однако квалифицируются по одним и тем же нормам без учета технологического аспекта [3].

Криминологической особенностью преступлений с использованием генеративного ИИ является масштабность и множественность потерпевших. Традиционное клеветничество, высказывание или мошенничество обычно затрагивает одного или несколько конкретных потерпевших, круг которых более или менее ограничен. В отличие от этого, преступник, использующий deepfake -технологии в сочетании с информационно-телекоммуникационными сетями (Интернет, социальные сети, мессенджеры), может одновременно воздействовать на колоссальное количество людей. Огромное количество пострадавших для уголовного права России означает, что преступления с использованием ИИ влекут значительно более тяжкие последствия.

Использование генеративного искусственного интеллекта при совершении клеветы открывает новое измерение этого преступления. Вместо традиционного распространения ложных словесных высказываний (устного или письменного), преступник, создает поддельное видео, на котором жертва якобы произносит оскорбительные, порочащие ее честь высказывания, совершает компрометирующие действия или ведет себя неприличным образом. Визуализация порочащих сведений многократно усиливает эффект обмана и воздействие на восприятие адресата преступной информации.

Использование дипфейк-технологий при совершении вымогательства создает качественно новую форму этого преступления. Вместо традиционных угроз (физическая расправа, уничтожение имущества, распространение реальных компрометирующих материалов), преступник создает синтезированное видео или аудиозапись, изображающие жертву в компрометирующей ситуации. Видео может носить якобы интимный характера, видео, на котором жертва как будто произносит оскорбительные высказывания или совершает преступные действия, или аудиозапись якобы признания в каком-либо позорящем факте [5].

С помощью искусственного интеллекта сейчас совершаются разные преступления из норм уголовного кодекса, и законодатель сталкивается с проблемой их выявления. Выявление дипфейка представляет собой исключительную сложность на техническом уровне. Визуальные признаки подделок, которые еще несколько лет назад были относительно легко обнаружаемы (нарушение мигания, странные переходы на границах лица, неестественное движения волос и кожи), с развитие генеративных алгоритмов становится все менее заметным. Современные дипфейки высокого качества практически неотличимы даже для подготовленного глаза.

На практике это означает, что потрепавший может не сразу заметить, что распространяемое о нем видео является подделкой. Реакция общественности на такой материал обычно происходит в течении первых часов-суток после его размещения в интернет, когда огромное количество людей уже ознакомилось с ложной информацией. К моменту, когда жертва или ее защитники начинают опровержение, репутационный ущерб уже может быть существенным.

Вторая проблема — это идентификация преступника. Использование вымышленных аккаунтов, VPN-сервисов, прокси-серверов и других анонимизирующих технологий делает отслеживание истинного создателя и распространителя дипфейков исключительно затруднительным. Правоохранительным органам требуется получить согласие интернет провайдеров, администрации социальных сетей (которые часто находятся в других странах) для раскрытия информации об IP-адресах и других данных, связанных с аккаунтами, с которых был распространён материал.

Третья проблема относится к восстановлению истории создания дипфейка — выяснению, какой именно инструмент был использован для его создания, кто имел доступ к исходному материалу, какие изменения были проведены с момента создания. Работа по вычислению преступника требует анализа метаданных видеофайла, его структуры, кода, что требует специальных знаний и инструментов [4].

Ещё одной из наиболее острых и актуальных проблем современного уголовно-правового регулирования является полное отсутствие в Уголовном кодексе Российской Федерации специализированных норм, предусматривающих уголовную ответственность за использование генеративного искусственного интеллекта и дипфейк-технологий при совершении преступлений. Преступления, совершаемые с использование ИИ технологий, квалифицируются по общим нормам без указания на технологический аспект, что не соответствует их общественной опасности.

Необходимость совершенствования правового регулирования в сфере противодействия преступлениям с использованием генеративного ИИ уже давно признана высшими органами государственной власти и правоохранительной системой Российской федерации. Государство, реагируя на вызовы цифровой эпохи, предприняло ряд конкретных шагов, направленных на восполнение выявленных пробелов и модернизацию уголовно-правового аппарата. В сентябре 2024 года в Государственную Думу Российской Федерации был внесен законопроект № 718538–8, предлагающий ввести дипфейк как квалифицирующий признак при совершении мошенничества и других преступлений. Законопроект получил позитивную оценку высших органов государственной власти [1].

Преступление с использованием генеративного искусственного интеллекта и дипфеков представляют собой новую угрозу общественной безопасности, существенно отличающуюся от традиционных деяний своей масштабностью, сложностью выявления. Решение проблемы требует комплексного подхода, включающего совершенствование законодательства, разработку специализированных криминалистических методик, подготовку специалистов, развитие судебно-экспертной практики. Только своевременное и скоординированное реагирование государства на вызовы, порожденные развитие генеративного ИИ, позволит эффективно противодействовать криминальному использованию технологий и защитить общество от новых форм преступной деятельности.

Литература:

  1. Законопроект «О внесении изменений в Уголовный кодекс Российской Федерации в связи с необходимостью установления ответственности за преступления, совершаемые с использованием технологий искусственного интеллекта» от 01 сентября 2024 года № 718538–8 // Официальный интернет-портал правовой информации.
  2. Рарог А. И. Актуальные проблемы уголовного права и криминологии. — 1 изд. — М., Высшее образование и наука, 2023. — 189 с.
  3. Комиссаров В. С., Скоблинский А. В. Преступления в сфере компьютерной информации и их квалификация: учебное пособие — М.: Юридический центр Пресс, 2021. 456 с.
  4. Экспертиза дипфейков (Deepfake) и синтетического медиа // АНО «Судебный эксперт» URL: https://sudexpa.ru/expertises/ekspertiza-dipfeikov-deepfake-i-sinteticheskogo-media/ (дата обращения: 08.12.2025).
  5. В Госдуме могут ввести уголовную ответственность за противоправные дипфейки // Moscow Changes URL: https://moscowchanges.ru/news/v-gosdume-mogut-vvesti-ugolovnuyu-otvetstvennost-za-protivopravnye-dipfejki/ (дата обращения: 08.12.2025).
Можно быстро и просто опубликовать свою научную статью в журнале «Молодой Ученый». Сразу предоставляем препринт и справку о публикации.
Опубликовать статью

Молодой учёный