Развитие нейронных сетей и их влияние на цифровые доказательства | Статья в журнале «Молодой ученый»

Отправьте статью сегодня! Журнал выйдет 13 июля, печатный экземпляр отправим 17 июля.

Опубликовать статью в журнале

Автор:

Рубрика: Юриспруденция

Опубликовано в Молодой учёный №20 (519) май 2024 г.

Дата публикации: 20.05.2024

Статья просмотрена: 1 раз

Библиографическое описание:

Зубрицкий, В. В. Развитие нейронных сетей и их влияние на цифровые доказательства / В. В. Зубрицкий. — Текст : непосредственный // Молодой ученый. — 2024. — № 20 (519). — С. 316-317. — URL: https://moluch.ru/archive/519/114316/ (дата обращения: 30.06.2024).



Актуальность исследуемой проблематики настоящей статьи определяется развитием цифровых технологий, а в частности искусственного интеллекта и его влияние на фальсификацию аудио-и видео доказательств. Автор статьи отмечает необходимость разработки инструментов обеспечивающих защиту от фальсификации цифровых доказательств.

Ключевые слова: нейронные сети, нейросеть, искусственный интеллект, цифровые доказательства, аудиозапись, видеозапись.

Развитие технологий на базе нейронных сетей имеет невероятно стремительный рост. Они внедряются в различные сферы жизни. Ежегодно цифровые технологии приобретают возможности, которые было невероятно представить. Бесспорно, новые технологии создаются для упрощения жизни. Они являются инструментом. Человек сам определяет, как их применять. В то же время технологии могут быть использованы в противоправных целях. Потому, при рассмотрении вопроса их интеграции, необходимо рассматривать вопрос о сокращении негативных последствий внедрения и минимизации таковых.

В 2014 году были разработаны и появились первые упоминания о технологии Дипфейк (англ. Deepfake, от deep learning — глубокое обучение и fake — подделка)[1]. Принцип работы заключается в том, что производится синтез приближенного к реалистичному аудио-, видео- и фотографического контента с помощью нейронных сетей. Данная технология способна заменить лицо одного человека на лицо другого, комбинировать лица нескольких людей для создания абсолютно нового лица, создавать новое изображение по описанию. Пример данной технологии — «оживление» в 2019 году художника Сальвадора Дали, в музее Сальвадора Дали, расположенного во Флориде [2]. В зале был размещен экран с голограммой художника, который встречал посетителей и отвечал на их вопросы. Раньше эти технологии выглядели примитивно, на примере вышеупомянутого «оживления» художника. Вследствие чего, даже обычный человек, без профессионального образования в сфере нейросетевых технологий сможет отличить видеоматериал, который был обработан при помощи нейросети. Однако прогресс развития на этом не остановился, данные технологии прогрессировали до такой степени, что теперь они способны производить изменение видео- и аудиоматериала в реальном времени, то есть, в процессе записи.

В связи с этим, технологии связанные с изменением голоса и созданием правдоподобных аудиозаписей с голосами, например, медийных лиц, актеров или музыкантов, вызывают крайние опасения. Создание таких записей уже подразумевает в себе варианты недобросовестного их применения, рассуждая не только о нарушении авторских прав. Это проблема носит серьёзный характер и продолжает обостряться. Фактически, в настоящее время, не сложно подделать аудиозапись с помощью искусственного интеллекта и представить ее как доказательство в суде. Развитие и применение технологий, связанных с искусственным интеллектом, получает все большее распространение. Ежегодно разрабатывается все больше открытых и доступных сервисов по обработке аудио- видеодокументов, распространяемых в бесплатном доступе или по подписке более широкому кругу людей. Исходя из этого, стоит быть готовым к тому, что предоставляемое программное обеспечение может стать инструментом недобросовестных лиц для использования в преступных целях.

Вице-президент Федеральной палаты адвокатов Российской Федерации, Елена Авакян считает, что следует ужесточить законодательство. Предлагая использовать звуковые файлы лишь при наличии первичного носителя записи или непосредственно решения суда, разрешающего прослушивать запись[3]. Наша позиция в отношении аудиозаписей не так радикальна. Применение аудиозаписей имеет большое преимущество. Поскольку это не голые слова, выраженные на бумаге. Аудиозапись способна передать большее восприятие на произошедшие события. На записи отражается не только общение, по существу, но и эмоциональное состояние собеседников их интонацию, тембр, темп и тон общения. Мы считаем, что не стоит пренебрегать фоноскопической экспертизой, способной исследовать не только звуковую, речевую информацию, но и я выявлять целостность и подлинность аудиозаписей. Ведь одной из задач данной экспертизы является установление факта монтажа или подмены аудиозаписи.

На этапе стремительного развития технологий в области искусственного интеллекта, государствам становится все более актуальным не только следовать передовым технологиям, но и сосредоточить усилия на разработке специализированных инструментов и методов, которые бы позволяли проводить тщательную экспертизу и выявлять любые несоответствия между оригинальными записями и теми, что были созданы с помощью нейросетевых технологий. Такие разработки не только обеспечат надёжную защиту от потенциальных угроз, но и укрепят доверие к официальным документам и информации в целом, что является ключевым аспектом для поддержания стабильности и безопасности в информационном пространстве. Особенно значимо это становится в контексте борьбы с новыми вызовами, такими как использование искусственного интеллекта для создания подделок.

Цифровые технологии — это не только источник новых идей и улучшений в повседневной жизни, но и потенциальный источник негативных последствий. Для того чтобы минимизировать возможные риски, необходимо проводить тщательный анализ вероятных злоупотреблений новыми технологиями и разрабатывать стратегии по их предотвращению. Современные технологии, позволяющие изменять изображения и голоса, имеют как свои плюсы, так и минусы. С увеличением использования подобных систем, растут и угрозы, связанные с их злоупотреблением. Необходимо направить силы на разработку технологий обнаружения фальсификаций, обсудить и внедрить соответствующие законодательные акты, а также инициировать публичные дискуссии на эту тему. Важно создать механизмы контроля за использованием новых технологий, чтобы обеспечить их безопасное и этичное применение в обществе.

Литература:

  1. Котенев А. А. Дипфейк [Электронный ресурс] — Режим доступа: https://bigenc.ru/c/dipfeik-f9f89b?ysclid=lw4yesujlf726322801 (Дата обращения 5.05.2024)
  2. Гузий В. Ожившие картины: Дали говорит с Моной Лизой [Электронный ресурс] — Режим доступа: https://sysblok.ru/arts/ozhivshie-kartiny-dali-govorit-s-monoj-lizoj/?ysclid=lw4wx402hf995820376 (Дата обращения 5.05.2024)
  3. Трифонова Е. Нейросети поставили аудиодоказательства под вопрос [Электронный ресурс] — Режим доступа: https://www.ng.ru/politics/2023–08–28/1_8811_expertise.html?ysclid=lw4uq2mnyp446530806 (Дата обращения 5.05.2024)
Основные термины (генерируются автоматически): искусственный интеллект, аудиозапись, лицо.


Похожие статьи

Задать вопрос