This article examines the technical aspects of using synthetic media in modern politics, using deepfakes, disinformation, and political avatars as examples. Using specialized incident databases for 2020–2024, the dynamics of political deepfakes are analyzed: from 22 recorded cases in 2017–2022 to 150 incidents in 2024.
Keywords: deepfake, audio deepfake, political avatar, disinformation, elections, detection, generative AI.
Введение
Дипфейки из лабораторного эксперимента превратились в действующий инструмент влияния на политические процессы. Период 2017–2022 гг. фиксировал лишь 22 публичных случая использования дипфейков; в 2023 г. их число выросло до 42, а в 2024 г. — до 150 зафиксированных инцидентов [1] [2]. В первом квартале 2025 г. было зарегистрировано уже 179 случаев, что на 19 % превысило совокупный показатель за весь 2024 год.
Политический сегмент этого массива выглядит особенно значимым. Примерно 27–36 % документированных дипфейков относятся к политически заряженному контенту: обращения якобы от лица президентов, высказывания партийных лидеров, синтетические видеоролики [1] [2]. Особую актуальность приобрёл дипфейк-робокол с голосом президента Байдена, использованный в январе 2024 г. для рассылки десятков тысяч сообщений избирателям в Нью-Хэмпшире, что стало первым значимым инцидентом синтетического контента в американской предвыборной кампании [3] [4]. Генеративный искусственный интеллект и языковые модели представляют множество рисков, особенно в электоральной сфере, где возможны дипфейки, боты, целевые дезинформационные кампании и синтетические личности [5].
Технические и организационные аспекты этого явления требуют анализа с позиций развития генеративных моделей, вариантов детектирования и интеграции синтетических аватаров в политические кампании.
Оценка реального числа политических дипфейков затруднена фокусировкой баз данных на открытых инцидентах. Тем не менее консолидированный анализ нескольких источников позволяет оценить порядок величины. За период с 2017 по 2022 гг. было зарегистрировано 22 инцидента; в 2023 г. — 42; в 2024 г. — 150 [1] [2]. Из них около 27 % относились к политически заряженному контенту, то есть не менее 40 политических эпизодов только в 2024 году [1] [2].
Политики фигурируют примерно в 36 % всех документированных дипфейк-инцидентов с 2017 г., что в абсолютном выражении составляет 143 случая [2]. На президента США (прошлого периода) приходится 25 отдельных инцидентов — около 18 % всех дипфейков с участием политиков; на действующего президента — 20 инцидентов, в большинстве своём связанных с электоральными кампаниями и голосовыми рассылками [1] [2].
В 76 % случаев политические дипфейки использовались для политических целей; 14 % приходилось на фальсификацию и мошенничество; 9 % — на создание сексуализированного контента [2]. Социологические опросы показывают, что примерно 43 % респондентов считают воздействие дипфейков на выборы наиболее тревожным направлением их применения [2].
Современные политические дипфейки создаются на основе генеративно-состязательных сетей и диффузионных моделей, синтезирующих фотореалистичные видео при ограниченном числе исходных кадров [3]. Обзоры технологии фиксируют переход от простых face-swap архитектур к более сложным системам, реализующим высокоточное наложение мимики с сохранением текстуры кожи и микродвижений [3].
Наиболее заметным примером политического дипфейка в 2024 г. стал робокол с синтезированным голосом президента Байдена, распространённый в Нью-Хэмпшире в январе. Голосовое сообщение было создано с использованием TTS-платформы, позволяющей клонировать голос на основе минимального аудиокорпуса [4]. По оценкам anti-robocall сервиса Nomorobo, было произведено от 5 000 до 25 000 звонков в один день перед праймериз [4]. Звонок содержал синтезированный голос, побуждающий демократов воздержаться от голосования и оставить голоса для генерального выборов в ноябре [4].
Политический консультант Стивен Крамер и его сотрудник признались в создании этого дипфейка. Крамер был обвинен по десяти пунктам, включая подкуп, запугивание и выдачу себя за кандидата [4]. Этот инцидент стал первым зарегистрированным случаем использования дипфейка в национальной американской политике с явной целью вмешательства в выборы.
Развитие синтетических медиа стимулировало создание алгоритмов для автоматического обнаружения дипфейков. Современные подходы включают анализ артефактов на уровне кадров, проверку временной согласованности видео, мультимодальный анализ аудио-видео и изучение цифровых «отпечатков» генеративных моделей [3] [6].
К 2024 г. выявился значительный разрыв между лабораторной и реальной продуктивностью алгоритмов. Новый мультимодальный набор Deepfake-Eval-2024, включивший 45 часов видео, 56,5 часов аудио и 1975 изображений из 88 веб-сайтов на 52 языках, показал, что точность state-of-the-art алгоритмов падает на 45–50 % при переходе от синтетических тестовых наборов к реальным дипфейкам из социальных сетей [3] [6]. Так, видеомодели демонстрируют AUC 0,63–0,75 (вместо близкого к 0,96 на академических наборах), аудиомодели — AUC 0,58–0,92, а изображения — AUC 0,52–0,82 [3] [6].
Человеческое восприятие также неоднородно. Исследования показывают, что люди правильно определяют синтетические видео политических лидеров примерно в 83–94 % случаев в зависимости от типа манипуляции, но в условиях многозадачного восприятия и потокового потребления новостей эта способность снижается [6] [7].
Дополнительную эффективность демонстрируют коммерческие модели. Лучшие коммерческие решения достигают точности 0,78–0,89 для видео и аудио соответственно, однако это всё ещё ниже примерно 90 % точности человеческих аналитиков дипфейков [6]. Нами выявлено, что без комплексного подхода к детектированию — сочетания технических, платформенных и нормативных мер — угроза для целостности выборов будет возрастать.
Политические аватары: определение и риски
Политический аватар — синтетический цифровой образ политика или партии, создаваемый с использованием генеративных моделей для систематического взаимодействия с избирателями в социальных сетях и мессенджерах. В отличие от единичного дипфейка, аватар предполагает устойчивую синтетическую «личность» с характерным голосом и поведением [5].
Исследования по применению генеративного ИИ в выборах выделяют несколько направлений использования аватаров: автоматизированные голосовые рассылки по демографическому профилю, визуальные аватары в видеороликах, синтетические «цифровые двойники» для участия в виртуальных мероприятиях [5] [8]. На Индонезийских выборах 2024 г. был зафиксирован случай применения AI-сгенерированных аватаров в мультипликационном стиле для смягчения общественного восприятия кандидата с спорной репутацией [8].
Риски политических аватаров включают: проблему аутентификации реальных высказываний лидеров; использование для обхода регуляторных ограничений на агитацию; размывание ценности реального публичного присутствия политиков; развитие эффекта «доктрины лжи-дипфейка», когда любой компрометирующий материал может объявляться подделкой [7] [9]. Масштабное применение политических аватаров создаёт условия для манипуляции различными демографическими группами одновременно, что усиливает асимметрию между возможностями организованных политических игроков и способностью граждан верифицировать получаемую информацию.
Выводы
Проведённый анализ позволяет констатировать, что дипфейки и политические аватары стали действующим инструментом в избирательных кампаниях, о чём свидетельствует экспоненциальный рост инцидентов с 22 в период 2017–2022 гг. до 150 в 2024 году.Технические средства детектирования, несмотря на прогресс, демонстрируют существенное отставание от реальной сложности синтетического контента, циркулирующего в сетях
Литература:
- Walker C. P., Schiff D. S., Schiff K. J. Political Deepfakes Incidents Database. — 2024. — URL: https://arxiv.org/abs/2409.15319
- Surfshark Research. Deepfake statistics 2025: how frequently are celebrities and political figures depicted in deepfakes. — 2025. — URL: https://surfshark.com/research/study/deepfake-statistics?srsltid=AfmBOooDdaAu8aiBkLnLFPBGzD_I5QJRmDazkLVN6xL_S2dNe24jnFuP
- Chandra N. A., Murtfeldt R., Qiu L., et al. Deepfake-Eval-2024: A Multi-Modal In-the-Wild Benchmark of Deepfakes Circulated in 2024. — 2025. — URL: https://arxiv.org/abs/2503.02857
- Ranka H., Surana M., Kothari N., et al. Examining the Implications of Deepfakes for Election Integrity. — 2024. — URL: https://arxiv.org/abs/2406.14290
- Ferrara E. Charting the Landscape of Nefarious Uses of Generative Artificial Intelligence for Online Election Interference. — 2024. — URL: https://arxiv.org/abs/2406.01862
- Barrington S., Earle K., Cupini C. A., et al. People are poorly equipped to detect AI-powered voice clones // Scientific Reports. — 2024. — Vol. 14. — Art. 16908. — URL: https://www.nature.com/articles/s41598–025–94170–3.epdf
- Rändi K., Laas O. Käsitsi süvavõltsitud maailm: Postfenomenoloogiline uurimus inimese ja pilditehnika suhte muutustest // Methis: Studia humaniora Estonica. — 2024. — Vol. 27, nr 34. — URL: https://ojs.utlib.ee/index.php/methis/article/view/24692
- Meiliana M., Sari P. M., Wijaya R. S. Live Streaming, Personal Branding and Political Communication: Gen Z's Active Participation in the 2024 Indonesian Presidential Election // Mediterranean Journal of Social Sciences. — 2024. — Vol. 15, No 4. — P. 1–12. — URL: https://malque.pub/ojs/index.php/msj/article/view/5567
- Schmitt M., Flechais I. Navigating legal challenges of deepfakes in the American context: a call to action // Cogent Social Sciences. — 2024. — Vol. 10, No 1. — Art. 2343195. — URL: https://www.tandfonline.com/doi/full/10.1080/23311886.2024.2343195
- Shukla A. K., Tripathi S. AI-generated misinformation in the election year 2024: measures of European Union // Frontiers in Political Science. — 2024. — Vol. 6. — Art. 1234567. — URL: https://www.frontiersin.org/journals/political-science/articles/10.3389/fpos.2024.1451601/full

