Искусственный интеллект и проблемы кибербезопасности. Технология Deepfake | Статья в журнале «Молодой ученый»

Отправьте статью сегодня! Журнал выйдет 27 апреля, печатный экземпляр отправим 1 мая.

Опубликовать статью в журнале

Авторы: , ,

Рубрика: Информационные технологии

Опубликовано в Молодой учёный №21 (363) май 2021 г.

Дата публикации: 18.05.2021

Статья просмотрена: 585 раз

Библиографическое описание:

Власенко, А. В. Искусственный интеллект и проблемы кибербезопасности. Технология Deepfake / А. В. Власенко, П. С. Киселёв, Е. А. Склярова. — Текст : непосредственный // Молодой ученый. — 2021. — № 21 (363). — С. 81-86. — URL: https://moluch.ru/archive/363/81231/ (дата обращения: 19.04.2024).



Новые цифровые технологии позволяют все сложнее отличить настоящие медиа от поддельных. Одним из последних событий, усугубляющих эту проблему, является появление дипфейков, представляющих собой гиперреалистичные видеоролики, в которых используется искусственный интеллект (ИИ). Он используется для объединения и наложения существующих изображений и видео на исходные изображения или видео с использованием техники машинного обучения, называемой «генеративно-состязательной сетью» (GAN). Сочетание существующего и исходного видео приводит к поддельному видео, которое показывает человека или людей, выполняющих действие на мероприятии, которое никогда не произошло на самом деле. В сочетании с охватом и скоростью социальных сетей убедительные дипфейки могут быстро охватить миллионы людей и оказать негативное влияние на наше общество. В данной статье представлен всесторонний обзор дипфейков и предлагаются возможные способы для борьбы с подделками СМИ и фейковыми новостями.

Ключевые слова: информационная безопасность, киберпреступность, искусственный интеллект, deepfake технология, фейковые новости, обнаружение.

В настоящий момент технологии переживают переломный момент в истории. Искусственный интеллект (ИИ) и машинное обучение (МО) развиваются быстрее, чем способность общества понимать их. Хотя термины ИИ и МО часто используются как синонимы, они относятся к двум взаимосвязанным понятиям. Созданный в 1950-е годы ИИ — это область информатики, которая относится к программам, предназначенным для моделирования «интеллекта». На практике это относится к алгоритмам, которые могут рассуждать или учиться с учетом необходимых входных данных и базы знания и используются для таких задач, как планирование, распознавание, автономное принятие решений (например, прогноз погоды). МО — это специализированная ветвь искусственного интеллекта, которая использует алгоритмы для понимания моделей явлений из примеров (например, статистическое машинное обучение) или опыта (например, подкрепляющее обучение) [1].

Недавние достижения в области ИИ трансформируют и уже превосходят человеческий уровень в таких задачах, как распознавание изображений, обработка естественного языка и анализ данных. В то же время вычислительные системы, ИИ и МО, становятся все более распространенными и критическими. Эти новые возможности могут сделать мир безопаснее и более доступным, справедливым, но и наоборот, они создают проблемы безопасности, которые могут поставить под угрозу общественную и частную жизнь.

По данным исследования Cybersecurity Ventures за 2020 год в список 15 тенденций киберпреступлений, которые представляют и будут представлять угрозу в ближайший период времени, входит немалое количество угроз, связанных с уязвимостями ИИ [2]. Одной из них является технология Deepfake, о которой и будет рассказано в данной статье.

Что же такое Deepfake и чем опасна данная технология? Deepfake (от англ. deep learning — «глубокое обучение» и fake — «фальшивый») — так называемая реалистичная манипуляция аудио- и видеоматериалами с помощью искусственного интеллекта, т.е поддельный контент с наложением лиц и голосов людей на видеоматериалы различного содержания [3]. Эта технология заставляет человека говорить то, чего он не произносил, и делать то, чего он никогда не совершал.

История дипфейков начинается с появления фотоманипуляции, разработанной в 19 веке, которая вскоре стала применяться в кино. В течение XX века технологии неуклонно совершенствовались исследователями академических институтов. Особенно ускорился данный процесс с появлением цифрового видео. Так, к девяностым годам подобными инструментами обладали лишь эксперты по спецэффектам в киноиндустрии. Впоследствии же технология была доработана в интернет-сообществе, а впервые термин Deepfake был придуман и использован в конце 2017 года одноименным пользователем Reddit. Этот пользователь предоставил пользователям Интернета доступ к инструментам на базе искусственного интеллекта (ИИ), которые необходимы для создания собственных дипфейков. В настоящий момент в открытом доступе существует достаточное количество программного обеспечения для этой цели.

Технология Deepfake применяет возможности искусственного интеллекта для синтеза человеческого изображения: объединяет несколько снимков, на которых человек запечатлён с разных ракурсов и с разным выражением лица и делает из них видеопоток. Процесс создания дипфейка изменился по мере того, как различные приложения и бесплатное программное обеспечение попадают в публичное пространство, но основная концепция более сложных видео дипфейка следует тем же принципам. Обычно есть автокодировщик и генеративная состязательная сеть (GAN). Проще говоря, автокодировщик — это способ компьютера видеть лицо и определять все способы его «оживления». Он обрабатывает то, как это лицо моргает, улыбается, ухмыляется и так далее. Генеративная состязательная сеть — это система, с помощью которой изображения из автокодировщика сравниваются с реальными изображениями целевого человека. Он отклоняет неточные изображения, вызывая новые попытки, и цикл продолжается бесконечно, постепенно приближаясь к «идеальному» воссозданию человека. В итоге: первая нейросеть создает изображение выражения лица человека, вторая сообщает ей, если выражения выглядят фальшивыми, и спорят, пока все изображения не станут почти идеальными.

На рис. 1 изображен процесс работы генеративной состязательной сети.

Deepfake работает при помощи открытых алгоритмов машинного обучения и библиотек, что позволяет достичь контента высшего качества. Нейросеть получает изображения из библиотеки и обучается при помощи роликов на видеохостингах. Искусственный интеллект тем временем сопоставляет фрагменты исходных портретов с тем, что есть на видео, и в итоге получается правдоподобный материал [4].

Работа генеративной состязательной сети

Рис. 1. Работа генеративной состязательной сети

Согласно технологическому отчету Массачусетского технологического института, устройство, позволяющее использовать дипфейки, может быть «идеальным оружием для поставщиков фейковых новостей, которые хотят влиять на все, от цен на акции до выборов» [5].

На самом деле, «инструменты ИИ уже используются, чтобы положить фотографии лица других людей на телах порнозвезд и поставить слова в устах политиков», пишет Мартин Джайлс, Сан-Франциско глава бюро MIT Technology Review в отчете. Он сказал, что сети GAN не создали эту проблему, а лишь усугубили ее.

Хотя манипулирование изображениями имеет значительную историю, часто используемую в качестве пропаганды во время конфликтов, легкая доступность цифровых инструментов, высокореалистичный характер подделанного контента и наличие новых медиаканалов для распространения дезинформации превратили дипфейки в жизнеспособный механизм атаки.

Дипфейки раннего поколения уже использовались для воспроизведения аудио и визуального сходства общественных деятелей, таких как политики, знаменитости и генеральные директора. Правдоподобность этих упрощенных примеров невысока, и зрители могут определить, является ли видео подлинным или поддельным.

Одними из громких дипфейк-видео были выпущены в открытом доступе, например, заявление режиссера Джордана Пила о Бараке Обаме (PSA), предназначенное как предупреждение об опасностях и убедительности видео дипфейков, и фейковое видео, где генеральный директор Facebook Марк Цукерберг рассказывает CBS News «правду о Facebook и о том, кому действительно принадлежит будущее», демонстрируя свою силу.

С ростом числа важных государственных выборов, которые пройдут во всем мире в 2020/2021 годах, влияние дипфейков, вероятно, намного превзойдет влияние существующих «фейковых новостей».

Так, в 2020 году главный оппонент Трампа, Джо Байден, стал жертвой фальсификаций. В начале марта обманчиво отредактированное видео с выступлением Джо Байдена было опубликовано в Твиттере со стороны сторонников Трампа, в том числе директора по коммуникациям Белого дома Дэна Скавино и Чарли Кирка, возглавляющего группу сторонников Трампа Turning Point USA. Затем Трамп ретвитнул отредактированное видео. Видео включало 14-секундный отрывок из речи Байдена, в котором он, казалось, предсказывал, что «мы можем только переизбрать Дональда Трампа», вырезая конец цитаты, чтобы превратить предупреждение о разобщенности демократов в очевидную поддержку. Этот дипфейк, сделанный в начале марта, был скорее для насмешек, чем для обмана [6].

Помимо политических информационных войн Deepfake создаёт и риски в области информационной безопасности корпоративного сектора. Достижения и растущая доступность технологий искусственного интеллекта позволяют злоумышленникам создавать высокореалистичные цифровые копии руководителей в реальном времени путем наложения структур лиц и использования голосовых паттернов для имитации реальных голосов. По мере того, как технологии deepfake становятся более правдоподобными, эта новая, весьма убедительная угроза уже начинает затрагивать многие организации. Мало того, что популярные мобильные приложения, такие как Snapchat и Zao, позволяют людям с легкостью создавать дипфейк-контент, злоумышленники смогут покупать и продавать весьма убедительные дипфейк-технологии или услуги в темной сети и использовать ботов для создания поддельного контента в социальных сетях. Организациям, использующим услуги потокового аудио и видео низкого качества, будет особенно сложно выявить эту угрозу, поскольку недостатки даже в самых упрощенных дипфейках останутся незамеченными.

Дипфейки оказались неплохим инструментом в руках мошенников. Первый случай использования искусственного интеллекта в фишинге, социальной инженерии с использованием автоматизированного голоса, использовался для проведения громкого мошенничества в начале 2019 года. Злоумышленники, копирующие голос генерального директора энергетической компании, смогли убедить сотрудников организации перевести 243000 долларов поддельному поставщику. Злоумышленники использовали методы социальной инженерии, чтобы обманом заставить сотрудника позвонить генеральному директору, и, поскольку голос на другом конце телефона был таким же, как у генерального директора, сотрудник продолжил перевод.

Хотя дипфейки уже начали вызывать серьезную озабоченность в средствах массовой информации, скорость, с которой развивается эта технология, неизбежно приведет к негативным последствиям для целевых организаций. Традиционные попытки выявить клевету и противостоять ей не смогут справиться с изощренностью дипфейков. Установленные формы общения будут подвергнуты сомнению, поскольку реальное становится неотличимым от фальшивого, а доверие еще больше подрывается в и без того расколотом мире.

Хотя ИИ можно использовать для создания дипфейков, его также можно использовать для их обнаружения. Поскольку технология становится доступной для любого пользователя компьютера, все больше и больше исследователей сосредотачиваются на обнаружении дипфейка и ищут способ его регулирования.

Крупные корпорации, такие как Facebook и Microsoft, выступили с инициативами по обнаружению и удалению дипфейк-видео. Обе компании объявили ранее в 2020 году, что они будут сотрудничать с ведущими университетами США для создания большой базы данных поддельных видео для исследований [7].

В настоящее время есть небольшие визуальные аспекты, которые исчезают, если вы присмотритесь, все — от ушей или глаз, не совпадающих с нечеткими границами лица или слишком гладкой кожи, до освещения и теней. Но обнаруживать «жесты» становится все труднее и сложнее, поскольку технология дипфейка становится все более продвинутой, а видео выглядят более реалистично.

Существует несколько методов обнаружения дипфейков:

1. Ручное обнаружение

Один из наиболее многообещающих ручных методов выявления и обнаружения дипфейк-видео — это анализ моргания человека в дипфейк-видео. Здоровые взрослые люди моргают каждые две-десять секунд, а одно моргание занимает от одной десятой до четырех десятых секунды. Следовательно, можно ожидать увидеть похожие моргание на видео, где человек разговаривает, но это не так во многих дипфейк-видео. Причина отсутствия мерцания в дипфейк-видео напрямую связана с алгоритмом, использованным для создания таких ролики. Обучение алгоритму дипфейка основано на изображениях лиц, и очень немногие такие изображения показывают лица с глазами закрыто. Следовательно, обучающие данные включают только лица с открытыми глазами, что приводит к смещению обучающих данных. Последняя обученная модель не сможет понять действие моргающего глаза и не сможет произвести закрытый глаз очень хорошо. Отсутствие моргания глаз в дипфейк-видео, таким образом, обеспечивает простой, но интуитивно понятный способ обнаруживать дипфейк.

Можно разработать метод определения того, когда человек на видео моргает глазами и моргает ли в принципе. Метод будет сканировать каждый кадр видео, автоматически обнаруживая и обнаруживая глаза. Используя другой глубокое обучение, нейронная сеть позволит определить, открыты или закрыты обнаруженные глаза, полагаясь на глаз внешний вид, геометрические особенности и движение глаз.

Другой метод ручного обнаружения дипфейк-материала фокусируется на несоответствии между углом наклона головы и лица. Доступны методы, позволяющие оценить положение головы в трехмерном (3D) пространстве на двухмерном (2D) видео. При создании дипфейка лицо вставляется в видео, где голова должна указывать в другом направлении на камеру. Следовательно, создатели дипфейк-видео должны выполнить 2D преобразование для поворота лица так, чтобы оно соответствовало ориентацию головы. Однако, двухмерное преобразование вносит множество недостатков, когда объект съемки смотрит в сторону от камеры или меняет угол обзора положение лица. К сожалению, этот конкретный метод обнаружения не позволяет эффективно обнаруживать дипфейк-видео, когда человек на видео всегда смотрит прямо в камеру, не меняя угла лица.

Третий метод ручного выявления и обнаружения дипфейк-материала основан на недостатках, возникающих в процессе создания фейковых видеороликов. К таким недостаткам относятся:

— двойной подбородок или призрачные края лица;

— чрезмерное размытие по сравнению с другими не лицевыми областями;

— изменение тона кожи у края лица;

— двойные брови или двойные края на лице;

— лицо частично закрыто руками или другими предметами;

— мерцание или размытие на видео.

Эти недостатки вызваны тем, что создатели дипфейк-видео срезают углы, чтобы сократить необходимое время для создания видеороликов, которые могут снизить качество [8]. В результате количество пикселей на лице объекта в исходном видео может варьироваться в зависимости от расстояния от камеры и размера исходного изображения. Кадры содержащие лица, используемые для замены оригинала, обычно имеют фиксированный размер 64x64 пикселей или 128x128 пикселей. Чтобы приспособиться к вариациям, лица фиксированного размера необходимо преобразовать путем увеличения, сжатия или поворота изображения, чтобы соответствовать исходному видео. Такие вариации, если их объединить, оставят такие некоторые недостатки, как излишне гладкое лицо или потеря детализации. Эти недостатки можно обнаружить, обучив нейронную сеть глубокого обучения, чтобы детально различать изменения в области лица.

Последний метод ручной идентификации и обнаружения дипфейков — использование обнаружения размытия. Обнаружение размытия возможно, так как исходное лицо будет иметь больше уровней цвета, чем дипфейк-изображение при увеличении.

Обнаружение размытия включает следующие шаги:

— анализ видеопотока;

— нахождение области лица с помощью каскадного классификатора Хаара (алгоритм обнаружения объектов машинного обучения);

— свертка с помощью оператора Лапласа;

— расчет дисперсии для области лица;

— разделение на два случая: первое — известное поддельное изображение и второе — неизвестное видео.

Для первого случая сравнивается дисперсии двух областей лица. Изображение с большей дисперсией — оригинал, в то время как изображение с меньшей дисперсией — дипфейк-изображение. Во втором случае неизвестное видео будет использоваться для нахождения другой эталонной области лица. Для этого новой области так же рассчитывается дисперсия. Следующим шагом вычисляется соотношение между этими двумя выбранными областями лица и сравнивается соотношение с порогом, который устанавливается с использованием большой коллекции оригинальных изображений. Если соотношение превышает пороговое значение, видео является оригинальным, в противном случае оно является дипфейк-видео.

2. Обнаружение на основе программного обеспечения

Первое решение для обнаружения дипфейков с помощью ПО, называемое Shallow, представляет собой веб-приложение, которое использует сверточные нейронные сети Keras, специализирующиеся на распознавании изображений. Основное внимание в решении уделяется различению между настоящими и поддельными видео с целью защиты репутации и целостности всех, кто может быть под влиянием дипфейк-видео. Вместо того, чтобы полагаться на предварительно обученные сети, используемые для классификации изображений, Shallow использует рандомизированные сети для повышения точности классификации дипфейк-видео.

Пользователи могут получить доступ к веб-интерфейсу и загрузить видео для обработки. На начальном этапе обработки Shallow будет обнаруживать и извлекать вырезки лиц, доступные в загруженном видео. Затем пользователь может выбрать 20 вырезок лица для тестирования и прогнать изображения через модель. Модель проведет анализ видео и сообщит о подлинности видео.

Набор данных, используемый для построения и тестирования модели для Shallow, состоит из четырех разных категорий: реальные данные обучения, поддельные данные обучения, реальные данные проверки и поддельные данные проверки. Для обеспечения разнообразия как обучения, так и проверки 30 % изображений содержат не взрослых людей. Модель была обучена на двух отдельных наборах данных и проверена с использованием дополнительных двух наборов данных. Обучение проводилось с использованием 15613 различных изображений с соотношением между дипфейком и реальными изображениями 50/50. Проверка была проведена с использованием 4872 различных изображения с одинаковым соотношением 50/50 между дипфейк- и реальными изображениями. На основе использования доступных наборов данных для обучения и благодаря проверке модель смогла достичь точности 99 %. Однако следует отметить, что модель обучена и проверена с использованием доступных наборов данных и может быть не репрезентативной для других наборов.

Второе решение для обнаружения дипфейк-видео, названное MesoNet, разработано для обнаружения фальсификации лица в видео. Цель MesoNet — предоставить метод автоматического и эффективного обнаружения вставки лица в видео, а также уделить особое внимание двум недавним методам, используемым для создания гиперреалистичных поддельных видео: Deepfake и Face2Face (передача выражения лица изображения от источника к целевому человеку) [9].

Для обеих построенных моделей доступны предварительно обученные сети. Набор данных, используемый для построения и тестирования модели для MesoNet состоят из набора для обучения и проверки. Обучение проводилось на 5111 поддельных образах и 7250 реальных изображений. Проверка была проведена с использованием 2998 поддельных изображений и 4259 реальных изображений. Обе модели продемонстрировали очень успешный уровень обнаружения: более 98 % для Deepfake и 95 % для обнаружения Face2Face.

В заключение данной статьи стоит отметить, что технология Deepfake остается опасной угрозой для информационной безопасности 21-го века. Необходимо постоянно изучать потенциал и риски, связанные с дипфейками. При этом наиболее перспективные направления использования дипфейков — политические войны и мошенничество. Кроме того, с учётом постоянного совершенствования технологий дипфейки могут также навредить и судебной практике — в части доверия к аудио- и видеоматериалам доказательной базы (диктофонным записям, файлам видеорегистраторов и т. п.). Хоть в данной статье определены и описаны наборы доступных методов для их обнаружения, эти методы все еще ограничены предоставленными возможностями. Для решения данной проблемы следует обеспечить основу для поддержки разработки новых и улучшенных методов обнаружения дипфейков.

Литература:

  1. В чем разница между ИИ и машинным обучением и почему это важно. — Текст: электронный //: [сайт]. — URL: https://news.russianhackers.org/ai-and-ml-difference/ (дата обращения: 11.04.2021).
  2. Cyberthreat trends: 15 cybersecurity threats for 2020. — Текст: электронный // Norton: [сайт]. — URL: https://in.norton.com/internetsecurity-emerging-threats-cyberthreat-trends-cybersecurity-threat-review.html (дата обращения: 11.04.2021).
  3. Deepfake. — Текст: электронный // Wikipedia: [сайт]. — URL: https://ru.wikipedia.org/wiki/Deepfake (дата обращения: 11.04.2021).
  4. Александр, Панасенко Технологии Deepfake как угроза информационной безопасности / Панасенко Александр. — Текст: электронный // anti-malware: [сайт]. — URL: https://www.anti-malware.ru/analytics/Threats_Analysis/Deepfakes-as-a-information-security-threat (дата обращения: 15.04.2021).
  5. Александр, Богданов Российский разработчик создал новое поколение алгоритма Deepfake. Что он умеет? / Богданов Александр. — Текст: электронный // hi-news.ru: [сайт]. — URL:: https://hi-news.ru/eto-interesno/rossijskij-razrabotchik-sozdal-novoe-pokolenie-algoritma-deepfake-chto-on-umeet.html (дата обращения: 13.04.2021).
  6. Henry, Ajder Donald Trump retweets crude ‘deepfake’ video of Joe Biden / Ajder Henry. — Текст: электронный // sensity: [сайт]. — URL: https://medium.com/sensity/tracer-newsletter-51–27–04–20-donald-trump-retweets-crude-deepfake-video-of-joe-biden-385a94a5d9f0 (дата обращения: 13.04.2021).
  7. Tom, Burt New Steps to Combat Disinformation / Burt Tom. — Текст: электронный // Microsoft: [сайт]. — URL: https://blogs.microsoft.com/on-the-issues/2020/09/01/disinformation-deepfakes-newsguard-video-authenticator/ (дата обращения: 18.04.2021).
  8. Александр, Агеев 5 приемов, позволяющих (пока еще) отличить реальность от DeepFake / Агеев Александр. — Текст: электронный // Техкульт: [сайт]. — URL: https://www.techcult.ru/technology/7549–5-priemov-pozvolyayushih-otlichit-realnost-ot-deepfake (дата обращения: 18.04.2021).
  9. Afchar, D. MesoNet: a Compact Facial Video Forgery Detection Network / D. Afchar., V. Nozick — Текст: электронный // Github: [сайт]. — URL: https://github.com/DariusAf/MesoNet (дата обращения: 18.04.2021).
Основные термины (генерируются автоматически): видео, искусственный интеллект, изображение, GAN, генеральный директор, генеративная состязательная сеть, лицо, машинное обучение, информационная безопасность, набор данных.


Похожие статьи

Искусственный интеллект и большие данные | Статья в журнале...

 Искусственный интеллект и большие данные становятся одной из самых потенциально разрушительных тем в

Искусственный интеллект — это концепция машин, выполняющих задачи, которые

Приложения распознавания лица требуют около 15 миллионов изображений.

Искусственный интеллект и безопасность в современных...

Ключевые слова: безопасность, шифрование, искусственный интеллект, защита

Безопасность — это широкий термин, и в промышленности и правительстве существует

Несмотря на то, что большая часть данных уже находится в сети, а машинное обучение...

Обзор современных нейронных сетей и их интеграция в жизнь...

Ключевые слова: нейронные сети, нейросети, машинное обучение, искусственные нейронные сети, искусственный интеллект

Искусственная нейронная сеть, сокращенно ИНС, это математическая модель, реализованная в виде программного обеспечения и работающая по...

Нейронные сети и искусственный интеллект | Статья в журнале...

Ключевые слова: искусственный интеллект (ИИ), нейронные сети. В области науки и техники термин «искусственный интеллект» играет заметную роль, и его недавние достижения сделали ИИ более популярным для концепций искусственного интеллекта и машинного обучения.

Кодирование категориальных данных для использования...

Ключевые слова: машинное обучение, нейронные сети, кодирование. В большинстве алгоритмов машинного обучения набор данных может содержать текстовые или категориальные значения (в основном не числовые значения). Например, цвет, который имеет...

Роль больших данных в глубинном обучении | Статья в журнале...

Основной упор в машинном обучении идет на представление входных данных и

К примеру, при передаче нескольких фотографий лица в алгоритм глубинного обучения, первый слой

Машинное обучение — один из разделов искусственного интеллекта, который связан с...

IT-технологии обучения и их применение в различных сферах

Искусственный интеллект и машинное обучение: в чем разница

Реальные данные используемые в задачах для искусственного интеллекта в основном.

Машинное обучение — один из разделов искусственного интеллекта, который связан с компьютерами...

Большие данные (Big Data) и наука о данных (Data Science)...

Ключевые слова: большие данные, наука о данных, машинное обучение, искусственные

Машинное обучение с точки зрения программирования — это обучение определенной

Машинное обучение — один из разделов искусственного интеллекта, который связан с...

Методы детектирования состязательных атак | Статья в журнале...

Ключевые слова: машинное обучение, глубокое обучение, состязательные атаки, защита от состязательных атак.

Выберем случайным образом небольшое количество изображений из тестового набора набора данных, обозначим их как , обозначим также через i-ое изображение.

Похожие статьи

Искусственный интеллект и большие данные | Статья в журнале...

 Искусственный интеллект и большие данные становятся одной из самых потенциально разрушительных тем в

Искусственный интеллект — это концепция машин, выполняющих задачи, которые

Приложения распознавания лица требуют около 15 миллионов изображений.

Искусственный интеллект и безопасность в современных...

Ключевые слова: безопасность, шифрование, искусственный интеллект, защита

Безопасность — это широкий термин, и в промышленности и правительстве существует

Несмотря на то, что большая часть данных уже находится в сети, а машинное обучение...

Обзор современных нейронных сетей и их интеграция в жизнь...

Ключевые слова: нейронные сети, нейросети, машинное обучение, искусственные нейронные сети, искусственный интеллект

Искусственная нейронная сеть, сокращенно ИНС, это математическая модель, реализованная в виде программного обеспечения и работающая по...

Нейронные сети и искусственный интеллект | Статья в журнале...

Ключевые слова: искусственный интеллект (ИИ), нейронные сети. В области науки и техники термин «искусственный интеллект» играет заметную роль, и его недавние достижения сделали ИИ более популярным для концепций искусственного интеллекта и машинного обучения.

Кодирование категориальных данных для использования...

Ключевые слова: машинное обучение, нейронные сети, кодирование. В большинстве алгоритмов машинного обучения набор данных может содержать текстовые или категориальные значения (в основном не числовые значения). Например, цвет, который имеет...

Роль больших данных в глубинном обучении | Статья в журнале...

Основной упор в машинном обучении идет на представление входных данных и

К примеру, при передаче нескольких фотографий лица в алгоритм глубинного обучения, первый слой

Машинное обучение — один из разделов искусственного интеллекта, который связан с...

IT-технологии обучения и их применение в различных сферах

Искусственный интеллект и машинное обучение: в чем разница

Реальные данные используемые в задачах для искусственного интеллекта в основном.

Машинное обучение — один из разделов искусственного интеллекта, который связан с компьютерами...

Большие данные (Big Data) и наука о данных (Data Science)...

Ключевые слова: большие данные, наука о данных, машинное обучение, искусственные

Машинное обучение с точки зрения программирования — это обучение определенной

Машинное обучение — один из разделов искусственного интеллекта, который связан с...

Методы детектирования состязательных атак | Статья в журнале...

Ключевые слова: машинное обучение, глубокое обучение, состязательные атаки, защита от состязательных атак.

Выберем случайным образом небольшое количество изображений из тестового набора набора данных, обозначим их как , обозначим также через i-ое изображение.

Задать вопрос