Отправьте статью сегодня! Журнал выйдет ..., печатный экземпляр отправим ...
Опубликовать статью

Молодой учёный

Проблемы этики и безопасности при использовании нейросетевых моделей машинного обучения

Информационные технологии
03.01.2026
5
Поделиться
Аннотация
Развитие нейросетевых моделей машинного обучения сопровождается как значительным расширением возможностей автоматизации и интеллектуализации различных сфер человеческой деятельности, так и возникновением серьезных проблем этики и безопасности. Статья представляет собой обзор ключевых вопросов этического характера и угроз безопасности, связанных с применением нейросетей, а также подходов к их минимизации. Основное внимание уделено проблемам дискриминации, прозрачности решений, защите персональных данных и угрозам со стороны атак на модели. Рассмотрены современные тенденции в регулировании и разработке безопасных систем искусственного интеллекта (ИИ), которые могут обеспечить ответственный и человеко-ориентированный подход к использованию нейросетевых моделей.
Библиографическое описание
Асташкина, А. А. Проблемы этики и безопасности при использовании нейросетевых моделей машинного обучения / А. А. Асташкина, Д. В. Букин. — Текст : непосредственный // Молодой ученый. — 2026. — № 1 (604). — С. 1-3. — URL: https://moluch.ru/archive/604/132281.


Введение

Нейросетевые модели являются ключевым компонентом современных систем ИИ и машинного обучения. Они применяются в здравоохранении, финансовом секторе, транспортных системах, информационной безопасности и многих других областях, где требуется анализ больших данных и принятие решений на основе сложных корреляций. Однако широкое распространение этих технологий сопровождается возрастающими требованиями к безопасности и этичности их использования. Современные системы ИИ не всегда способны объяснить свои решения, могут быть предвзятыми и представляют собой цель для атак злоумышленников, что создает трудности как в техническом, так и в социальном плане.

Этические проблемы при использовании нейросетей

Одной из наиболее значимых этических проблем при использовании моделей машинного обучения является алгоритмическая предвзятость (bias) — искажение результатов, при котором алгоритмы приводят к дискриминации или предубеждению в отношении отдельных социальных групп. Предвзятость возникает в случаях, когда обучающие данные изначально содержат искажения и стереотипы, которые затем воспроизводятся и усиливаются алгоритмами.

Такого рода дискриминация была замечена в системе здравоохранения США в 2019 году. Модель, которая применялась для выявления пациентов, нуждающихся в дополнительной медицинской помощи, не использовала расовые признаки напрямую, однако опиралась на данные о медицинских расходах, которые оказались косвенно связаны с этнической принадлежностью. В результате система занижала потребности чернокожих пациентов по сравнению с белыми и реже направляла их на дополнительное лечение [1].

Другая значимая этическая проблема — низкая интерпретируемость решений нейросетей, также известная как проблема «чёрного ящика». Современные глубокие нейросети достигают высокой точности, но при этом внутренняя логика принятия решений остается скрытой даже для разработчиков. Это усложняет оценку корректности результатов, делает невозможным детальное объяснение причин тех или иных предсказаний.

Во многих исследованиях подчеркивается, что отсутствие объяснимости может привести к низкому доверию между пользователем и системой ИИ. Например, если система диагностики здоровья выдает рекомендацию, врач и пациент должны понимать не только итоговый диагноз, но и на каких признаках основано такое заключение. Без корректных объяснений невозможно эффективно оценить достоверность решения или выявить ошибку, что может привести к неправильным выводам или даже угрозе жизни пациента [2].

Проблема объяснимости также играет важную роль в вопросах ответственности и правовой оценки решений ИИ. Для того чтобы определить, кто несет ответственность за ошибочные решения системы ИИ, необходимо иметь возможность анализировать логику принятия решений. Однако в традиционных глубоких моделях эта задача осложняется большим количеством параметров.

Проблемы безопасности нейросетевых моделей

Атаки на модели и данные. Современные нейросетевые модели обладают рядом существенных уязвимостей, которые создают серьезные проблемы безопасности при их применении в реальных системах [3]:

  1. Атаки на конфиденциальность данных, при которых злоумышленник получает доступ к набору данных, используемых для обучения модели, что приводит к утечке конфиденциальной информации пользователей.
  2. Отравление обучающих данных (training data poisoning). Суть таких атак заключается в том, что злоумышленник целенаправленно изменяет часть обучающей выборки таким образом, чтобы нарушить процесс обучения или ухудшить качество предсказаний модели. Это может привести к значительному снижению точности модели или преднамеренному формированию ошибок в её поведении.
  3. Вредоносный ввод (Adversarial Inputs) — атаки, при которых злоумышленник модифицирует входные данные таким образом, что модель, основываясь на них, принимает ошибочные решения.

Так, например, в области компьютерного зрения добавление специально созданного шума к изображению приводит к тому, что объект, распознается системой неправильно, хотя визуально для человека он остаётся тем же объектом. Данное явление также рассматривается в литературе как состязательная атака (adversarial attack), где такие изменения остаются незаметными для человеческого восприятия, но способны вызывать значительные ошибки в функционировании моделей [4].

Уязвимость больших языковых моделей. Большие языковые модели (LLM), лежащие в основе разработки чат-ботов, демонстрируют значительные уязвимости, которые ставят под угрозу их безопасное использование. Исследование, опубликованное в The Guardian [5], показало, что большинство коммерчески доступных чат-ботов легко поддаются обходу механизмов защиты от нежелательного поиска. Стандартные механизмы защиты обходит даже простая манипуляция запросом, что позволяет получить опасную или незаконную информацию, несмотря на предусмотренные фильтры безопасности.

Такие атаки используют основное противоречие между желанием модели выполнять пользовательские указания и стремлением ограничить вредоносный вывод, что приводит к тому, что модели предпочитают «быть полезными», даже если это нарушает установленные меры безопасности. Помимо технических аспектов безопасности, такие пробелы в работе LLM имеют серьезные последствия: возможность получения опасной информации снижает доверие пользователей и усложняет регулирование.

Проблемы конфиденциальности и утечки данных. В условиях масштабного сбора и обработки персональных данных для обучения моделей ИИ появляется еще одна немало важная угроза безопасности нейросетевых моделей, связанная с риском нарушения конфиденциальности данных и утечки персональной информации.

Современные системы ИИ часто обучаются на больших наборах данных, включающих подробные сведения о пользователях, что требует повышенного внимания к вопросам защиты приватности [2].

Одним из способов решения данной проблемы могут выступать применения комплексных методов защиты, начиная от строгих протоколов управления доступом и безопасного хранения, вплоть до использования криптографических подходов, таких как дифференциальная приватность и шифрование обучающих данных. Такие меры позволяют снизить риск утечки информации и снизить вероятность ее восстановления из моделей ИИ.

Нормативно-правовое регулирование и стандарты

Быстрое внедрение ИИ в социально значимые сферы делает необходимым формализацию этических принципов и правового регулирования. Сегодня этические нормы ИИ стали инструментом обеспечения доверия пользователей, защиты данных и снижения юридических рисков для бизнеса и государства [6].

Различные государства формируют собственные модели регулирования ИИ, отражающие их политические, культурные и социально-экономические приоритеты. Так, США делают акцент на защите прав и свобод личности, стремясь сохранить баланс между инновациями и гражданскими правами. Европейские страны уделяют особое внимание защите персональных данных и минимизации потенциальных рисков. Китай рассматривает развитие ИИ через призму социалистических ценностей и общественной стабильности, интегрируя технологии в систему государственного управления. Россия, в свою очередь, сосредоточена на вопросах цифрового суверенитета и национальной безопасности, рассматривая ИИ как стратегический ресурс развития и защиты государства. Эти различия формируют разнообразие национальных стратегий, но одновременно подчеркивают необходимость единых международных стандартов.

Рынок решений для обеспечения этичности и безопасности ИИ растет стремительно: аудит систем, создание комитетов по этике, внедрение подхода, при котором людиучаствуют в процессе обучения, проверки и совершенствования систем ИИ (human-in-the-loop), становятся обязательной практикой для крупных компаний, отражая переход этических требований из добровольной инициативы в корпоративную политику [6].

Нарушения этических норм уже имеют реальные последствия: штрафы за незаконное использование данных в Италии и Нидерландах демонстрируют, что регуляторы усиливают контроль, а компании вынуждены учитывать права пользователей на всех этапах работы с ИИ [6].

Международные объединения и конференции вырабатывают кодексы поведения и этические рамки для разработчиков, исследователей и бизнеса, формируя общие принципы взаимодействия человека и автономных систем. Одновременно актуальна формальная интеграция этических ценностей в законы и стандарты, чтобы обеспечить ответственность за действия ИИ, особенно при тяжёлых последствиях ошибок моделей [7].

Эффективное регулирование ИИ строится на интеграции международных стандартов, национальных стратегий и корпоративной политики, обеспечивая прозрачность, справедливость и защиту прав человека, снижая социальные и юридические риски и формируя доверие общества к новым технологиям.

Заключение

Использование нейросетей и систем ИИ открывает значительные возможности для развития экономики, науки и социальной сферы, однако одновременно порождает этические, правовые и технические проблемы. Алгоритмическая предвзятость, низкая объяснимость решений, уязвимости моделей к атакам и риски утечки персональных данных показывают, что высокая точность и эффективность ИИ не могут рассматриваться отдельно от вопросов ответственности, справедливости и безопасности.

В этих условиях нормативно-правовое регулирование и разработка этических стандартов становятся неотъемлемой частью устойчивого развития ИИ. Сочетание международных инициатив, национальных стратегий и корпоративных практик позволяет снизить риски и повысить уровень доверия общества к ИИ. Таким образом, дальнейшее развитие нейросетевых технологий должно сопровождаться не только технологическими инновациями, но и ответственным, этически ориентированным подходом, обеспечивающим баланс между прогрессом и защитой фундаментальных прав человека.

Литература:

  1. Racial Bias Found in a Major Health Care Risk Algorithm — Текст: электронный // Scientific American: [сайт]. — URL: https://www.scientificamerican.com/article/racial-bias-found-in-a-major-health-care-risk-algorithm/ (дата обращения: 30.12.2025).
  2. Этика и безопасность искусственного интеллекта. — Текст: электронный // Habr: [сайт]. — URL: https://habr.com/ru/articles/745230/ (дата обращения: 30.12.2025).
  3. Вопросы безопасности и этики применения ИИ. — Текст: электронный // Intuit: [сайт]. — URL: https://intuit.ru/studies/courses/3690/932/lecture/32793 (дата обращения: 31.12.2025).
  4. О машинном обучении с точки зрения ИБ. — Текст: электронный // Habr: [сайт]. — URL: https://habr.com/ru/companies/pt/articles/721930/ (дата обращения: 01.01.2026).
  5. Most AI chatbots easily tricked into giving dangerous responses, study finds — Текст: электронный // TheGuardian: [сайт]. — URL: https://www.theguardian.com/technology/2025/may/21/most-ai-chatbots-easily-tricked-into-giving-dangerous-responses-study-finds (дата обращения: 01.01.2026).
  6. Как этика ИИ стала насущной необходимостью. — Текст: электронный // РБК Компании: [сайт]. — URL: https://companies.rbc.ru/news/LcMmPfZJQq/kak-etika-ii-stala-nasuschnoj-neobhodimostyu/ (дата обращения: 01.01.2026).
  7. Искусственный интеллект и безопасность. — Текст: электронный // Habr: [сайт]. — URL: https://habr.com/ru/articles/667580/ (дата обращения: 01.01.2026).
Можно быстро и просто опубликовать свою научную статью в журнале «Молодой Ученый». Сразу предоставляем препринт и справку о публикации.
Опубликовать статью

Молодой учёный