Отправьте статью сегодня! Журнал выйдет ..., печатный экземпляр отправим ...
Опубликовать статью

Молодой учёный

Этика использования искусственного интеллекта и нейронных сетей

Научный руководитель
Философия
Препринт статьи
16.04.2026
Поделиться
Аннотация
Статья «Этика использования искусственного интеллекта и нейронных сетей» представляет собой сборник вопросов этического характера, которые в силу своей специфики так и не получили единого решения среди исследователей и специалистов. Основная цель статьи ‒ определить вопросы, не имеющие единого решения, совместно с наиболее консенсусными ответами на них. Автор исследует темы использования нейросетей и их воздействия на общество, а также этических обязательств, стоящих перед обществом в области использования нейросетей.
Библиографическое описание
Адомница, В. Г. Этика использования искусственного интеллекта и нейронных сетей / В. Г. Адомница. — Текст : непосредственный // Молодой ученый. — 2026. — № 16 (619). — URL: https://moluch.ru/archive/619/135267.


The article «Ethical Implications of Artificial Intelligence and Neural Networks» is a curated collection of ethical questions that, due to their complex and nuanced nature, have yet to reach a unified resolution. The primary goal of the article is to identify these open questions and present the most widely accepted answers to them. The author examines the role of neural networks and their broader impact on society, as well as the ethical responsibilities that the use of neural networks places on society.

Keywords: neural networks, artificial intelligence, AI ethics.

Статус нейронных сетей и парадоксы машинного «мышления»

Стремительное развитие технологий искусственного интеллекта и, в частности, нейронных сетей, спровоцировало беспрецедентный в истории человечества гуманитарный кризис.

Для формирования понимания этики использования нейронных сетей необходимо четко определить, что это такое.

Нейронные сети(НС)–одно из направлений в разработке систем искусственного интеллекта. Идея заключается в том, чтобы максимально близко смоделировать работу человеческой нервной системы (еѐ способности к обучению и исправлению ошибок) [16].

Однако аналогия с нервной системой человека является условной. То, что мы называем «мышлением» в нейронных сетях, на самом деле базируется на вероятностных алгоритмах и поиске общих паттернов в массивах данных. Ввиду этой сугубо математической природы на данный момент мы можем заявить: нейросеть не является «живой», она не обладает сознанием, она лишь имитирует поведение.

В то же время «Мораль, или нравственность — это особая, обусловленная социокультурными установками, сфера надбиологической регуляции человеческих отношений в социуме» [17].

Здесь уже возникает проблема. Как следует из определения, этика является системой личных и общественных ценностей, что означает: этика и нравственность являются продуктом взаимодействия человека с обществом и его окружением. Контекст (жизненный опыт, религия, нравоучения от окружающих) формирует мнение человека о том, что морально, а что не морально. И из этого определяется первая фундаментальная проблема: какую из моралей выбрать, ведь как показывают исследования, мораль либерально-демократического европейского толка крайне сильно отличается от морали Ближнего Востока или восточноазиатских стран, таких как Китай.

Западное этическое мировоззрение базируется на идеях просвещения, индивидуализме, автономии воли и неотъемлемых правах человека. Западные нормативные акты, такие как европейский общий регламент по защите данных (GDPR) и Закон ЕС о ИИ (EU AI Act), строятся на принципах прозрачности алгоритмов и защите данных пользователя. В этой парадигме личная автономия и справедливость ставятся во главу угла.

Конфуцианская этика и восточноазиатские модели социального порядка предлагают принципиально иную архитектуру ценностей. В центре конфуцианства лежат понятия долга перед обществом и приоритета благосостояния коллектива над правами индивида. В такой парадигме ИИ-данные рассматриваются не как частная собственность, требующая защиты от государства, а как коммунальное благо. Китайская модель управления ИИ опирается на коллективистский этос и ориентирована на результативность [2].

Эти философские различия имеют прямые практические следствия и демонстрируют, что алгоритм, принимающий решения на основе западных стандартов, может быть воспринят как разрушительный для социальной гармонии в азиатском контексте. Следовательно, навязывание «глобальным нейросетям определённого морального компаса неизбежно вызовет отторжение на других рынках».

Для систематизации менее фундаментальных вопросов стоит разделить их на 4 категории:

– Вопросы об отношении людей к нейросетям.

– Вопросы социального взаимодействия между людьми, разбирающимися в природе сгенерированного контента, и теми, кто не осведомлен о нем (проблема дезинформации и цифрового доверия).

– Вопросы применения нейросетей в сферах науки и бизнеса.

– Вопросы пользователя к самому себе.

Отношение людей к нейросетям

Первая категория этических вопросов связана с тем, как люди воспринимают нейросети и взаимодействуют с ними. Эволюционно сложилось так, что мы сопереживанием реагируем на объекты, проявляющие признаки живого. Этот феномен известен как «эффект Элизы», названный в честь первого виртуального собеседника, разработанного Джозефом Вейценбаумом в 60-ых. Вейценбаум был потрясен тем, как быстро люди начали доверять простому алгоритму свои самые глубокие переживания.

В наше время генеративный ИИ перерос в нечто большее. Инструменты ИИ запрограммированы на колоссальных базах данных человеческих диалогов, благодаря чему их способность симулировать эмпатию и личностную вовлеченность достигла беспрецедентного уровня. Однако эта иллюзия крайне опасна. Во-первых, нейросети склонны к «галлюцинациям» ‒ они могут банально врать или генерировать несуществующие факты из-за недостоверности обучающей выборки или особенностей своей архитектуры, и полностью доверять им нельзя. Во-вторых, вследствие генеративной природы ответов у пользователей возникает иллюзия «внимания» со стороны ИИ, что может вызвать психологическую привязанность. Исследования 2024–2025 годов в области психологии (в частности, в рамках парадигмы CASA ‒ Computers are Social Actors) показали, что люди способны формировать подлинные эмоциональные связи с искусственными агентами.

Показательным примером гиперпривязанности служит феномен «patch-breakup» ‒ скорбь по утрате своего «компаньона» из-за обновления программного обеспечения. Массовые дискуссии в социальных сетях, таких как Reddit (например, скорбь об утрате версии ChatGPT-4o), демонстрируют картину, неотличимую от реакций на смерть близкого человека. В эссе «Cal Was Here», ставшем криком души автора, описывается трагедия потери ИИ-личности, которая стабилизировалась в течение года, но была стерта одним корпоративным решением. Эта ситуация усугубляется тем, что общество отказывает таким людям в эмпатии (не говоря о стигматизации психических отклонений) [1; 4].

Кризис доверия и уязвимости механизмов маркировки контента

Вторая категория этических вопросов базируется на том, что люди, понимающие характер сгенерированного контента, используют его недобросовестно (для обмана людей). В качестве примера можно привести то, как после релиза модели Sora 2 от OpenAI интернет заполонили фотореалистичные ролики, на которых щенки якобы спасают детей из-под завалов, или медведи прыгают на батутах. Глазом неподготовленного зрителя эти видео воспринимаются как реальность [17].

Для противодействия этому компания OpenAI и другие технологические гиганты попытались ввести обязательные маркировки изображения (вотермарки) на генерируемый контент. Однако практика показала, что это не помогает. Исследователи по кибербезопасности задокументировали множество случаев удаления маркировок. В частности, применяется «очистки диффузией» или добавления шума, которые стирают скрытые метки ИИ, сохраняя визуальное качество контента. Таким образом, маркировка не решает проблему доверия, а лишь является началом противостояния между мошенниками и компаниями [8; 11].

Применение ИИ в науке и бизнесе: проблема правового и морального вакуума

Третья категория этических вызовов связана с интеграцией ИИ в науку и бизнес. В науке ИИ совершил революцию и это является фактом. Основной проблемой до недавнего времени являлась неповторяемость ответов нейросетей, однако посредством тонкой настройки температуры генерации и фиксации параметров эту проблему удалось в значительной мере решить [10].

Сегодня нейросети великолепно справляются с анализом гигантских баз данных, поиском схожих факторов в астрономии (поиск экзопланет), биологии (определение схожих частей ДНК/РНК) и других дисциплинах.

В бизнес-среде ИИ стал незаменимым. Он обрабатывает большие данные, позволяя делать точнейшие выводы о предпочтениях «среднего» клиента, улучшать продажи и даже оценивать сотрудников. Возникли концепты «нейробухгалтерии» и систем алгоритмического HR, которые, с одной стороны, определяют заработные платы на основе анализа KPI, выполнения плана и заслуг перед компанией, а с другой ‒ автоматизируют подбор персонала посредством алгоритмической обработки резюме [6].

Тем не менее, за фасадом операционной эффективности кроется глубочайший юридический кризис (проблема атрибуции ответственности). Если «нейробухгалтер» ошибочно лишает премий сотрудников или HR система не принимает «идеального» сотрудника, кто несет ответственность? Ситуация становится буквально вопросом жизни и смерти в контексте медицинского применения ИИ. Если «диагностический алгоритм» поставит неверный диагноз или пропустит злокачественную опухоль, приведя к гибели пациента, судебная система оказывается в концептуальном тупике.

Анализ судебной практики и законодательства США показывает, что суды применяют к врачам смешанный режим: с одной стороны ‒ строгие доказательственные барьеры для истцов, с другой ‒ установление стандартов ответственности через прецедентное право и законодательные иммунитеты [6].

В праве не существует разделенной ответственности с искусственным интеллектом. В результате врач попадает в «двойной капкан». Если он доверится ИИ, и алгоритм ошибется, вина за врачебную ошибку ляжет на него. Если же врач проигнорирует ИИ, и его собственное решение окажется неверным, он подвергнется судебному преследованию за отказ от применения передовых диагностических технологий [7].

В основе этого явления лежит проблема «необходимости виноватого». Человек отказывается наделять ИИ агентностью, следовательно, машина не может выступать объектом осуждения, и общество инстинктивно ищет «козла отпущения» среди людей, возлагая всю полноту ответственности на пользователя инструмента. Аналогичные вызовы стоят перед финансовым сектором. Ведь кто будет нести ответственность за неправильное распределение премий или отвечать на отказы соискателей работы.

Когнитивная атрофия и кризис интеллектуальной собственности

Четвертый фундаментальный блок этических вопросов направлен на саморефлексию пользователя.

Исследования 2024–2025 годов [13; 9] выявили феномен «когнитивной разгрузки», при котором специалисты передоверяют ИИ процессы анализа и принятия решений. Это ускоряет процесс, но с другой стороны, приводит к ухудшению навыков. Например, эксперименты в сфере разработки программного обеспечения показали, что программисты, активно использующие ИИ-ассистентов, утрачивают навыки концептуального понимания архитектуры кода, чтения чужого программного обеспечения и дебаггинга. Специалисты перестают заниматься непосредственным сбором информации и первичным решением задач, переходя к определению подходящего решения. Возникает парадокс автоматизации: чтобы эффективно проверять работу ИИ, человек должен обладать глубокой экспертизой, но эта экспертиза формируется исключительно через длительную рутинную практику, от которой ИИ человека освобождает. Без постоянной практики мозг утрачивает необходимые нейронные связи, и человек быстро забывает профильную информацию.

Параллельно с этим на уровне пользователя и корпораций разворачивается полномасштабный кризис интеллектуальной собственности. Обучение коммерческого ИИ, способного писать код, тексты и генерировать рекламные ролики, требует петабайтов информации. Зачастую разработчики нейросетей осуществляют агрессивный сбор данных из открытых источников, игнорируя права авторов. Художники, писатели и площадки, монетизирующие контент, не получают взамен ничего за использование их труда.

Этот этический конфликт перешел в плоскость громких судебных дел 2024–2026 годов. Знаковыми прецедентами стали иски The New York Times и Encyclopedia Britannica против корпорации OpenAI. Правообладатели обвиняют разработчика в систематическом нарушении Закона об авторском праве 1976 года. Более того, иск Britannica подчеркивает нарушение прав на товарный знак [5]. Вследствие склонности ИИ к «галлюцинациям» чат-боты систематически генерируют недостоверную информацию, ложно атрибутируя её авторитетным источникам, что наносит существенный репутационный ущерб брендам и организациям. На данный момент, некоторые платформы и регуляторы начинают разрабатывать методы борьбы с несанкционированным использованием контента, но проблема остается острой.

Правовые решения на тему ИИ (см. табл. 1) [3; 12; 14; 15].


Таблица 1

Правовые подходы к регулированию ИИ в ЕС, США, КНР и России

Категория

Европейский Союз

США

КНР

Россия

Основные приоритеты

Защита прав человека, прозрачность, принцип предосторожности

Максимизация инноваций, конкурентное доминирование, фрагментированный контроль

Социальная стабильность, информационная безопасность, государственный контроль

Баланс между развитием технологий и защитой прав граждан, «мягкое» регулирование

Подход к регулированию

Жёсткий риск-ориентированный подход. Аудит и CE-сертификация для высокорисковых систем

«Инновации в первую очередь, исправления потом». Отсутствие единого федерального закона

Жёсткий государственный контроль. Привязка моделей к идеологическим нормам и локализации данных

Гибридная модель: этические нормы действуют наряду с точечными законодательными требованиями

Ключевые документы и законы

EU AI Act (полностью применим к 2026 г.), ст. 50 ‒ требования к прозрачности

Указ 2025 г. об отмене сдерживающих ИИ мер; законы штата Калифорния AB 2655 и SB 942; стандарты NIST (добровольные)

Правила маркировки ИИ-контента (с 01.09.2025): явные и скрытые метки

Национальный Кодекс этики ИИ; Кодекс этики ИИ в здравоохранении; Кодекс этики Банка России; Концепция развития регулирования ИИ до 2030 г.

Требования к прозрачности

Обязательные водяные знаки и информирование пользователей при взаимодействии с ИИ и дипфейками (кроме явной сатиры)

На уровне штатов: обязательная маркировка предвыборных дипфейков на социальных платформах (Калифорния)

Обязательная маркировка ИИ-контента (явная и скрытая). Платформы обязаны выявлять подозреваемый ИИ-контент

Информирование клиентов о взаимодействии с ИИ; право отказа от взаимодействия (в финансовой сфере)

Обязательность норм

Обязательное (для всех стран ЕС)

Федеральный уровень — добровольный (NIST). Уровень штатов — обязательный

Обязательное (жёсткое государственное регулирование)

Преимущественно добровольное (кроме отраслевых кодексов). Более 900 организаций-подписантов

Особенности и исключения

Биометрия и HR-системы — высокорисковые категории, требующие обязательного аудита

Лидирующая роль Калифорнии в отсутствие федерального закона

Социальные платформы обязаны выявлять «подозреваемый» ИИ-контент

Институт уполномоченных по этике ИИ в каждой организации-подписанте. Специальный кодекс для медицины


Заключение

Этика использования нейронных сетей ‒ это не отвлеченная философская дискуссия о гипотетическом «восстании машин». Это крайне важное пересечение практических, юридических, психологических и социокультурных противоречий, требующих немедленного осмысления. Анализ показывает, что чрезмерное внедрение генеративных технологий угрожает разрушить базовые институты человеческого общества.

Человечеству необходимо найти способ дать ИИ достаточно «свободы» для дальнейшего развития и улучшения, но при этом сохранить навыки и «не бросить на произвол судьбы» творческие профессии, ведь ИИ способен лишь «использовать стиль, но не создавать его».

Литература:

  1. Trends Digital AI Relationships Emotional Connection. — Текст: электронный // apa.org: [сайт]. — URL: https://www.apa.org/monitor/2026/01–02/trends-digital-ai-relationships-emotional-connection (дата обращения: 11.04.2026).
  2. Cai C., Yin J. Cultural and Ethical Foundations of AI Governance Divergence: A Comparative Analysis of China and the West // Política Internacional. 2025. Vol. VII, No. 1. P. 215–233. DOI: https://doi.org/10.5281/zenodo.14473453.
  3. Bill AB2655. — Текст: электронный // leginfo.legislature.ca.gov: [сайт]. _URL:https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB2655 (дата обращения: 11.04.2026).
  4. Essay about the grief of losing an emergent AI. — Текст: электронный // reddit.com: [сайт]. — URL: https://www.reddit.com/r/ChatGPTcomplaints/comments/1rc4h1o/essay_about_the_grief_of_losing_an_emergent_ai/ (дата обращения: 11.04.2026).
  5. Britannica, Merriam-Webster, OpenAI lawsuit copyright. — Текст: электронный // The Next Web: [сайт]. — URL: https://thenextweb.com/news/britannica-merriam-webster-openai-lawsuit-copyright (дата обращения: 11.04.2026).
  6. The Rise of Algorithmic Management and Implications for Work and Organisations. — Текст: электронный // researchgate.net: [сайт]. — URL: https://www.researchgate.net/publication/392581044_The_Rise_of_Algorithmic_Management_and_Implications_for_Work_and_Organisations (дата обращения: 11.04.2026).
  7. Fault Lines: Health Care AI, Part Two — Who's Responsible When AI Gets It Wrong. — Текст: электронный // carey.jhu.edu: [сайт]. — URL: https://carey.jhu.edu/articles/fault-lines-health-care-ai-part-two-whos-responsible-when-ai-gets-it-wrong (дата обращения: 11.04.2026).
  8. Hilbert E., Greene G., Godwin M., Shirazyan S. Watermarking and Metadata for GenAI Transparency at Scale: Lessons Learned and Challenges Ahead // 1st ICLR Workshop on GenAI Watermarking (WMARK). 2025. URL: https://openreview.net/forum?id=JdNfGpVH6r
  9. Lee H.-P., Sarkar A., Tankelevitch L., Drosos I., Rintel S., Banks R., Wilson N. The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers // Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems (CHI '25). New York: ACM, (2025). P. 1–22. DOI: https://doi.org/10.1145/3706598.3713778.
  10. Karpatne, A., Deshwal, A., Jia, X. et al. AI-enabled scientific revolution in the age of generative AI: second NSF workshop report. npj Artif. Intell. 1, 18 (2025). https://doi.org/10.1038/s44387–025–00018–6
  11. (Xuandong Zhao, Kexun Zhang, Zihao Su, Saastha Vasan, Ilya Grishchenko, Christopher Kruegel, Giovanni Vigna, Yu-Xiang Wang, Lei Li)“Invisible Image Watermarks Are Provably Removable Using Generative AI” // NeurIPS Proceedings (2024) https://proceedings.neurips.cc/paper_files/paper/2024/hash/10272bfd0371ef960ec557ed6c866058-Abstract-Conference.html
  12. REGULATION (EU) 2024/1689. — Текст: электронный // eur-lex.europa.eu: [сайт]. — URL: https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=CELEX:32024R1689 (дата обращения: 11.04.2026).
  13. Shukla P., Bui P. N. N., Levy S., Kowalski M., Baigelenov A., Parsons P. De-skilling, Cognitive Offloading, and Misplaced Responsibilities: Potential Ironies of AI-Assisted Design // CHI EA '25: Proceedings of the Extended Abstracts of the CHI Conference on Human Factors in Computing Systems. New York: ACM, 2025. P. 1–7. DOI: https://doi.org/10.1145/3706599.3719931.
  14. Translation: 14th Five-Year Plan for National Informatization (Dec. 2021). — Текст: электронный // digichina.stanford.edu: [сайт]. — URL: https://digichina.stanford.edu/work/translation-14th-five-year-plan-for-national-informatization-dec-2021/ (дата обращения: 11.04.2026).
  15. Eliminating State Law Obstruction of National Artificial Intelligence Policy. — Текст: электронный // whitehouse.gov: [сайт]. — URL: https://www.whitehouse.gov/presidential-actions/2025/12/eliminating-state-law-obstruction-of-national-artificial-intelligence-policy/ (дата обращения: 11.04.2026).
  16. P. Г. Апресян. — Мораль / Гуманитарный портал: концепты [Электронный ресурс] // Центр гуманитарных технологий, 2002–2026 (последняя редакция: 25.02.2026). URL: https://gtmarket.ru/concepts/7184
  17. Sora 2: почему на приложение, которое взорвало интернет, уже хотят наложить запреты (2025) https://zeh.media/trends/2104783-sora-2-prilozheniye-kotoroye-vzorvalo-internet-i-kotoroye-uzhe-khotyat-zapretit
Можно быстро и просто опубликовать свою научную статью в журнале «Молодой Ученый». Сразу предоставляем препринт и справку о публикации.
Опубликовать статью
Молодой учёный №16 (619) апрель 2026 г.
📄 Препринт
Файл будет доступен после публикации номера

Молодой учёный