Отправьте статью сегодня! Журнал выйдет ..., печатный экземпляр отправим ...
Опубликовать статью

Молодой учёный

Правовые вызовы и возможности применения ИИ-систем в деятельности кредитных организаций в целях противодействие легализации (отмыванию) доходов, полученных преступным путем, и финансированию терроризма

Юриспруденция
29.11.2025
5
Поделиться
Аннотация
В статье рассматриваются современные направления применения систем искусственного интеллекта (ИИ) в деятельности кредитных организаций в сфере противодействия легализации доходов, полученных преступным путем, и финансированию терроризма (ПОД/ФТ). Анализируются ключевые технологические решения, внедряемые банками для автоматизации мониторинга транзакций, идентификации клиентов, выявления аномальных финансовых операций и повышения эффективности внутреннего контроля. Особое внимание уделяется правовым проблемам, возникающим в связи с использованием алгоритмов машинного обучения: неопределенности в вопросах юридической ответственности за решения ИИ, рискам нарушения законодательства о персональных данных, требованиям к прозрачности и объяснимости алгоритмов, а также необходимости предотвращения дискриминации в автоматизированных системах принятия решений. Проведено сравнение российского регулирования с международными стандартами ФАТФ, Базельского комитета и Европейского союза. Показано, что внедрение ИИ открывает значительные возможности для усиления эффективности ПОД/ФТ, однако требует адаптации нормативной базы, внедрения механизмов аудита алгоритмов, регламентации процедур контроля и обеспечения баланса между технологичностью и защитой прав клиентов. Сделан вывод о необходимости комплексного обновления правового регулирования с учетом растущего влияния цифровых технологий на финансовый сектор.
Библиографическое описание
Даровская, М. В. Правовые вызовы и возможности применения ИИ-систем в деятельности кредитных организаций в целях противодействие легализации (отмыванию) доходов, полученных преступным путем, и финансированию терроризма / М. В. Даровская. — Текст : непосредственный // Молодой ученый. — 2025. — № 48 (599). — С. 192-197. — URL: https://moluch.ru/archive/599/130724.


The article examines the current trends in the use of artificial intelligence (AI) systems in the activities of credit institutions in the field of countering the legalization of proceeds from crime and the financing of terrorism (AML/CFT). The key technological solutions implemented by banks to automate transaction monitoring, identify customers, identify abnormal financial transactions, and improve the effectiveness of internal control are analyzed. Particular attention is paid to the legal problems that arise in connection with the use of machine learning algorithms: uncertainty about legal responsibility for AI decisions, risks of violating personal data legislation, requirements for transparency and explainability of algorithms, as well as the need to prevent discrimination in automated decision-making systems.

The comparison of Russian regulation with the international standards of the FATF, the Basel Committee and the European Union is carried out. It is shown that the introduction of AI opens up significant opportunities to enhance the effectiveness of AML/CFT, however, it requires the adaptation of the regulatory framework, the introduction of audit mechanisms for algorithms, the regulation of control procedures and ensuring a balance between technology and the protection of customer rights. It is concluded that there is a need for a comprehensive update of legal regulation, taking into account the growing influence of digital technologies on the financial sector.

Keywords: artificial intelligence, digital technologies, credit institutions, counteraction, money laundering, legal regulation, personal data protection, digital transformation of banks.

Актуальность применения ИИ в целях ПОД/ФТ определяется как технологической эволюцией рынка, так и ужесточением регуляторных требований. Постоянный рост объемов электронных платежей и децентрализованных финансовых сервисов создает все новые возможности для мошенничества и уклонения от санкций. В ответ органы финансового мониторинга стимулируют внедрение современных технологий. Так, Росфинмониторинг прямо указывает, что автоматизация процессов «антиотмывочного» контроля с помощью ИИ стала «одним из важнейших инструментов» финансовой разведки [6]. Практический эффект от таких инноваций уже заметен: в совместном проекте Банка России и Банка Англии («Hertha») анализ агрегированных данных платежной системы с применением ИИ позволил банкам выявить на 12 % больше подозрительных счетов по сравнению со стандартным мониторингом.

Одновременно с возможностями растут и вызовы. Рекомендации ФАТФ подчеркивают, что широкое внедрение ИИ и других цифровых технологий должно сопровождаться обновлением нормативной базы: необходимо преодолеть «реальные или предполагаемые» барьеры, включая отсутствие регулятивных стимулов и сложности объяснения решений алгоритмов [7]. По мере роста доли ИИ в комплаенс-процессах все заметнее становятся этические и правовые вопросы — соблюдение приватности клиентов, недопущение предвзятости в алгоритмах, а также вопрос ответственности за решения, принятые машиной [8]. Учитывая угрозы финансовой безопасности (включая криптоактивы и международные санкции), использование ИИ в ПОД/ФТ предстает как необходимость, требующая сбалансированного подхода: технологии должны укреплять финансовую безопасность, не порождая новых рисков для прав субъектов.

ИИ-системы находят все более широкое применение в банковском бизнесе, в том числе и для задач ПОД/ФТ. Основные направления использования ИИ в этой сфере включают:

Мониторинг транзакций и аномалий. Системы машинного обучения анализируют входящие и исходящие платежи, поиск аномальных «паттернов» транзакций и частые комбинации операций. Как отмечают специалисты, ИИ способен обрабатывать «колоссальные массивы финансовой информации» — от данных о транзакциях до поведения клиентов — в реальном времени, выделяя признаки потенциального отмывания или финансирования терроризма [15].

Идентификация и верификация клиентов (KYC). ИИ-приложения используются для автоматической проверки личности клиентов, в том числе с помощью обработки биометрических данных и цифровых документов. Например, российский закон требует удаленную идентификацию клиентов через Единую биометрическую систему, где применяются нейросети для распознавания лица и голоса [12]. Помимо этого, ИИ анализирует большие данные о клиенте (история операций, соцсети, внешние базы), выявляя несоответствия или ранее неизвестные риски.

Детекция мошенничества и схем ОД/ФТ. Традиционные антифрод-системы дополняются ИИ-алгоритмами, включая нейронные сети и кластеризацию. Такие системы учатся на исторических атаках и типологиях преступлений, чтобы распознавать сложные схемы (в том числе с использованием «дропов» и рассрочек) при легализации нелегальных доходов [13]. Как отмечено в практике, банкам становится жизненно необходимо применять алгоритмы машинного обучения: «ИИ анализирует огромное количество операций в реальном времени, выявляя необычные модели поведения» [15].

Автоматизированная отчетность и комплаенс (RegTech/SurTech). ИИ применяется для генерации отчетов о подозрительных транзакциях (СПО) и оценки достаточности мер внутренних процедур. Системы Robotic Process Automation (RPA) и NLP (обработка естественного языка) автоматизируют рутинные задачи — заполнение форм, обработку писем регуляторов, верификацию новых санкционных списков и т. д., — освобождая сотрудников комплаенс-служб для более сложных аналитических задач [13].

Практика показывает, что российские банки уже внедряют такие решения. Так, многие крупные кредитные организации используют ИИ для внутреннего контроля и AML-проверок: по данным одного из экспертов, «системы ИИ берут на себя эти задачи, что позволяет сократить время работы и минимизировать роль человеческого фактора» [15]. В перспективе ожидается рост применения ИИ для интегрированного анализа не только банковских данных, но и общенациональных информационных потоков (например, с маркетплейсов и социальных сетей) в целях ПОД/ФТ.

На практике реализуются различные ИИ-решения и пилотные проекты в области финансового мониторинга. Один из наиболее известных международных опытов — проект «Hertha» Банка России и Банка Англии, где ИИ-модели исследовали платежные потоки: с использованием анализа объединенных данных платежной системы банки смогли выявлять на 12 % больше подозрительных счетов по типовым схемам преступлений. Этот опыт показал, что централизованный анализ данных платежных сетей (с учетом правил конфиденциальности) дает дополнительную ценность для банков и регуляторов.

В России развивается и собственная инфраструктура: например, Росфинмониторинг применяет ИИ для скрининга большого массива деклараций и отчетов, выделения непривычных схем и построения риск-профилей групп клиентов [6]. Кредитные организации используют коммерческие решения: платформы типового AML-мониторинга (например, «ЦФТ-AML» и другие отечественные продукты) уже оснащаются компонентами ИИ-аналитики для расширенного профилирования операций. Международные банки-партнеры, такие как Сбербанк, сообщают о доле ИИ-решений до 40–100 % в определенных процессах (например, 40 % решений по корпоративным кредитам принимает ИИ, а 100 % решений по физлицам), что иллюстрирует тенденцию полной автоматизации принятия решений.

В то же время отраслевые альянсы создают руководства по внедрению ИИ. Так, «Альянс в сфере ИИ» (по примеру подобной EU инициативы) разработал «Белую книгу этики ИИ», где подчеркивается необходимость открытых алгоритмов, механизмов возражений и мониторинга ИИ-систем. В частности, в сфере скоринга финансового риска рекомендовано строить модели на принципах недискриминации, прозрачности и тщательного контроля «человеком в цикле». Эти примеры показывают, что практические ИИ-решения уже существуют и эволюционируют, но их внедрение требует четкой регуляторной базы и методов оценки качества моделей.

Правовые вызовы применения ИИ в ПОД/ФТ

С точки зрения права ИИ-системы в банковской сфере пока во многом работают в рамках действующего законодательства. В России ключевым базисом остается «антиотмывочный» Федеральный закон № 115-ФЗ: он обязывает кредитные организации вести внутренние процедуры контроля, сообщать в Росфинмониторинг о СПО и осуществлять идентификацию клиентов, однако прямых упоминаний ИИ в нем нет. Вместе с тем регуляторы постепенно вводят новые требования к цифровизации мониторинга. Так, в 2025 году Банком России одобрены изменения (Указания, нормативы), стимулирующие формализацию отчетности и расширение электронного взаимодействия банков с надзором [4]. Одновременно Россия формирует общие стратегии по ИИ: утверждена национальная «Концепция развития регулирования ИИ» (2019, актуализирована 2024) и «Стратегия развития финансового рынка до 2030» (2022), в которых поставлен акцент на законное и безопасное внедрение ИИ в финансовых институтах [12].

Международные регуляторы также работают над стандартами. ФАТФ в своем руководстве по новым технологиям (2021) призывает страны активно поддерживать внедрение RegTech и SupTech-решений, но отмечает и барьеры: «отсутствие нормативных стимулов» и «необъяснимость» решений затрудняет использование ИИ [7]. В ЕС разрабатывается «Акт об ИИ», который классифицирует системы по уровню риска и вводит требования к прозрачности и безопасности для высокорисковых приложений (к которым, при определенных условиях, можно отнести ИИ в сфере AML/CFT). ЕБА констатирует: в банковском секторе ЕС большинство ИИ-систем уже отвечают регуляторным стандартам, однако банки вырабатывают «более сдержанный подход» к АI, учитывая требования к безопасности и приватности [10].

Таким образом, ключевой регуляторный вызов состоит в том, что существующие правовые рамки не полностью охватывают новые технологии. В России нет отдельных законов об ИИ в банковской сфере; операции с ИИ регулируются общими нормами — банковским законодательством, законом о персональных данных (152-ФЗ) и проектными инициативами. Специалисты указывают на необходимость конкретизировать юридические нормы под ИИ: например, предусмотреть процедуры валидации алгоритмов, обязать разработчиков обеспечивать объяснимость решений и предусмотреть роль человека в проверке результатов [12]. В отсутствие таких норм во всем мире остается «юридическая неопределенность» относительно ИИ-решений, особенно когда от них зависят важные финансовые решения.

Важнейшим правовым вопросом при применении ИИ является определение ответственности за его решения. Пока закон не дает однозначного ответа: кто должен отвечать клиентам за ошибочные решения алгоритма — поставщик софта, банк или пользователь? Российские эксперты отмечают, что «еще не решен вопрос ответственности за решения, принимаемые ИИ-системами». Отсутствие четких правил порождает риски: если вследствие ошибки ИИ клиент получил отказ в услуге или понес убытки, неочевидно, кто компенсирует вред.

В международной практике считают, что ответственность остается за субъектом, использующим ИИ. ФАТФ подчеркивает: несмотря на внедрение инноваций, «конечная ответственность» за соответствие требований ПОД/ФТ должна оставаться за банками и организаторами мониторинга [7]. Аналогично, доклады по ИИ в банковском надзоре рекомендуют сохранять «human-in-loop» — человек-контролер, который проверяет срабатывания и принимает окончательное решение. Таким образом, внедряя ИИ, финансовые организации должны нести полную ответственность за результаты его работы, обеспечивая наличие экспертного надзора и возможности вмешательства сотрудников. Отсутствие таких мер может привести к тому, что регуляторы усмотрят нарушения: даже при использовании ИИ банки обязаны выполнять требования закона «о due diligence» (надлежащей проверки) и тщательно документировать свои действия.

ИИ-системы в ПОД/ФТ оперируют чувствительными персональными данными, что вызывает дополнительные правовые вопросы. В России обработка персональных данных строго регулируется Федеральным законом № 152-ФЗ. Статья 16 этого закона прямо запрещает принимать решения, влекущие для субъекта правовые последствия, исключительно на основе автоматизированной обработки без его письменного согласия [2]. Исключения возможны лишь при согласии клиента или специальных нормах закона. Более того, оператор (банк) обязан разъяснить клиенту логику принятия таких решений и предоставить возможность возражения [2].

В контексте ПОД/ФТ это означает, что при внедрении ИИ нужно соблюдать баланс: с одной стороны, автоматизация противоречит требованиям «принятия решений на основе исключительно автоматизированной обработки», с другой — банки вправе реализовывать технологические системы, если при этом информируют клиента и оставляют за ним возможность оспорить выводы. Практика указывает на необходимость «объяснимости» ИИ-алгоритмов — иначе клиент может оспорить правомерность отказа или блокировки счета в суде. Центральный Банк России уже обращает внимание на риски «принятия предвзятых или дискриминационных решений» ИИ. Международные стандарты подчеркивают две формы справедливости: результативную (недискриминация) и процедурную (прозрачность процесса) [7].

Кроме того, международные нормы защиты данных (GDPR в ЕС, законопроекты в ОЭСР и др.) требуют принципа минимизации данных и безопасности хранения. ИИ-системы для AML/CFT должны использовать только необходимые данные, обрабатывать их в рамках согласия или легитимных интересов банка и обеспечивать кибербезопасность. Важна и проблема кросс-бордер данных: в случае использования международных сервисов (облачных платформ ИИ) возможны дополнительные ограничения. В целом, защита персональных данных и соблюдение прав клиентов ставят жесткие ограничения на построение AI-систем: требуются надежные протоколы защиты и аудит алгоритмов.

Мировой опыт внедрения ИИ в финансах демонстрирует широкий разрыв между технологическими возможностями и правовым регулированием. ФАТФ и Всемирный банк активно продвигают технологические стандарты: они считают, что ИИ и машинное обучение способны «значительно облегчить сбор, обработку и анализ данных, а также помочь субъектам выявлять риски» ПОД/ФТ более эффективно [8]. При этом ФАТФ предупреждает о «потенциально существенных рисках» в отношении прозрачности и ответственности. В Европе ЕБА отмечает, что большинство банков ЕС уже применяют ИИ, в том числе для «fraud и AML/CFT» — анализа больших массивов данных для выявления подозрительных схем [10]. Европейский регуляторский пакет «Акт об ИИ» (очередной этап которого ожидается в 2025–2026 гг.) вводит требования к управлению рисками ИИ-систем высокого класса (например, системы, влияющие на права человека) — что затронет и банковские приложения.

Российский опыт пока менее формализован, но тенденции схожи. Уже сегодня ФНС и финансовые органы используют алгоритмы анализа данных для операций «сцепления» сумм и незаконных схем. Кредитные организации в России показывают активный интерес к ИИ: например, Сбербанк и другие цифровые лидеры сообщают об использовании нейросетевых скоринговых моделей и чат-ботов-помощников. При этом правовая основа остается прежней: банки обязаны выполнять требования 115-ФЗ и внутренних регламентов Банка России. В 2022–2023 годах Центральный банк и Росфинмониторинг создали несколько пилотных RegTech-площадок и «песочниц», где тестируются методы машинного обучения в контроле финансовых потоков. В ближайшем будущем ожидается принятие специальных норм: в 2024 году Президент подписал указ о разработке концепции регулирования ИИ, а в 2025 году планируется внести в законодательство отдельные нормы об алгоритмической ответственности.

Таким образом, и в международной, и в российской практике подчеркивается необходимость сбалансированного подхода: ИИ предоставляет «значительные возможности» для повышения эффективности мер ПОД/ФТ, но при «соразмерном использовании» и должном регулировании. Опыт ряда стран показывает, что лучшим результатам способствует сочетание технологических инноваций и жесткого надзорного контроля: ИИ-инструменты используются совместно с экспертным анализом.

Применение ИИ-систем в целях противодействия легализации преступных доходов и финансированию терроризма открывает кредитным организациям и регуляторам принципиально новые возможности: автоматизированный мониторинг позволяет охватывать большие объемы данных, выявлять сложные схемы и снижать долю человеческой ошибки. Однако вместе с этим возникают серьезные правовые вызовы. Во-первых, нетипичность ИИ-решений требует надлежащего правового оформления: банковское и финансовое законодательство (115-ФЗ) не содержит специальных норм по ИИ, а существующие требования (о знании клиента, хранении данных и т. д.) должны соблюдаться и при автоматизации. Во-вторых, вопросы ответственности остаются нерешенными: алгоритм не может являться субъектом права, и полная ответственность за его действия ложится на банк или разработчика. В-третьих, обработка персональных данных в ИИ-системах накладывает ограничения на логику и применение алгоритмов: закон о персональных данных запрещает бездоговорные решения машин, обязывает объяснять клиенту логику и давать возможности обжалования.

Важно отметить: накопленный международный опыт указывает, что ИИ должен дополнять традиционные механизмы, не подменяя их. Внедрение ИИ в комплаенс требует развитого надзора: регуляторы должны требовать оценки моделей, их валидации и прозрачности. Российские кредитные организации уже активно интегрируют такие технологии (нейросетевые скоринги, NLP-модели, биометрию), но для раскрытия их потенциала необходимы правовые гарантии — от закрепления принципов прозрачности до создания нормативных «песочниц» для тестирования инноваций.

Литература:

  1. Федеральный закон от 07.08.2001 № 115-ФЗ «О противодействии легализации (отмыванию) доходов, полученных преступным путем, и финансированию терроризма» // Собрание законодательства РФ. — 2001. — № 33 (ч. 1). — Ст. 3418.
  2. Федеральный закон от 27.07.2006 № 152-ФЗ «О персональных данных» // Собрание законодательства РФ. — 2006. — № 31 (ч. 1). — Ст. 3451.
  3. Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» // Официальный интернет-портал правовой информации. URL: http://www.pravo.gov.ru
  4. Указание Банка России от 16.08.2021 № 5943-У «О требованиях к правилам внутреннего контроля в целях ПОД/ФТ…» // Вестник Банка России. — 2021. — № 65.
  5. Банк России. Обзор применения технологий искусственного интеллекта в кредитных организациях. — М.: Банк России, 2022. — 35 с.
  6. Росфинмониторинг. Доклад о цифровых технологиях в сфере ПОД/ФТ. — М., 2023. — 42 с.
  7. FATF. Возможности и вызовы применения новых технологий для ПОД/ФТ. — Париж: FATF, 2021. — 80 с. URL: https://www.fatf-gafi.org
  8. FATF. Руководство по цифровой идентификации. — Париж: FATF, 2020. — 56 с.
  9. Базельский комитет по банковскому надзору. Надлежащее управление рисками, связанными с отмыванием денег и финансированием терроризма. — Базель: BIS, 2021. — 40 с.
  10. Европейская комиссия. Закон об искусственном интеллекте: проект. — Брюссель: EC, 2021. URL: https://eur-lex.europa.eu
  11. Сафонов В. В. Искусственный интеллект и правовые риски в банковской деятельности // Право и цифровая экономика. — 2022. — № 3. — С. 47–54.
  12. Кирсанов А. Е. Правовые аспекты применения ИИ-систем в комплаенс-процедурах кредитных организаций // Банковское право. — 2023. — № 6. — С. 25–30.
  13. Гаврилова Т. А., Ильин А. С. Цифровой комплаенс и автоматизация процедур ПОД/ФТ // Вестник СПбГУ. Сер. Менеджмент. — 2021. — № 2. — С. 96–110.
  14. Малышев И. А. Использование алгоритмов искусственного интеллекта в идентификации клиентов: правовые ограничения // Журнал российского права. — 2022. — № 9. — С. 82–90.
  15. Банки повышают эффективность с помощью ИИ и больших данных // Refinanc.ru. — 2025. — URL: https://refinanc.ru/journal/banki-povyshayut-effektivnost-s-pomoshchyu-ii-i-bolshikh-dannykh/
Можно быстро и просто опубликовать свою научную статью в журнале «Молодой Ученый». Сразу предоставляем препринт и справку о публикации.
Опубликовать статью
Молодой учёный №48 (599) ноябрь 2025 г.
Скачать часть журнала с этой статьей(стр. 192-197):
Часть 3 (стр. 139-207)
Расположение в файле:
стр. 139стр. 192-197стр. 207
Похожие статьи
Влияние искусственного интеллекта на информационную безопасность в банковской сфере
Контроль банковских операций в целях противодействия легализации и отмыванию доходов
Применение искусственного интеллекта при расследовании преступлений в сфере кредитного мошенничества
Искусственный интеллект в банковских технологиях
Перспективные направления использования системы искусственного интеллекта в противодействии коррупции в России
Внедрение технологий искусственного интеллекта в деятельность банка: основные риски и преимущества
Применение современных технологий в расследовании мошенничества
Сущность и роль технологий искусственного интеллекта в управлении предприятиями
Перспективы повышения эффективности технологий искусственного интеллекта при работе с банковскими картами
Использование российскими и зарубежными банками методов интеллектуального анализа данных при проведении расчетных операций

Молодой учёный