Биоэтические проблемы, вызванные внедрением искусственного интеллекта в сферу медицины | Статья в журнале «Молодой ученый»

Отправьте статью сегодня! Журнал выйдет 13 июля, печатный экземпляр отправим 17 июля.

Опубликовать статью в журнале

Библиографическое описание:

Биоэтические проблемы, вызванные внедрением искусственного интеллекта в сферу медицины / О. Г. Броян, К. А. Дружинин, А. Р. Курашенко [и др.]. — Текст : непосредственный // Молодой ученый. — 2024. — № 25 (524). — URL: https://moluch.ru/archive/524/116007/ (дата обращения: 30.06.2024).



Ключевые слова: искусственный интеллект, биоэтика, медицинская визуализация, данные, ответственность.

Введение

Поскольку современное общество прочно укоренилось в цифровой сфере, использование искусственного интеллекта (ИИ) для извлечения полезной информации из больших данных стало более распространенным явлением в нашей повседневной жизни. Медицинские специальности, которые в значительной степени полагаются на методы визуализации, стали уделять пристальное внимание внедрению инструментов ИИ для диагностики и мониторинга заболеваний, однако инструменты на основе ИИ, которые можно использовать в клинике, только сейчас начинают становиться реальностью. Однако потенциальное внедрение этих приложений поднимает ряд этических проблем, которые необходимо решить, прежде чем их можно будет реализовать, среди наиболее важных из которых — проблемы, связанные с конфиденциальностью, защитой данных, предвзятостью данных, объяснимостью и ответственностью.

Ход работы:

Медицина стремительно вступает в эпоху больших данных, особенно благодаря более широкому использованию электронных медицинских карт и оцифровке клинических данных, что усиливает требования к информационным решениям в медицинских учреждениях. Как и все крупные достижения в истории, предлагаемые преимущества связаны с новыми правилами взаимодействия. Прошло около 50 лет с тех пор, как считается рождением искусственного интеллекта (ИИ) в Дартмутском летнем исследовательском проекте, и с начала века мы стали свидетелями действительно значительных достижений в этой области, особенно в плане анализа медицинских изображений.

Однако внедрение этих инструментов поднимает важные биоэтические проблемы. Следовательно, прежде чем пытаться воспользоваться преимуществами, которые они могут предложить, важно оценить, как эти достижения влияют на отношения между пациентом и врачом, какое влияние они окажут на принятие медицинских решений и как эти потенциальные улучшения точности диагностики и эффективность повлияют на различные системы здравоохранения во всем мире. Очевидно, что это прорывная технология, которая потребует принятия нормативных руководящих принципов, законодательно регламентирующих надлежащее использование этих инструментов, руководящих принципов, которые в целом еще предстоит разработать. На сегодняшний день уже были запущены инициативы по изучению правовых аспектов использования инструментов ИИ в здравоохранении.

Конфиденциальность и управление данными для инструментов на основе искусственного интеллекта

В эпоху цифровых технологий обеспечение конфиденциальности медицинской информации становится все более сложной задачей. Электронные данные не только легко воспроизводятся, но они также уязвимы для удаленного доступа и манипуляций, а экономические стимулы усиливают кибератаки на организации, связанные со здравоохранением. Нарушение медицинской тайны может иметь серьезные последствия для пациентов (стыд или отчуждение пациентов с определенными заболеваниями, ограничение их возможности трудоустройства или влияние на их расходы на медицинское страхование). По мере того, как медицинские приложения искусственного интеллекта становятся все более распространенными, а также по мере того, как все больше данных собирается и используется/распространяется более широко, угроза конфиденциальности возрастает. Есть надежда, что такие меры, как обезличивание личности, помогут сохранить конфиденциальность и потребуют более широкого внедрения этого процесса во многих сферах жизни. Однако неудобства, связанные с этими подходами, делают это маловероятным. Более того, повторная идентификация обезличенных данных на удивление проста, и поэтому нам, возможно, придется признать, что внедрение клинических приложений ИИ немного поставит под угрозу нашу конфиденциальность. Несмотря на то, что был достигнут некоторый прогресс в защите персональных данных (например, Общий регламент по защите данных 2016/79 в ЕС или Закон о переносимости и подотчетности медицинского страхования в США), требуется дальнейший прогресс с заинтересованными сторонами, чтобы конкретно решить проблемы конфиденциальности данных, связанные с развертыванием приложений искусственного интеллекта.

Проблема предвзятости в приложениях ИИ

Среди наиболее важных проблем, с которыми сталкиваются приложения ИИ, — предвзятость и переносимость. По сути, системы машинного обучения формируются на основе данных, на которых они обучаются и проверяются, выявляя закономерности в больших наборах данных, которые воспроизводят желаемые результаты. Системы ИИ созданы по индивидуальному заказу, и поэтому они хороши настолько, насколько хороши данные, на которых они обучаются. Таким образом, когда эти данные неполны, нерепрезентативны или плохо интерпретированы, конечный результат может быть катастрофическим. Один конкретный тип систематической ошибки, спектральная ошибка, возникает, когда диагностический тест изучается на людях, отличающихся от популяции, для которой тест был предназначен. Следовательно, модели обучения ИИ не всегда могут быть полностью действительными и применимыми к новым наборам данных.

В реальной жизни любую предвзятость, присущую клиническим инструментам, нельзя игнорировать, и ее необходимо учитывать перед проверкой приложений ИИ. В результате не следует игнорировать переобучение этих моделей — явление, которое возникает, когда модель слишком сильно настроена на обучающие данные и, как следствие, не работает правильно при поступлении других данных. Этого можно избежать, используя для обучения более крупные наборы данных и не обучая приложения чрезмерно, а также, возможно, упрощая сами модели. Способ определения результатов также полностью зависит от данных, которые подаются в модели. Человеческие решения также могут искажать инструменты ИИ, так что они могут действовать дискриминационным образом. Неблагополучные группы могут быть недостаточно широко представлены на этапах формирования доказательной медицины, и, если их не исправить, а вмешательство человека не поможет бороться с этой предвзятостью, она почти наверняка будет перенесена в инструменты ИИ. Следовательно, необходимо будет создать программы для обеспечения этической разработки ИИ, например, те, которые предназначены для обнаружения и устранения предвзятости в данных и алгоритмах. Таким образом, необходимо учитывать возможность существования предвзятости, а не игнорировать ее, ища решения для преодоления этой проблемы, а не отвергая на этом основании внедрение инструментов ИИ.

В сочетании с предвзятостью переносимость в другие настройки является важной проблемой для инструментов ИИ. Алгоритм, обученный и протестированный в одной среде, не обязательно будет работать так же хорошо в другой среде, и, возможно, его придется переобучить. Несмотря на это, возможность переноса не гарантируется, и, следовательно, инструменты ИИ должны быть тщательно разработаны, протестированы и оценены в каждом новом контексте перед их использованием у пациентов.

Объяснимость и ответственность

Другой критической проблемой в отношении применения алгоритмов является вопрос объяснимости и интерпретируемости. Когда объяснимо, то, что делает алгоритм, и значение, которое он кодирует, можно легко понять. Однако оказывается, что менее объяснимые алгоритмы могут быть более точными, и, таким образом, остается неясным, возможно ли достичь обеих этих функций одновременно. Как алгоритмы достигают определенной классификации или рекомендации, может быть даже до некоторой степени неясно как для разработчиков, так и для пользователей, не в последнюю очередь из-за влияния обучения на выходные данные алгоритмов и взаимодействия с пользователем. Когда алгоритмы используются для решения относительно сложных медицинских ситуаций и отношений, это может привести к так называемой «медицине черного ящика»: обстоятельства, при которых основа для принятия клинических решений становится менее ясной. Хотя объяснения, которые врач может дать своим решениям, могут быть несовершенными, он несет ответственность за эти решения и обычно может предложить связное объяснение, если это необходимо. Таким образом, остается вопрос, следует ли разрешить инструментам ИИ принимать диагностические, прогностические и управленческие решения, которые не могут быть объяснены врачом.

Обычно считается, что ИИ имеет нейтральную ценность, не является ни хорошим, ни плохим, однако он способен приносить как хорошие, так и плохие результаты. Алгоритмы ИИ явно или неявно кодируют значения как часть их конструкции, и эти значения неизбежно влияют на результаты лечения пациентов. Часто говорят, что цифровизация медицины сместила внимание врача с тела на данные пациента, а внедрение инструментов искусственного интеллекта рискует еще больше усугубить это движение.

Внедрение инструментов ИИ в медицину также имеет последствия для распределения ответственности за решения о лечении и любых неблагоприятных результатов, связанных с использованием таких инструментов. То есть ответственность врача разделена с ИИ. В настоящее время, похоже, отсутствует юридическая ответственность, если использование приложений ИИ причиняет вред, и существуют трудности с четким установлением автономии.

В случае возникновения какого-либо неблагоприятного события необходимо установить, не выполнила ли какая-либо сторона свои обязанности или произошли ли ошибки, и соответствующим образом распределить ответственность. Ответственность за использование ИИ обычно разделяется между врачом и учреждением, в котором проводилось лечение, но что насчет разработчиков? Ответственность за действия на основе результатов ИИ будет лежать на враче, однако, возможно, ни одна из сторон не действовала неправильно или инструмент ИИ повел себя непредвиденным образом. Действительно, если машина надежно выполняет свои задачи, нарушений не будет, даже если она выйдет из строя. Важно отметить, что эта неуверенность в отношении ответственности может повлиять на доверие пациента к своему врачу.

В связи с клиническим внедрением приложений ИИ были подняты и другие вопросы, например, приведут ли они к усилению наблюдения за населением и как это следует контролировать. Наблюдение может поставить под угрозу конфиденциальность, но оно также может быть полезным, улучшая данные, с помощью которых обучаются приложения ИИ, поэтому, возможно, это проблема, которую необходимо будет рассмотреть в нормативных руководствах. Еще один вопрос, который также необходимо решить, — это степень, в которой немедицинские специалисты, такие как ученые-компьютерщики и ИТ-специалисты, получат власть в клинических условиях.

Положительная сторона и преимущества ИИ в клинике

Несмотря на множество проблем, с которыми придется столкнуться, эта технология явно станет прорывной во многих областях медицины, оказывая влияние на принятие клинических решений и динамику отношений между врачом и пациентом, что почти наверняка будет чрезвычайно положительным. Некоторые проблемы, которые необходимо решить до клинического внедрения инструментов ИИ, уже признаны в сценариях здравоохранения. Однако существуют и другие проблемы, связанные с этими системами, с которыми ранее не сталкивались и которые необходимо будет решить до их широкого внедрения в процедуры принятия клинических решений.

Обычно считается, что автоматизация процедур связана с большей эффективностью, снижением затрат и экономией времени. Нередко врачу необходимо исследовать большой объем информации, что может увеличить вероятность ошибок из-за усталости или монотонности. Алгоритмы ИИ способны сократить время, необходимое для чтения этих данных, до нескольких минут (в зависимости от доступной вычислительной инфраструктуры). Более того, было показано, что они способны достигать точности и результатов, не отличающихся от нынешнего золотого стандарта (визуальный анализ эксперта-клинициста), характеристики, которые, скорее всего, улучшатся со временем и в процессе использования.

Следует также отметить, что расширение возможностей просмотра и оценки большого количества изображений за значительно более короткий период времени также может дать важные преимущества в области клинических исследований. Программы открытия лекарств и исследования других клинических применений, как известно, медленны и трудоемки. Таким образом, медицинские исследования и клинические испытания, в частности, выиграют от использования более стандартизированных и менее субъективных инструментов.

Заключение

Что касается внедрения приложений искусственного интеллекта в клинические процессы, считается, что будущее является многообещающим. Хотя очевидно, что этот процесс не будет гладким и потребует скоординированных усилий многих заинтересованных сторон. Эти приложения поднимают важные биоэтические проблемы, связанные с конфиденциальностью, защитой данных, предвзятостью данных, объяснимостью и ответственностью. Следовательно, при разработке и внедрении этих инструментов необходимо будет соблюдать определенные критерии, чтобы гарантировать их надежность. Поскольку эти инструменты открывают новые горизонты, решения этих проблем, возможно, также придется определять, применяя новые процедуры. Эту проблему нельзя упускать из виду, поскольку она может иметь решающее значение для обеспечения того, чтобы возможности, предлагаемые этой технологией, не вышли из зоны нашего внимания.

Литература:

  1. Указ Президента Российской Федерации от 09.05.2017 г № 203 «О Стратегии развития информационного общества в Российской Федерации на 2017–2030 годы»
  2. Richard S. Sutton and Andrew G. Barto. Reinforcement Learning An Introduction — The MIT Press Cambridge, Massachusetts London, England, 2012. 300– 334 p.
  3. Бедарев В. Г., Жаров В. С., Шпак Л. И. Проблема внедрения искусственного интеллекта в медицину // Материалы VIII Международной научно-практической конференции студентов и молодых ученых, Волгоград. 2021, С. 154–157.
Основные термины (генерируются автоматически): искусственный интеллект, данные, инструмент, внедрение инструментов, проблема, решение, алгоритм, врач, защита данных, ответственность.


Ключевые слова

искусственный интеллект, ответственность, данные, биоэтика, медицинская визуализация

Похожие статьи

Задать вопрос