Библиографическое описание:

Синица А. С. Морально-этические аспекты теории искусственного интеллекта // Молодой ученый. — 2015. — №18. — С. 419-423.

Проанализированы основные проблемы морально-этического характера, возникающие в связи с развитием теории искусственного интеллекта. Особое внимание уделено неуниверсальности законов робототехники и тем опасностям, которыми чревато для человечества развитие искусственного интеллекта. Рассмотрено понятие дружественного искусственного интеллекта и проблемные вопросы робоэтики.

Ключевые слова: мораль, искусственный интеллект, трансгуманизм, робоэтика, дружественный искусственный интеллект.

The basic moral and ethical problems of the theory of artificial intelligence are analysed. Special attention is paid to the non-universality of the laws of robotics and the dangers posed by the artificial intelligence to humanity. The concept of the friendly AI and the main issues of roboethics are considered.

Keywords: morality, artificial intelligence, transhumanism, roboethics, friendly artificial intelligence.

 

Компьютеризация практически всех сфер жизнедеятельности человека как существенно изменила способ его бытия, так и влияет на его внутренний духовный мир. Поэтому целесообразно говорить не только о технических, экономических, технологических аспектах компьютеризации, но и о ее морально-этическом аспекте, в особенности когда возникает возможность разработки таких компьютерных программ, которые могли бы поспособствовать проявлению искусственного интеллекта. Многие разработчики убеждены, что создание искусственного интеллекта является насущной потребностью сегодняшнего дня, впрочем, значительно меньшее их число задумывается над тем, какими опасностями нравственного характера грозит такая перспектива. Среди исследователей, все же обращающих внимание на морально-этическую проблематику теории искусственного интеллекта, можно выделить имена А. Азимова [1–2], Р. Курцвейля [5], Дж. Веруджио [7–8], Дж. Вейценбаума [9], Э. Юдковского [11]. К сожалению, многие из высказанных ими суждений уже сейчас нуждаются в дополнении и переосмыслении. Поэтому целью данной статьи является логико-критическое исследование морально-этической проблематики, активно формирующейся сегодня в связи с развитием теории искусственного интеллекта. Для реализации поставленной цели следует, по нашему мнению, в первую очередь обратить внимание на следующие вопросы: во-первых, как новейшие инновационные технологии (в т. ч. искусственный интеллект) будут влиять на психофизическое состояние человека; во-вторых, какие этические нормы должны стать нормами поведения роботов; в-третьих, как сделать так, чтобы разработки искусственного интеллекта были дружественными к своим создателям.

В самом деле, приходится констатировать, что новейшие технологии с чрезвычайной стремительностью меняют не только окружающий мир, но и нас самих. Все эти изменения влекут за собой вероятность возникновения технологической сингулярности, которую Р. Курцвейл определяет как «будущий период, за который темп технологических изменений будет настолько быстрым, а их воздействие настолько глубоким, что человеческая жизнь необратимо трансформируется» [5, с. 7]. Новой технологической реальностью в обозримом будущем может стать разработка нейрокомпьютерного интерфейса, с помощью которого напрямую будет происходить взаимодействие между мозгом и компьютером. Его появление поспособствует усилению человеческого интеллекта искусственным, что может привести к нейрофизиологическим изменениям в функционировании мозга. Подобные трансгуманистические перспективы, с точки зрения Ф. Фукуямы [4, с. 42–43], несут угрозу одной из важнейших идей демократического общества — идее равенства. Ведь могут возникнуть люди более совершенные, чем их сверстники, люди, физически более выносливые и более умные. Это может привести к ограничению прав и свобод рядового человека, вызвать вмешательство в сферу его внутренней свободы, послужить толчком к вырождению человечества, оказать пагубное влияние на состояние нравственности и духовности общества. Аналогичного мнения придерживается М. Теннисон [6, с. 405], который отмечает, что решение проблем биологического характера сопряжено с рядом этических затруднений. Дело в том, что улучшение жизни отдельного человека может привести к социальному неравенству, к ситуациям, при которых кто-то заблаговременно будет иметь лучшие условия для реализации своего интеллектуального потенциала. Наконец, совершенствование в биологическом плане несет потенциальную возможность достижения человеком бессмертия. А это, с религиозной точки зрения, является прямой угрозой духовному опыту человека, перечеркивает идею вечных ценностей, апеллируя к их перманентному пересмотру и развитию в постмодернистском, аномийном ключе. Чтобы этого не произошло, необходим, как отмечают Г. Кэмпбелл и М. Волкер [3], диалог между трансгуманизмом и религией. Хотя, опять же, остается открытым вопрос, насколько обе стороны смогут прислушиваться друг к другу и посчитают ли это нужным.

Кроме этических вопросов, возникающих в связи с искусственным усилением нашего интеллекта, важной является и этическая составляющая в деятельности носителей искусственного интеллекта — роботов. Так, А. Азимов еще в 1942 году сформулировал знаменитые три закона робототехники, которых должны придерживаться роботы, чтобы быть полезными для человека и не угрожать его жизни: «1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред...; 2. Робот должен повиноваться всем приказам, которые дает человек, если эти приказы не противоречат Первому Закону...; 3. Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому и Второму Законам» [1]. Впоследствии А. Азимов добавил еще и Нулевой закон, который предшествует трем вышеназванным: «Робот не может причинять вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред» [2, с. 486]. Как можно заключить, согласно этим законам, интересы отдельного человека поставлены выше интересов роботов (а в более общей перспективе — выше любого творения людей, начиная от бытовых мелочей и заканчивая государствами и международными корпорациями), а интересы многих людей — выше интересов отдельного человека. Однако, по нашему мнению, эти законы содержат множество недостатков. Например, корректно ли оценивать ценность человеческой жизни с помощью простых математических подсчетов и как выбирать между гениями, которых уже никто не сможет заменить, и несколькими простыми людьми? Можно ли быть уверенным, что роботы в какой-то момент во избежание опасности для жизни людей просто не ограничат их права и свободы до таких пределов, что люди не смогут причинять друг другу вред. Далее. Остается возможность причинения вреда человеку по неосторожности или незнанию того факта, что в результате выполнения определенных действий некоторому человеку (людям) можно нанести вред. Непонятно и как формально представить абстрактные законы, сделать их частью «жизнедеятельности» роботов. В самом деле, А. Азимов рассматривает эти законы как некие «инстинкты», которые должны быть заложены в роботах еще до начала их функционирования. До конца не ясно, не попытаются ли роботы в один момент обойти наложенные на них функциональные ограничения и запреты, что в конечном итоге сделает ситуацию неуправляемой. Отдельный вопрос возникнет по отношению к философским зомби, в которых на определенном этапе развития техники смогут превратиться роботы. В связи с их визуальной идентичностью человеку другие роботы не смогут их распознавать, а, следовательно, и не будут знать, как себя вести. В случае значительного преимущества искусственного интеллекта над человеческим — а оно неизбежно — о безопасности человека вообще говорить не приходится. Ведь ему будут угрожать не только роботы, но и люди, решившие использовать роботов в собственных корыстных (военных, политических, финансовых, экстремистских) целях.

Дж. Вейценбаум [9] критически высказался о возможности привлечения искусственного интеллекта к принятию тех решений, которые требуют таких человеческих способностей, как сопереживание и рассудительность. Дело в том, что компьютер проводит вычисления, а не принимает решения — он не прилагает для этого морально-волевых усилий. Замена людей носителями искусственного интеллекта может привести к внутреннему отчуждению, душевному дискомфорту и разочарованию, ведь общение с роботами лишено чувственности, интимного уровня коммуникации. Робот не может стать нашим alter ego, поскольку он способен лишь симулировать поведение человека. Но все же открытым остается вопрос, не смогут ли в будущем разработчики искусственного интеллекта обойти и эти препятствия, кажущиеся в наше время непреодолимыми.

Анализу перечисленных выше проблем посвящено внимание новой научной дисциплины — робоэтики — с точки зрения которой существенно не только усовершенствование разработчиками каждого следующего поколения роботов в плане скорости, силы и ума, но также и достижение роботами определенного уровня понимания моральных предписаний. Речь идет об уважении к достоинству человека, его правам и свободам, осознании возможности нанесения ему вреда, признании многообразия политических, религиозных, культурных взглядов, ответственности за свои поступки, сохранении окружающей среды и тому подобном. Специфика этих предписаний, согласно Дж. Веруджио [7, с. 24], требует от нас рассмотрения роботов уже не как объектов, а как разумных субъектов, моральных агентов, хотя и не все с этим согласны. Так, на «Первом международном симпозиуме по робоэтике» (Санремо, Италия, 2004), по итогам которого был заключен «Манифест робоэтики», некоторые ученые по-прежнему высказывали убеждение, что этические проблемы вообще нерелевантны для робототехники, а разработчики роботов не могут нести морально-этическую ответственность за свои научные труды, поскольку занимаются исключительно технической стороной вопроса, хотя никто и не отрицал, что влияние робототехники на человека должно быть безопасным [8].

Важность этической составляющей в робототехнике отмечена и в «Мировой декларации робототехники» (Фукуока, Япония, 2004), в которой сделан акцент на том, что каждое следующее поколение роботов должно способствовать улучшению жизни человека, реализации безопасного и мирного общества [10]. Подобным образом рассуждает и Э. Юдковский, называя одной из важнейших задач теории искусственного интеллекта стремление сделать его дружественным по отношению к человеку. «Термин “дружественный ИИ” касается произведения полезных для человека, не вредящих ему действий системами искусственного интеллекта, достигшими способности строить реальные планы и добиваться поставленных целей» [11, с. 2]. То есть дружественный ИИ положительно настроен к человеку. Но остается неясным, как этого достичь, насколько искусственный интеллект будет похожим на человеческий, насколько он будет управляемым и не станет ли угрозой для существования всего человечества. Возможный выход из ситуации заключается в том, чтобы научить искусственный интеллект чувствовать, сопереживать. Интеллект — это лишь одна из когнитивных способностей, а, следовательно, нужно рассматривать его в более широкой перспективе — не только как оперирование формальными символами, но и с учётом уровня сенсорных репрезентаций, то есть уровня квалиа, субъективного опыта, без чего возникновение норм морали представляется невозможным. Реализованные на когнитивном уровне механизмы сочувствия и сопереживания — не единственное, что может удержать искусственный интеллект от процессов изменения своего внутреннего кода, негативного восприятия человека и вообще от одного только желания изменить себя таким образом, чтобы перестать быть дружественным к человеку, особенно когда будет преодолена точка сингулярности.

Итак, можно сделать вывод, что развитие теории искусственного интеллекта несет как большие возможности, так и опасности для отдельного человека и всего человечества. Но так как сейчас уже поздно говорить о Великом отказе от всех технологических благ, то нужно приложить максимальные усилия к тому, чтобы сделать новые технологии безопасными для человека. Вполне возможно, что развитие некоторых технологий (если оно будет давать результаты, уже неконтролируемые людьми) нужно будет попросту запретить, как это в свое время сделали с клонированием, несшим прямую угрозу автономии человека, его достоинству. Этическая составляющая проблем искусственного интеллекта должна рассматриваться как одна из ключевых. Если искусственный интеллект не будет дружественным по отношению к человеку, то это является прямой угрозой его существованию. Вместе с тем, можно сказать, что в текущий момент развитие компьютерной сферы, робототехники, теории искусственного интеллекта не только способствует улучшению жизни отдельного человека, открывает новые возможности для самореализации, но и еще раз, в новом свете, ставит перед нами «вечные» мировоззренческие кантианские вопросы: что я могу знать? Что я должен делать? На что я могу надеяться? Что такое человек?

 

Литература:

 

1.             Азимов, А. Хоровод [пер. с англ.]; [Электронный ресурс] // Режим доступа: http://www.fenzin.org/online/14041/1

2.             Asimov, I. Foundation and Earth. — New York: Spectra, 2004. — 528 p.

3.             Campbell, H., Walker, M. Religion and Transhumanism: Introducing a Conversation // Journal of Evolution and Technology. — April 2005. — Vol. 14, Issue 2.; [Electronic resource] // Access mode: // http://jetpress.org/volume14/specialissueintro.html

4.             Fukuyama, F. The World’s Most Dangerous Ideas: Transhumanism // Foreign Policy. — 2004. — № 144. — P. 42–43.

5.             Kurzweil, R. The Singularity Is Near: When Humans Transcend Biology. — New York: Penguin Books, 2005. — 672 p.

6.             Tennison, M. Moral transhumanism: the next step // The Journal of Medicine and Philosophy. — 2012. — № 37 (4). — P. 405–416.

7.             Veruggio, G. EURON Roboethics Roadmap (2007); [Electronic resource] // Access mode: http://www.roboethics.org/index_file/Roboethics %20Roadmap %20Rel.1.2.pdf

8.             Veruggio, G. Roboethics Scuola di Robotica. — Genova, Italy, 2004.; [Electronic resource] // Access mode: http://www.idt.mdh.se/~gdc/work/ARTICLES/08-SCAI/background-pdf/005-Veruggio-Roboethics.pdf

9.             Weizenbaum, J. Computer Power and Human Reason: From Judgement to Calculation. — New York: W. H. Freeman & Company, 1976. — 300 p.

10.         World Robot Declaration from International Robot Fair 2004 Organizing Office; [Electronic resource] // Access mode: http://www.prnewswire.co.uk/news-releases/world-robot-declaration-from-international-robot-fair-2004-organizing-office-154289895.html

11.         Yudkowsky, E. Creating Friendly AI 1.0: The Analysis and Design of Benevolent Goal Architectures. — San Francisco: The Singularity Institute, 2001. — 278 p.

Обсуждение

Социальные комментарии Cackle