Библиографическое описание:

Лепешкина М. Н. Проблематика существующих подходов к формированию информационной базы мониторинга и управления факторами рисков хозяйствующих субъектов [Текст] // Актуальные вопросы экономических наук: материалы междунар. науч. конф. (г. Уфа, октябрь 2011 г.). — Уфа: Лето, 2011. — С. 85-87.

Схематическая связь процессов анализа риска и управления риском достаточно проста и может быть представлена на основе приведенной в статье Быкова А. А., Порфирьева Б. Н.[4] методологической схемы анализа и управления риском следующим образом:
Информация
АСтрелка вправо 2нализ риска Управление риском

Относительно структуры и содержания приведенной в методологической схеме анализа и управления риском указывается, что «дискуссии по вопросу о том, какие этапы следует выделять как самостоятельные и как их обозначать, что включает анализ риска, управление риском, не закончены и по сей день, и это естественно, так как анализ и управление риском – новые научные направления, еще не завершившие стадию своего становления» [3].

В основе мониторинга, анализа и управления риском, как видно, лежат информационные процессы.

Следует отметить, что информационные аспекты многих научных направлений, которые ранее рассматривались в качестве поддерживающих и обеспечивающих, в новом веке начинают выходить на первый план. Академик В.М. Глушков в своих трудах [6] развил новые подходы к пониманию процессов управления с позиций бурно развивающихся информационных технологий. В новой трактовке предложено процессы управления рассматривать с точки зрения информационного взаимодействия сложных систем. Мониторинг факторов риска также будет рассматриваться в качестве информационного процесса. При таком подходе очевидно, что основная направленности данного информационного процесса - уменьшение неопределенности при оценке и управлении рисками, а процесс мониторинга в данном контексте может считаться обеспечивающим процессом.

На ранних этапах развития риск-менеджмента основой систем мониторинга являлись анализ исторических данных и попытки выявления трендов развития.

Следующим этапом развития систем мониторинга стали системы раннего оповещения. Данные системы базировались на расчете количественных и качественных признаков т.е. по сути представляли собой системы анализа факторов риска.

Системы наблюдения за стратегическими составляющими (StrategicIssueManagement, SIM) получили распространение в начале 90-х. По сути, этот подход представляет собой попытку реализовать управление рисками компании с позиций "до того", а не "постфактум". Теоретики SIM трактуют неожиданность как результат невнимательности или незнания лица, проводящего анализ качественных или количественных показателей хозяйствующих субъектов.

Один из наиболее популярных перечень симптомов раннего оповещения о проблемах хозяйствующих субъектов был опубликован в 1993 г. Дж. Баррикманом по заказу Американской ассоциации банкиров [5].

После представления в начале 1990-х разработанной профессором HarvardBusinessSchool Робертом Капланом (Dr. Robert S. Kaplan) и президентом консалтинговой фирмы RenaissanceSolutions Дэвидом Нортоном (David P. Norton) системы сбалансированных показателей (BalancedScorecard) получило развитие направление прогноза возможных факторов риска по мониторингу системы сбалансированных показателей, поскольку прогнозирование по единичным показателям (например, прибыль или выручка) не дает обоснованного прогноза.

Одновременно с развитием различных подходов к мониторингу факторов риска появлялись вопросы, касающиеся достоверности результатов мониторинга и прогнозирования.

Одним из главных спорных вопросов стал вопрос доступности информации.

Был проведен ряд исследований когнитивных искажений (euristicandbiasesprogram) основной идеей которых является предположение, что люди используют методы мышления, называемые эвристикой, которые дают хорошие приблизительные ответы в большинстве случаев, но которые также приводят к увеличению системных ошибок, называемых когнитивными искажениями (bias). Примером эвристики является суждение о частоте или вероятности события по его информационной доступности.

Когнитивные искажения, основанные на эвристике доступности, влияют на оценки риска. Исследование немецкого ученого Лихтенштейна [1]описывает абсолютную и относительную достоверность суждений о риске. Люди в общих чертах представляют, какие риски причиняют большее число смертей, и какие – меньшее. Однако, при необходимости расчета рисков точнее, они часто переоценивают частоты редких причин смерти, и сильно недооценивают частоты обычных. Другие повторяющиеся ошибки, выявленные в этом исследовании, также были очевидными: аварии считались причинами такого же количества смертей, что и болезни (на самом деле болезни в 16 раз чаще становятся причинами смертей, чем аварии).

Также существует теория, что люди не экстраполируют опыт пережитых малых опасностей на возможности возникновения более серьезных рисков; наоборот, прошлый опыт малых опасностей устанавливает верхнюю границу ожиданий максимально возможного риска. Общество, хорошо защищенное от малых опасностей, не будет предпринимать никаких действий по отношению к большим рискам.

Аналогично, риск человеческого вымирания может быть недооценен, поскольку, очевидно, человечество никогда не сталкивалось с этим событием.

Второй тип когнитивных искажений связан со знанием «задним числом». Это происходит, когда субъект, узнав окончательный итог событий, дает гораздо большую оценку предсказуемости именно этого итога, чем субъекты, которые предсказывают итог без знания результата.

В начале 2000-х американский ученый Нассим Николас Талеб начал исследования в области философии случайности и роли неопределённости в развитии общества. Он сделал предположение, что ошибки последующего знания и доступности несут первостепенную ответственность за нашу неспособность защититься от случайных событий. В его теории важные случайности получили название «черные лебеди».

«Чёрным Лебедем» Н.Талеб называет событие, которое имеет три следующих атрибута:

1) Оно необычно и лежит за пределами наших ожиданий.

2) Последствия этого события крайне велики.

3) Несмотря на нерядовой характер этого события, человеческая природа заставляет нас придумать такие объяснения этому событию, что оно выглядит задним числом объяснимым и предсказуемым.

Важно отметить, что «чёрные лебеди» это не обязательно негативные события или катастрофы, но и случайные удачи. По мнению Н.Талеба, люди не замечают этих событий, считая мир систематизированной, понятной, обычной и прогнозируемой структурой.

Этому явлению Н. Талеб дал название «Платонические заблуждения» и согласно его теории оно порождает три искажения:
  • Сказительное заблуждение: постфактум событие описывается так, что не кажется беспричинным
  • Заблуждение игрока: уподобление системы случайностей игры бессистемным случайностям в жизни. Талеб считает это ошибкой современного подхода к теории вероятностей
  • Заблуждение обратной статистики: уверенность, что события в будущем предсказуемы через изучение событий в прошлом.
Игровое заблуждение (англ. Ludicfallacy) — термин предложенный Н. Талебом в 2007 году в книге «Черный Лебедь» [2]. «Ludic» от латинского ludus, что означает «игра».
Игровое заблуждение определяется в книге как «злоупотребление играми для моделирования реальных ситуаций». Согласно теории Н.Талеба заблуждение характеризуется как понятие карты (модели) для реальности, показывая побочные эффекты человеческого познания.

В книге введен также термин «платонизмы» – то есть попытки построить теорию там, где на самом деле имеет место только случайность.

Когда мы всё же стараемся учесть неопределённость в наших моделях, мы слишком подвержены туннельному восприятию, которое состоит в попытках завернуть неопределённость в оболочку понятных теорий. Это даёт нам ложное ощущение безопасности и делает более уязвимыми для Чёрных Лебедей.

Чёрный лебедь – это не просто маловероятное событие – это то, о возможности чего мы даже не могли подумать.

Следующий источник ошибок – ошибочное подтверждение (ConfirmationFallacy). Оно состоит в том, что отсутствие свидетельств о чём-либо мы принимаем за свидетельство отсутствия, в результате чего Чёрный Лебедь подкрадывается к нам незаметно. Мы слишком уверены в своей правоте и слишком быстро сбрасываем со счёта то, что нам кажется может быть легко опровергнуто.

Н.Талеб пишет: «Трудно мотивировать людей к предотвращению «черных лебедей»... Защита с трудом воспринимается, измеряется и вознаграждается; это обычно незаметный и неблагодарный труд. Представьте себе, что некая дорогостоящая мера была предпринята, чтобы предотвратить такое явление. Легко вычислить стоимость этих мер, тогда как результат трудно измерим. Как мы можем говорить об эффективности, когда есть два альтернативных варианта объяснения: или принятые меры были эффективны, или просто ничего существенного не случилось. Оценка качества работы в таких случаях не просто сложна, но искажена наблюдением «актов героизма»... В исторических книгах не пишут о героических превентивных мерах».[2]

В связи с этим современной науке необходимо найти новые методы и подходы к мониторингу факторов риска, которые бы не только основывались на надежном математическом аппарате, но и учитывали выявленные в ходе научных исследований распространённые ошибки и заблуждения человеческого разума. Поскольку мониторинг невозможен без наличия информационной базы, то при формировании ее также должны учитываться когнитивные искажения, приводящие к ошибочной трактовке причин образования и последствий реализации факторов риска.


Литература:
  1. Lichtenstein, S., Slovic, P., Fischhoff, B., Layman, M. and Combs, B. 1978. Judged Frequency of Lethal Events. Journal of Experimental Psychology: Human Learning and Memory, 4(6), November: 551-78.

  2. Taleb, Nassim Nicholas The Black Swan: The Impact of the Highly Improbable. — New York: Random House, 2007. — ISBN 978-1-4000-6351-5
  3. Акимов В. А. Оценка и прогноз стратегических рисков России: теория и практика //
  4. Быков А. А., Порфирьев Б. Н. Об анализе рисков, концепциях и классификациирисков // Проблемы анализа риска. – 2006. – № 4.
  5. Вяткин В. Н., И. В. Вяткин, В. А. Гамза, Ю. Ю. Екатеринославский, Дж. Дж. Хэмптон – М.: Издательско-торговая корпорация «Дашков и К», 2003. – 512 с.
  6. Глушков В. М. Кибернетика, вычислительная техника, информатика: избр. тр.: в 3-х т. – Т.1: Математические вопросы кибернетики. – Киев, 1990.
  7. Стратегические риски чрезвычайных ситуаций: оценка и прогноз: материалы конф. – М.,2003.

Обсуждение

Социальные комментарии Cackle