d9e5a92d

Существующие способы оценки рисков инвестиций


 

Всякая наука хороша тогда, когда ей удается пользоваться математикой. Также и при оценке рисков мы должны применять не только качественные суждения об этих рисках, но и методы их количественного анализа.

В литературе по инвестициям в ценные бумаги очень часто под риском вложений в бумагу понимается ее волатильность (колеблемость относительно среднего значения). Имеется мнение, с которым я солидарен, что волатильность не может отражать инвестиционного риска в силу того, что болезненность убытков для инвестора несопоставима с удовлетворенностью прибылью. Поэтому отклонения котировок от ожидаемых значений в большую и в меньшую сторону неравноценны. Тем не менее, когда это не оговорено особо,  под риском я понимаю волатильность.

Главная проблема оценивания инвестиционных рисков состоит в том, что события, происходящие на фондовом рынке, часто не обладают свойством устойчивой повторяемости и однородности. Поэтому применение в анализе такого распространенного инструмента, как вероятностей, наталкивается на серьезные препятствия модельного характера. Рассмотрим подробнее.

 

Вероятности – это исторически первый способ учета неопределенности при принятии решений. Лица, специализирующиеся на азартных играх, были заинтересованы в оценке частот тех или иных исходов выпадания игральных костей или комбинаций карт, чтобы, реализуя серию из достаточного числа игр, придерживаться определенных фиксированных игровых стратегий ради достижения некоторого (пусть даже небольшого) выигрыша. При этом с самого начала было ясно, что исследованная частота тех или иных исходов не есть характеристика единичного события (одной игры), а полного их множества, позднее названного генеральной совокупностью событий.

Успешное применение вероятностных методов в статистике конца XIX века (при исследовании массовых и статистически однородных демографических процессов) сделало методы теории вероятностей широко распространенными во всех сферах жизни, особенно с развитием технической кибернетики во второй половине XX века. Использование вероятностей при учете случайности, неопределенности, ожидаемости событий приобрело эксклюзивный характер. Наиболее оправданным такое применение оказалось там, где речь шла об однородных событиях массового характера, а именно - в теории массового обслуживания и в технической теории надежности.

Однако, начиная с 50-х годов, в академической науке появились работы, ставящие под сомнение тотальную применимость вероятностной теории к учету неопределенности. Авторы этих работ закономерно отмечали, что классическая вероятность аксиоматически определена как характеристика генеральной совокупности статистически однородных случайных событий. В том случае, если статистической однородности нет, то применение классических вероятностей в анализе оказывается незаконным.

Реакцией на эти вполне обоснованные замечания стали фундаментальные работы Сэвиджа, Пойа, Кайберга, Фишберна, де Финетти и других, где обосновывалось введение неклассических вероятностей, не имеющих частотного смысла, а выражающих познавательную активность исследователя случайных процессов или лица, вынужденного принимать решения в условиях дефицита информации. Так появились субъективные (аксиологические) вероятности. При этом подавляющее большинство научных результатов из классической теории вероятностей перекочевало в теорию аксиологических вероятностей - и, в частности, логико-вероятностные схемы дедуктивного вывода интегральных вероятностей сложных событий на основе перебора полного множества исходных гипотез о реализации простых событий, входящих составными частями в исследуемое сложное событие. Эти схемы были названы импликативными.

Однако появление неклассических вероятностей не было единственной реацией на возникшую проблему. Необходимо отметить также всплеск интереса к минимаксным подходам, а также зарождение теории нечетких множеств. Рассмотрим по порядку.

Минимаксные подходы ставят своей целью отказаться от учета неопределенности "весовым методом". То есть, когда оценивается некий ожидаемый интегральный эффект, его формула не представляет собой свертки единичных эффектов, когда в качестве весов такой свертки выступают экспертные оценки или вероятности реализации этих эффектов. Из всего поля допустимых реализаций (сценариев) минимаксные методы выбирают два, при которых эффект принимает последовательно максимальное или минимальное значение. При этом лицу, принимающему решения (ЛПР) ставится в обязанность отреагировать на ситуацию таким образом, чтобы добиться наилучших результатов в наихудших условиях. Считается, что такое поведение ЛПР является наиболее оптимальным.

Оппонируя минимаксным подходам, исследователи замечают, что ожидаемость наихудших сценариев может оказаться крайне низкой, и настраивать систему принятия решений на наихудший исход означает производить неоправданно высокие затраты и создавать необоснованные уровни всевозможных резервов. Компромиссным способом применять минимаксные подходы является использование метода Гурвица, когда два экстремальных сценария (наихудший и наилучший) учитываются совместно, а в качестве веса в свертке сценариев выступает параметр l, уровень которого задается ЛПР. Чем больше l, тем оптимистичнее настроено ЛПР. Модифицированный интервально-вероятностный метод Гурвица учитывает дополнительную информацию о соотношении вероятностей сценариев, с учетом того, что точное значение сценарных вероятностей неизвестно.

Поговорим теперь о теории нечетких множеств, заложенной в фундаментальной книге Лофти Заде . Первоначальным замыслом этой теории было построить функциональное соответствие между нечеткими лингвистическими описаниями (типа "высокий", "теплый" и т.д.) и специальными функциями, выражающими степень принадлежности значений измеряемых параметров (длины, температуры, веса и т.д.) упомянутым нечетким описаниям. Там же в  были введены так называемые лингвистические вероятности - вероятности, заданные не количественно, а при помощи нечетко-смысловой оценки.

Впоследствии диапазон применимости теории нечетких множеств существенно расширился. Сам Заде определил нечеткие множества как инструмент построения теории возможностей . С тех пор научные категории случайности и возможности, вероятности и ожидаемости получают тоеретическое разграничение.

Следующим достижением теории нечетких множеств является введение в обиход т.н. нечетких чисел как нечетких подмножеств специализированного вида, соответствующих высказываниям типа "значение переменной примерно равно а". С их введением оказалось возможным прогнозировать будущие значения параметров, которые ожидаемо меняются в установленном расчетном диапазоне. Вводится набор операций над нечеткими числами, которые сводятся к алгебраичесим операциям с обычными числами при задании определенного интервала достоверности (уровня принадлежности).

Прикладные результаты теории нечетких множеств не заставили себя ждать. Для примера: сегодня зарубежный рынок так называемых нечетких контроллеров (разновидность которых установлена даже в стиральных машинах широко рекламируемой марки LG) обладает емкостью в миллиарды долларов. Нечеткая логика, как модель человеческих мыслительных процессов, встроена в системы искусственного интеллекта и в автоматизированные средства поддержки принятия решений (в частности, в системы управления технологическими процессами).

Начиная с конца 70-х годов, методы теории нечетких множеств начинают применяться в экономике. Отметим здесь монографию , в которой представлен широкий спектр возможных применений этой теории - от оценки эффективности инвестиций до кадровых решений и замен оборудования, приводятся соответствующие математические модели.



Позволю себе высказать мнение относительно перспектив применения теории вероятностей и теории нечетких множеств в экономических задачах.

 

Существенным преимуществом теории вероятностей является многовековой исторический опыт использования вероятностей и логических схем на их основе. Однако, когда неопределенность относительно будущего состояния объекта исследования теряет черты статистической неопределенности, классическая вероятность, как измеримая в ходе испытаний характеристика массовых процессов, уходит в небытие. Ухудшение информационной обстановки вызывает к жизни субъективные вероятности, однако тут же возникает проблема достоверности вероятностных оценок. ЛПР, присваивая вероятностям точечные значения в ходе некоего виртуального пари, исходит из соображений собственных экономических или иных предпочтений, которые могут быть деформированы искаженными ожиданиями и пристрастиями. Это же замечание справедливо и в том случае, когда оценкой вероятностей занимается не ЛПР, а сторонний эксперт.

При выборе оценок субъективных вероятностей часто ссылаются на известный принцип Гиббса-Джейнса: среди всех вероятностных распределений согласованных с исходной информацией о неопределенности соответствующего показателя, рекомендуется выбирать то, которому отвечает наибольшая энтропия. Многие исследователи, в том числе и автор настоящей работы, прибегали к этому принципу для обоснования вероятностных гипотез в структуре допущений исходной модели. Однако законным возражением против этого принципа, выдвинутым в последнее время, является то, что принцип максимума энтропии не обеспечивает автоматически монотонности критерия ожидаемого эффекта . Отсюда следует, что принцип максимума энтропии должен дополняться граничными условиями применимости этого критерия при выборе вероятностных распределений.

В случае же применения нечетких чисел к прогнозу параметров от ЛПР требуется не формировать точечные вероятностные оценки, а задавать расчетный коридор значений прогнозируемых параметров. Тогда ожидаемый эффект оценивается экспертом также как нечеткое число со своим расчетным разбросом (степенью нечеткости). Здесь возникают инженерные преимущества метода, основанного на нечеткостях, т.к. исследователь оперирует не косвенными оценками (куда относим и вероятности), а прямыми проектными данными о разбросе параметров, что есть хорошо известная практика интервального подхода к проектным оценкам.

Что же касается оценки риска принятия решения в условиях неопределенности, то субъектно-вероятностные и нечетко-множественные методы предоставляют исследователю здесь примерно одинаковые возможности. Степень устойчивости решений верифицируется в ходе анализа чувствительности решения к колебаниям исходных данных, и эта устойчивость может оцениваться аналитически.

Итак, на стороне вероятностных методов оказывается традиция, а на стороне нечетко-множественных подходов - удобства в инженерном применении и повышенная степень обоснованности, поскольку в нечетко-множественный расчет попадают все возможные сценарии развития событий (вообще говоря, образующие непрерывный спектр), чего не скажешь, например, о схеме Гурвица, настроенной на конечное дискретное множество сценариев. Ну и потом, за нечеткими множествами остается эксклюзив количественной интерпретации качественных факторов, выраженных в терминах естественного языка.

 

 

 




Содержание раздела