d9e5a92d

Оценка результатов, полученных с помощью АНС

Для эффективного использования АНС в области финансов и экономики важно продемонстрировать высокую информативность получаемых результатов. В частном случае решения задачи оптимального инвестирования информативность моделей АНС можно измерить путем оценки эффективности (прибыли) и риска инвестирования в ценные бумаги эмитентов. Полученные результаты следует сравнить с результатами применения эталонных методов (например, с эффективностью работы моделей, основанных на более традиционных подходах). Прибыль обычно сопоставляется с риском, неразрывно связанным с процессом извлечения прибыли. Соотношение риск . прибыль можно также сравнивать с общепринятыми стандартами (например, со средними рыночными показателями или с показателями лучших инвестиционных компаний). Соотношение между скорректированной по риску прибылью и затратами на инвестирование дает представление об эффективности инвестиционной стратегии.

Методология оценки результатов, полученных с помощью АНС, представляется очень важной с точки зрения более конкретного применения этого алгоритма в области финансов и экономики. В общем случае оценка результатов может производиться следующим образом:

1. Конечным результатом кластеризации является количество полученных кластеров. Максимум может равняться числу наблюдений, если размер плоскости выходных изображений слишком велик, минимум . единице, если в данных отсутствует тенденция к кластеризации.
Если одной из целей использования АНС является сжатие данных, то желаемый итог будет, по-видимому, располагаться ближе к последнему пределу. Оптимальное число кластеров зависит, однако, от исходных данных, целей исследования и предназначения АНС. Число образовавшихся на плоскости выходных параметров кластеров можно рассматривать как своеобразный «эффект» кластеризации.

2. Другим результатом кластеризации является степень различий между кластерами. Кластеров может быть много или мало, они могут быть похожими друг на друга и в значительной степени отличаться. Качество кластеризации зависит от этого нечетко формулируемого результата. Предположим, что качество кластеризации измеряется по шкале от 0 до 100. Оно будет низким, если наблюдается слабая тенденция к кластеризации, число кластеров мало, а различия между ними незначительны.
Качество кластеризации будет высоким, если в результате процесса кластеризации получается множество кластеров или кластеры, которые очень сильно отличаются друг от друга (конкретный результат зависит от целей исследования). Низкое качество кластеризации указывает, что значительной разницы между кластерами, полученными с помощью АНС, не существует. Высокое качество кластеризации может указывать на множество различий. Результат кластеризации с помощью АНС следует сравнить с результатами (эталонами), полученными при использовании других способов кластеризации.

3. Устойчивость результатов кластеризации представляет собой еще один результат анализа. Важно оценить, насколько будут сходны результаты, полученные на разных подмножествах данных из одного входного множества. Кроме этого важна устойчивость результатов к информационным помехам и выбросам. Немаловажна также такая характеристика, как устойчивость числа кластеров по отношению к изменению порога кластеризации.


При обучении АНС целесообразно использовать несколько выбранных случайным образом обучающих множеств и испытывать модель на нескольких множествах тестовых данных (не включающих в себя примеры, использованные для обучения), с большей или меньшей интенсивностью помех, с выбросами или без них. Сопоставление полученных результатов поможет выбрать АНС, наилучшим образом соответствующую поставленной цели.
Если оценивать АНС подобным образом, скорей всего, обнаружится, что между количеством, качеством и устойчивостью кластеров, полученных с помощью данной модели, существует множество компромиссных вариантов. Наилучшая комбинация должна определяться исследователем с точки зрениямаксимально полного решения конкретных задач, стоящих перед ним. В некоторых случаях требуемое сжатие данных может быть максимальным (что соответствует минимальному числу кластеров), и соответствующее низкое качество кластеров и слабая устойчивость будут вполне допустимыми. В других случаях может потребоваться создание более тонко настроенной АНС (т.е. плоскости выходных параметров с четкими границами между кластерами) и хорошая устойчивость без значительного сжатия данных. Например, если выходные результаты предназначаются, главным образом, для выработки политики и принятия решений на макроуровне, требуется максимальное сжатие данных.
Для других задач, таких как анализ эффективности работы предприятий, потребуется намного более тонкая дифференциация между кластерами.

В заключение данного раздела рассмотрим наиболее типичный случай объединения метода АНС с генетическими алгоритмами с точки зрения соответствующих процедур. Полученная в результате этого система сохраняет свойства АНС, позволяя добиться большей гибкости за счет того, что размерность плоскости выходных параметров заранее не фиксируется. Размерности этой плоскости эволюционируют по мере обучения. Используемая при этом процедура состоит из четырех этапов:

1. Инициализация нейронной сети. Исходная плоскость выходных параметров состоит из основных нейронов, организованных в виде плоской решетки небольшой размерности; ее рост в дальнейшем будет зависеть от законов эволюции.

2. При предъявлении нейросети вектора входных данных каждый нейрон исходной структуры оценивается по критерию сходства АНС, в результате чего определяется нейрон-победитель, который является наилучшим приближением вектора входных данных.

3. Производится генерирование новых нейронов и их добавление на плоскость выходных параметров. Число нейронов в каждой последовательной генерации зависит от факторов роста (reco и thresold), определяемых перед началом процедуры, а также пространственной диспозиции нейронов на плоскостивыходных параметров. Свойства новых нейронов частично «наследуются» от нейрона-победителя, а частично берутся из списка случайных величин, лежащих внутри заданных изначально границ, что напоминает биологический процесс скрещивания и мутации. АНС реагирует на внешние стимулы в зависимости от предопределенных критериев. Коэффициент редукции отражает то, каким образом нейрон-победитель создает свое окружение. Чем выше значение данного коэффициента, тем меньше векторное расстояние до соседних нейронов. С математической точки зрения коэффициент редукции действует как весовой коэффициент при вычислении евклидова расстояния от лидера до остальных нейронов. Значения этого коэффициента будут более высокими на первых стадиях, постепенно уменьшаясь по мере выполнения алгоритма. Во многих случаях целесообразно не сохранять значения коэффициента постоянными, а подобрать функцию, которая управляла бы его изменением по ходу обучения АНС.

4. Этот этап представляет собой повторение процесса от этапа 2 до тех пор, пока в АНС не будут введены все входные данные.




Основное отличие «генетического» алгоритма АНС от обычного заключается в типе создаваемой плоскости выходных параметров. С геометрической точки зрения отличительные особенности алгоритмов состоят в способе представления ими пространства входных данных. Главная идея, на которой основана архитектура генетической АНС, состоит в выявлении существенных особенностей входных данных, динамике их изменения и настройке на них, что дает возможность АНС самостоятельно выбирать направления эволюции. Небольшая в начале плоскость выходных параметров развивается по определенном направлении, выделяя те особенности входных данных, которые алгоритм АНС считает наиболее перспективными. Рост плоскости может контролироваться, поскольку индексация новых генераций отлична от индексации предшествующих. Таким образом, всегда сохраняется двумерная структура плоскости выходных параметров, даже если на практикенейроны окажутся организованными в различные слои в соответствии с моментом их создания. Окончательный результат применения метода генетической АНС оказывается совершенно отличным от того, которого можно было бы ожидать при обучении с помощью обычной АНС.
Генетическая АНС значительно лучше распознает структуры и паттерны во входных данных даже в случае существенного влияния искажающих факторов. Это позволяет рекомендовать этот алгоритм для решения задач количественного прогнозирования с помощью нейронных сетей. Если сравнить результаты генетической и обычной АНС по характеристикам сходимости, масштабируемости, способности к обобщению и стабильности, то в большинстве случаев генетический алгоритм окажется более эффективным.
Масштабируемость связана со свойством сходимости в том смысле, что возрастание числа нейронов на плоскости выходных параметров требует большего времени для выполнения одной итерации в процессе обучения. Иначе говоря, сложность сети влияет на время вычисления. Не смотря на то, что количество нейронов в генетических сетях в конце процесса обучения, как правило, превышает их количество в обычных АНС, такие сети требуют меньше времени на обучение, так как обучающий процесс изначально охватывает небольшое число нейронов. Т.е. на начальных шагах процедуры сеть имеет небольшое число нейронов, увеличивая тем самым скорость процесса распознавания образов.
Важнейшим отличительным качеством генетических сетей является высокая способность к обобщению способность распознавать образы, лежащие вне множества обучающих примеров. Это качество становятся особенно очевидными при сравнительном анализе стабильности алгоритмов двух типов. Генетический алгоритм дает более близкие друг к другу результаты всякий раз, когда моделирование повторяется с измененными ключевыми параметрами.
Содержание раздела