Опубликован: 01.06.2007 | Уровень: специалист | Доступ: платный | ВУЗ: Московский государственный университет путей сообщения
Лекция 13:

Нейросетевые технологии в экономике и бизнесе

< Лекция 12 || Лекция 13: 12345 || Лекция 14 >

13.2.1. Структура нейросети и способы обучения

Логические функции, лежащие в основе мониторинга, преимущественно основаны на конъюнкции логических значений, утверждающих определенные диапазоны изменения параметров или показателей банков. В общем виде такая логическая функция имела бы вид

\begin{array}{c} N\\ \wedge \\ i=1\end{array} {значение i-го показателя банка принадлежит диапазону [a, b]} -> {указатель значения рейтинга}

В [28] представлены такие показатели:

  • собственный капитал;
  • сальдированные активы;
  • ликвидные активы;
  • обязательства до востребования;
  • вклады населения;
  • коэффициент ликвидности;
  • бюджетные средства.

Фантазируя, мы могли бы развить эту систему показателей:

  • объем инвестиций в бурно развивающуюся экономику;
  • объем прибыли;
  • прошлый рейтинг и значение миграции;
  • отчисления в фонд поддержки науки и образования;
  • налоговые отчисления;
  • отчисления в пенсионный фонд;
  • отчисления в благотворительный и культурный фонды;
  • участие в программах ЮНЕСКО и т.д.

Такой простой вид логической функции, при переходе в область действительных переменных, говорит о достаточности однослойной нейросети (рис. 13.1), содержащей входной слой рецепторов и выходной слой, указывающий на результаты мониторинга.

При создании входного слоя необходимо учитывать не только текущие показатели, но и, например, динамику изменения рейтинга - рейтинга за прошлые периоды времени.

Выходной слой должен отражать не только рейтинг, но и экспертные рекомендации, а также другие решения и выводы.

Целесообразен простейший вид обучения (т.е. построения базы знаний, какой является наша сеть), который сопровождает концепцию создания нейросети "под задачу": непосредственное введение связей в совершенной нейросети оператором-исследователем "вручную" - от рецепторов к нейронам выходного слоя в соответствии с причинно-следственными связями. Тем самым сеть создается уже обученной.

Структура нейросети

Рис. 13.1. Структура нейросети

Тогда передаточная функция должна быть тоже простейшей и основанной на суммировании величин возбуждения на входе нейрона, умноженных на вес связи (функция 5, "Структурное обоснование логической нейронной сети" ):

\begin{array}{l}
V:=k\sum_j\omega_j V_j;\\
V_j=\left \{
\begin{array}{ll}
V, & \mbox{если } V > h\\
0, &\mbox{в противном случае}
\end{array}
\right
\end{array}

Вес \omega связей все же целесообразен (по сравнению с грубым заданием всех весов равными единице) в связи с возможным желанием оператора или эксперта в разной степени учитывать влияние различных показателей.

Порог h отсекает заведомо "плохие" выводы, упрощая дальнейшую обработку (например, нахождение среднего). Коэффициент приведения k обусловлен следующим. Максимальное значение V может достигать n - числа показателей. Чтобы свести значение рейтинга в некоторый приемлемый диапазон, например в [0, 1], значения возбуждения надо преобразовать в этот диапазон, положив, например, k=1/n. Кроме того, этим коэффициентом, как и весами, можно регулировать значимость факторов в соответствии со сделанным ниже замечанием.

Принятые выше решения позволяют оперативно вносить изменения и уточнения оператором-экспертом-пользователем, развивать сеть, вводя новые факторы и учитывая опыт. Для этого оператору достаточно, "топнув" мышкой, выделить рецептор, а затем - нейрон выходного слоя, и связь установлена! Осталось только на основе предположения (ясновидения), осуществляя эксперимент, приблизительно установить вес введенной связи из диапазона (0, 1].

И здесь мы должны сделать Очень Важное Замечание (ОВЗ), распространенное на весь материал и адресованное очень внимательному читателю.

Ранее, рассматривая обучение, мы четко классифицировали исходные эталонные ситуации, считая достоверность каждого компонента равной единице. Проводя затем трассировку, мы, прокладывая динамические пути возбуждения, также полагали веса связей равными единице (или некоторому максимальному постоянному значению). Но ведь можно сразу дать возможность (дать дополнительную степень свободы) учителю учитывать факторы в той степени, с теми весами, с которыми он пожелает! То есть допустить, что разные факторы в разной степени влияют на результат, и такое влияние заложить на этапе обучения принудительно!

Например, известно, что накануне войны население в огромном количестве закупает мыло, спички и соль. Значит, следя за этим фактором, можно предсказывать скорое наступление войны. Создавая нейросеть для предсказания исторических или социальных событий, следует выделить один или несколько рецепторов, возбуждение которых соответствует разному уровню закупок мыла, соли и спичек одновременно. Возбуждение этих рецепторов должно передаваться, влиять (наряду с другими факторами) на степень возбуждения нейрона выходного слоя, "отвечающего" за заявление: "Скоро война!".

Однако мы вправе считать, что интенсивная закупка мыла, спичек и соли - необходимое, но не такое уж достаточное условие наступления войны. Оно может свидетельствовать, например, о бурном возрождении туризма в районе Главного Кавказского Хребта. В словах "не такое уж" заключается смысл нечеткой логики [30], позволяющей учитывать не непреложность влияния события, не булеву переменную "да - нет", а некоторое промежуточное, неопределенное, взвешенное предположение типа "влияет, но не так уж прямо, что уж обязательно \dots ". Поэтому мы сразу можем связи (все или некоторые), исходящие из данного (данных) рецептора, положить равными некоторой предполагаемой величине, меньшей единицы, корректируемой впоследствии, отражающей влияние возбуждения этого рецептора на вывод. В этом и состоит главный смысл коэффициента k.

Таким образом, одновременная закупка мыла, соли и спичек будет учитываться дважды: уровень закупки будет отображаться в уровне возбуждения соответствующих этим уровням рецепторов, а степень влияния этой закупки на вывод "Скоро война!" будет учитываться с помощью весов синапсических связей.

Согласитесь, что при построении одноуровневых сетей такой учет напрашивается, реализуется предельно просто, что мы и рекомендуем делать.

Конец ОВЗ.

< Лекция 12 || Лекция 13: 12345 || Лекция 14 >
Эльвира Герейханова
Эльвира Герейханова

Раньше это можно было зделать просто нажав на тест и посмотреть результаты а сейчас никак

Елена Лобынцева
Елена Лобынцева
Помогите разобраться как можно подобрать НС для распознавания внутренней области выпуклого многоугольника?
Дмитрий Степанов
Дмитрий Степанов
Россия, Москва, МГТУ им. Баумана, 2006
Дмитрий Степаненко
Дмитрий Степаненко
Россия