Опубликован: 13.09.2006 | Уровень: специалист | Доступ: платный | ВУЗ: Новосибирский Государственный Университет
Лекция 15:

Нечеткие и гибридные нейронные сети

Гибридный алгоритм обучения нечетких сетей

Параметры, подлежащие адаптации, разделяются на две группы:

  • первая состоит из параметров p_{ij} линейного третьего слоя;
  • вторая состоит из параметров нелинейной функции принадлежности первого слоя.

Уточнение параметров проводится в два этапа.

На первом этапе при фиксации определенных значений параметров функции принадлежности путем решения системы линейных уравнений рассчитываются параметры p_{ij} полинома TSK.

При известных значениях функции принадлежности преобразование, реализуемое сетью, можно представить в виде

\begin{align*}
y(x) & = \sum_{i=1}^M w_i(p_{i0} + \sum_{j=1}^N p_{ij} x_j).\\
w_i & =[\prod_{j=1}^N \mu_A^{(i)}(x_j)] / \sum_{k=1}^N
 [\prod_{j=1}^N \mu_A^{(k)}(x_j)] = const.
\end{align*}

При p обучающих выборках (x^{(l)}, d^{(l)}), l = 1,2,
\ldots, p и замене выходного сигнала сети ожидаемым значением d^{(l)} получим систему из p линейных уравнений вида

\begin{align*}
W \cdot P = d,
\end{align*}

где

\begin{align*}
W =
\begin{Vmatrix}
w_{11}' & w_{11}'x_1^{(1)} & \ldots & w_{11}'x_N^{(1)} & \ldots & w_{1M}' & w_{1M}'x_1^{(1)} & \ldots & w_{1M}'x_N^{(1)}\\
w_{21}' & w_{21}'x_1^{(2)} & \ldots & w_{21}'x_N^{(2)} & \ldots & w_{2M}' & w_{2M}'x_1^{(2)} & \ldots & w_{2M}'x_N^{(2)}\\
&\ldots  &    \ldots  &  \ldots  &  \ldots  &   \ldots  &    \ldots     \\
w_{p1}' & w_{p1}'x_1^{(p)} & \ldots & w_{p1}'x_N^{(p)}& \ldots & w_{pM}' &
w_{pM}'x_1^{(p)} & \ldots & w_{pM}'x_N^{(p)}
\end{Vmatrix}
\end{align}
\begin{align*}
P = \| p_{10} \ldots p_{1N} \ldots p_{M0} \ldots p_{MN}\|^T,
\end{align*}

w_{ki}' - уровень активации (вес) i -го правила при предъявлении k -го входного вектора x^{(k)}.

Размерность матрицы W равна p \times (N+1)M, при этом обычно количество строк (количество выборок) значительно больше количества столбцов. Решение этой системы уравнений можно получить за один шаг при помощи псевдоинверсии матрицы W:

\begin{align*}
P = W^{+}d.
\end{align*}

Псевдоинверсия матрицы заключается в решении задачи минимизации

\begin{align*}
\min \|W^{+}W - E\|,
\end{align*}

где E - единичная матрица.

На втором этапе (линейные параметры p_{ij}, i = 1, \ldots M - фиксированы) рассчитываются фактические выходные сигналы y_k, k =
1,2, \ldots, p:

\begin{align*}
y = Wp,
\end{align*}

вектор ошибки

\begin{align*}
\varepsilon = y - d,
\end{align*}

и градиент целевой функции E(n) по параметрам первого слоя. Если применяется метод наискорейшего спуска, то формулы адаптации принимают вид

\begin{align*}
&c_j^{(i)}(n+1) = c_j^{(i)}(n) - \alpha_c \partial E(n)/ \partial
c_j^{(i)}\\
&\sigma_j^{(i)}(n+1) = \sigma_j^{(i)}(n) - \alpha_\sigma \partial E(n)/
\partial
\sigma_j^{(i)}\\
&b_j^{(i)}(n+1) = b_j^{(i)}(n) - \alpha_b \partial E(n)/ \partial
b_j^{(i)}
\end{align*}

где n обозначает номер очередной итерации.

После уточнения нелинейных параметров вновь запускается процесс адаптации линейных параметров TSK (первый этап) и нелинейных параметров (второй этап). Этот цикл повторяется вплоть до стабилизации всех параметров процесса.

Ирина Ткаченко
Ирина Ткаченко
Россия, Москва
Николай Ткаченко
Николай Ткаченко
Россия