Московский государственный университет путей сообщения
Опубликован: 01.06.2007 | Доступ: свободный | Студентов: 1899 / 100 | Оценка: 4.38 / 3.75 | Длительность: 22:59:00
ISBN: 978-5-9556-0094-9
Специальности: Программист
Лекция 4:

Трассировка нейронной сети

< Лекция 3 || Лекция 4: 123456 || Лекция 5 >
Аннотация: Приводится простейший алгоритм трассировки логической нейронной сети – построения логических цепочек связей, реализующих описание системы принятия решений. На сети произвольной структуры воссоздается однослойная нейронная сеть, приводящая возбуждения рецепторов, соответствующих заданию обобщенных эталонов, к возбуждению нейронов выходного слоя, соответствующих заданным решениям.

" - Аннушка \dots Аннушка?.. - забормотал поэт, тревожно озираясь, - позвольте, позвольте \dots

К слову "Аннушка" привязались слова "подсолнечное масло", а затем почему-то "Понтий Пилат". Пилата поэт отринул и стал вязать цепочку, начиная со слова "Аннушка". И цепочка эта связалась очень быстро и тотчас привела к сумасшедшему профессору".

М.А. Булгаков. "Мастер и Маргарита"

4.1. Пример - опыт - предпосылки обобщения

Объединим множество эталонов, требующих возбуждения одного нейрона выходного слоя, понятием "обобщенный эталон". Например, эталоны А1\wedge В1\wedge С1, А1\wedge В1\wedge С2, А1\wedge В1\wedge С3, А1\wedge В1\wedge С4, А1\wedge В1\wedge С5 образуют один обобщенный эталон А1\wedge В1\wedge (С1\vee С2\vee С3\vee C4\vee C5), ведущий к R1. Тогда для обобщенного эталона введем понятие обобщенной операции &, которая объединяет все посылки, ведущие к одному выводу, A1&B1&C1&C2&C3&C4&C5->R1.

Выберем нейросеть, отражающую, как нам кажется, все особенности, которые необходимо учесть при построении алгоритма трассировки, и, как мы уже начали, возьмем тот же пример, который выглядит теперь следующим образом:

\begin{array}{l}
A1\& B1\& C1\& C2\& C3\& C4\& C5 \to R1\\
A1\& B2\& B3\& C1\& C2\& C3 \to  R2\\
A1\& B2\& B3\& C4\& C5 \to  R3\\
A2\& B3\& C1\& C2\& C3\& C4\& C5 \to  R4\\
A2\& B1\& B2\& C1\& C2\& C3\& C4\& C5 \to  R5\end{array} ( 4.1)

Мы хотим, задавая обобщенный эталон на входе, например из тех, что приведены выше, экономным путем построить, возможно, пересекающиеся пути возбуждения, ведущие от каждого возбужденного входного нейрона в соответствующий нейрон выходного слоя. Способ должен быть экономным в том смысле, что пути должны быть максимально объединены, совмещены, реализуя стратегию слияния и выхода на общую, единую дорогу, ведущую к заветной цели.

При этом мы строим эвристический алгоритм, который крайне экономно расходует ресурсы сети - ее нейроны и связи, но и так же экономно вводит изменения, развивает сеть, если связей оказывается недостаточно.

Ибо мы видели, с каким трудом удается приспособить "готовую" нейросеть под конкретную задачу. Мы постоянно склонялись к вопросу: "А не лучше ли сразу строить сеть "под задачу", а не наоборот?" Нам кажется, мы нашли диалектический компромисс: беря что-то близкое, подходящее, мы минимально переделываем, словно костюм с жмущим гульфиком, купленный в универсальном магазине. Кроме того, нам очень важно сделать алгоритм доступным широким массам студенческой молодежи, овладевшей основами таинства параллельного программирования!

Нейросеть, подлежащая обучению

Рис. 4.1. Нейросеть, подлежащая обучению
Матрица следования с транзитивными связями

Рис. 4.2. Матрица следования с транзитивными связями

Пусть выбранная нейросеть представлена на рис. 4.1, где первоначально заданные связи обозначены тонкими стрелками. Строим соответствующую матрицу следования S и в ней - транзитивные связи (рис. 4.2). Проверяем, все ли нейроны выходного слоя достижимы из любого нейрона входного слоя. Если нет, считаем, что сеть составлена не корректно.

В данном случае из нейрона В1 не исходит ни одной статической цепочки, заканчивающейся нейроном Вых5. Это следует из того, что в строке, соответствующей нейрону Вых5, нет даже транзитивной связи в столбце, соответствующем нейрону В1. То же касается нейрона В3.

Введем синапсические связи В1 -> Вых5 и В3 -> Вых5, что отмечено на рис. 4.1 жирными стрелками, а на рис. 4.2 – нулевыми весами введенных связей.

Сформируем статический путь возбуждения {B1, A1, C1, C2, C3, C4, C5} -> Вых1 и отобразим его матрицей S1[B1,A1,C1,C2,C3,C4,C5 -> Вых1] на рис. 4.3.

Матрица следования при обучении первому эталону

Рис. 4.3. Матрица следования при обучении первому эталону

Пытаясь сымитировать прокладываемые пути возбуждений, снабдим все нейроны входного слоя, отраженные в этой матрице, признаком "возбужден".

< Лекция 3 || Лекция 4: 123456 || Лекция 5 >
Эльвира Герейханова
Эльвира Герейханова

Раньше это можно было зделать просто нажав на тест и посмотреть результаты а сейчас никак

Елена Лобынцева
Елена Лобынцева
Помогите разобраться как можно подобрать НС для распознавания внутренней области выпуклого многоугольника?