Основы теории нейронных сетей



         

Функционирование сетей APT - часть 4


Динамика сети в процессе медленного обучения описывается дифференциальными уравнениями.

Быстрое обучение является специальным случаем медленного обучения, когда входной вектор прикладывается на достаточно длительный срок, чтобы позволить весам приблизиться к их окончательным значениям. В этом случае процесс обучения описывается только алгебраическими выражениями. Кроме того, компоненты весовых векторов

T_j
принимают двоичные значения, в отличие от непрерывного диапазона значений, требуемого в случае быстрого обучения. В данной лекции мы опишем только быстрое обучение.

Рассмотренный далее обучающий алгоритм используется как в случае успешного, так и в случае неуспешного поиска.

Пусть вектор весов

B_j
(связанный с возбужденным нейроном
j

распознающего слоя) равен нормализованной величине вектора

C
. Эти веса вычисляются следующим образом:

 b_{ij}=\frac{Lc_i}{L-I+\sum_k c_k},

где

c_i
i
-я компонента выходного вектора слоя сравнения,
j
— номер выигравшего нейрона в слое распознавания,
b_{ij}
— вес связи, соединяющей нейрон
i
в слое сравнения с нейроном
j
в слое распознавания,
L
— константа > 1 (обычно 2).

Компоненты вектора весов

T_j
, связанного с новым запомненным вектором, изменяются таким образом, что становятся равны соответствующим двоичным величинам вектора
C
:

 t_{ij} = c_i,\quad \text{для всех } i,

где

t_{ij}
является весом связи между выигравшим нейроном
j
в слое распознавания и нейроном
i
в слое сравнения.




Содержание  Назад  Вперед