Основы теории нейронных сетей



         

Алгоритмы обучения


Большинство современных алгоритмов обучения выросло из концепций Д.О. Хэбба. Он предложил модель обучения без учителя, в которой синаптическая сила (вес) возрастает, если активированы оба нейрона, источник и приемник. Таким образом, часто используемые пути в сети усиливаются и феномены привычки и обучения через повторение получают объяснение.

В искусственной нейронной сети, использующей обучение по Хэббу, наращивание весов определяется произведением уровней возбуждения передающего и принимающего нейронов. Это можно записать как

 w_{ij}(n+1)=w(n)+\alpha OUT_i OUT_j,

где

w_{ij}(n)
— значение веса от нейрона
i
к нейрону
j
до подстройки,
w_{ij}(n+1)
— значение веса от нейрона
i
к нейрону
j
после подстройки,
\alpha
— коэффициент скорости обучения,
OUT_i
— выход нейрона
i
и вход нейрона
j
,
OUT_j
— выход нейрона
j
.

Сети, использующие обучение по Хэббу, конструктивно развивались, однако за последние 20 лет появились и разрабатывались более эффективные алгоритмы обучения. В частности, были развиты алгоритмы обучения с учителем, приводящие к сетям с более широким диапазоном характеристик обучающих входных образов и большими скоростями обучения, чем использующие простое обучение по Хэббу.

<




Содержание  Назад