Основы теории нейронных сетей



         

Самоорганизация


Самоорганизующихся структуры классифицируют образы, представленные векторными величинами, в которых каждая компонента вектора соответствует элементу образа. Алгоритмы Кохонена основываются на технике обучения без учителя. После обучения подача входного вектора из данного класса будет приводить к выработке возбуждающего уровня в каждом выходном нейроне; нейрон с максимальным возбуждением представляет классификацию. Так как обучение проводится без указания целевого вектора, то нет возможности определять заранее, какой нейрон будет соответствовать данному классу входных векторов. Тем не менее, это планирование легко проводится путем тестирования сети после обучения.

Алгоритм трактует набор из

n
входных весов нейрона как вектор в
n
-мерном пространстве. Перед обучением каждый компонент этого вектора весов инициализируется в случайную величину. Затем каждый вектор нормализуется в вектор с единичной длиной в пространстве весов - для этого выполняется деление каждого случайного веса на квадратный корень из суммы квадратов компонент этого весового вектора.

Все входные векторы обучающего набора также нормализуются и сеть обучается согласно следующему алгоритму:

  1. Вектор
    \bf X
    подается на вход сети.
  2. Определяются расстояния

    D_j
    n
    -мерном пространстве) между
    X

    и весовыми векторами

    W_j
    каждого нейрона. В евклидовом пространстве это расстояние вычисляется по следующей формуле:

     D_j=\sqrt{\sum_i(x_i-w_i)^2_j},

    где

    x_i
    — компонента
    i
    входного вектора
    X
    ,
    w_{ij}
    — вес входа
    i

    нейрона

    j
    .

  3. Нейрон, который имеет весовой вектор, самый близкий к
    X
    , объявляется победителем. Этот вектор, называемый
    W_c
    , становится основным в группе весовых векторов, которые лежат в пределах расстояния
    D
    от
    W_c
    .
  4. Группа весовых векторов настраивается в соответствии со следующим выражением:

     W_j(t+1)=W_j(t)+\alpha[X-W_j(t)]

    для всех весовых векторов в пределах расстояния

    D
    от
    W_c
    .

  5. Повторяются шаги с 1 по 4 для каждого входного вектора.

В процессе обучения нейронной сети значения

D
и
\alpha

постепенно уменьшаются. Рекомендуется, чтобы коэффициент

\alpha
в начале обучения устанавливался приблизительно равным единице и уменьшался в процессе обучения до нуля, в то время как
D
может в начале обучения равняться максимальному расстоянию между весовыми векторами и в конце обучения стать настолько маленьким, что будет обучаться только один нейрон.




Содержание  Назад  Вперед