Программная реализация сети Хопфилда для распознавания и классификации электрических сигналов | Статья в журнале «Молодой ученый»

Отправьте статью сегодня! Журнал выйдет 4 мая, печатный экземпляр отправим 8 мая.

Опубликовать статью в журнале

Автор:

Рубрика: Технические науки

Опубликовано в Молодой учёный №5 (40) май 2012 г.

Статья просмотрена: 6667 раз

Библиографическое описание:

Рыжков, А. А. Программная реализация сети Хопфилда для распознавания и классификации электрических сигналов / А. А. Рыжков. — Текст : непосредственный // Молодой ученый. — 2012. — № 5 (40). — С. 62-67. — URL: https://moluch.ru/archive/40/4834/ (дата обращения: 25.04.2024).

В настоящее время нейронные сети широко используются для решения трудно формализуемых задач, то есть таких, которые не имеют явного алгоритма. Одной из них является задача распознавания и классификации образов. Для ее решения часто используют классическую полносвязную нейронную сеть прямого распространения (многослойный персептрон), для обучения которого используется алгоритм обратного распространения ошибки. Этот алгоритм заключается в распространении сигналов ошибки от выходов сети к ее входам в направлении, обратном прямому распространению сигнала в обычном режиме работы. Таким образом, осуществляется корректировка весов сети. Однако эти сети обладают такими недостатками, как:

  • длительность обучения;

  • подбор правильной размерности сети.

Длительность обучения персептрона прямо пропорциональна числу синапсов. Если сеть полносвязная, значит выход нейрона предыдущего слоя связан с входом каждого нейрона последующего слоя. Таким образом, если имеется входной образ размерностью 1000х1, то первый слой должен содержать 1000 нейронов. Также в настоящее время не существует универсальных алгоритмов для того чтобы вычислить минимальное необходимое число нейронов в каждом слое. При достаточно большой размерности входного образа не следует использовать персептрон, так как в нашем случае потребуется использовать скрытый слой нейронов, размерность которого будет еще выше, что уменьшит скорость обучения сети. Кроме того, слишком простые сети могут не запомнить достаточное число образов, а погрешность сложных сетей будет велика за счет эффекта «насыщения», то есть при решении сеть не сможет достигнуть глобального минимума. В связи с этим логичнее будет использовать нейронную сеть Хопфилда.

Аналогия физической памяти с искусственной сетью

Нейронная сеть Хопфилда является разновидностью упрощенной модели человеческого мозга. Механизм ассоциативной памяти достигается за счет обратных связей. Задача, решаемая этой сетью в качестве ассоциативной памяти, заключается в следующем: на вход сети поступает кортеж, состоящий из последовательности мгновенных значений напряжения, снятых при помощи мультиметра Agilent 3440А через равные промежутки времени. Число этих значений, к примеру, равно 1000. В зависимости от входного сигнала сеть должна вспомнить по частичной неискаженной информации ближайший образ.

Описание и обучение сети

Рассмотрим параметры реализации сети Хопфилда (рис. 1), используемой для нахождения схожих образов между собой.

Сеть состоит из следующих элементов:

Набора исходных шаблонов s(q), где q = 1, … , Q – число этих шаблонов. В нашем случае |Q| = 40.

Данная сеть является полносвязной, то есть выход каждого нейрона связан с входом всех остальных нейронов, кроме самого себя. Также сеть является однослойной, где в качестве входов и выходов используются одновременно одни и те же нейроны. Выходные импульсы нейронов можно обозначить, как Yi, i = 1, … , N. N – число нейронов, которое соответствует размерности обучающих векторов.

Рис 1. Структура сети Хопфилда

В работе использован вектор длиной 1000 элементов. Обучающие векторы хранятся в обычных текстовых файлах. Они содержат последовательность идеальных мгновенных значений периодических синусоидальных, прямоугольных, треугольных, трапецеидальных сигналов в диапазоне частот от 1 до 100 Гц с шагом 10 Гц. Значения выровнены относительно амплитуды сигнала для того, чтобы она не влияла на процесс принятия решения. Так как для сигналов с разной частотой вектор имеет одинаковую длину, а скорость снятия данных вольтметром постоянна, то чем большую частоту имеет сигнал, тем больше периодов помещается в векторе. Для ясности на Рис 2 приведен график, на котором изображены идеальные сигналы частотой 1 Гц, 10 Гц. Сигнал с частотой 1 Гц промодулирован другим синусоидальным сигналом с частотой 50 Гц (к примеру, наводка от сети). Амплитуда этой наводки – 30 % от амплитуды самого сигнала.

Рис.2. Пример образцовых и зашумленного образов

Распознавание неизвестного образа заключается в сведении его к одному из известных. Для того, чтобы это было возможно, сеть необходимо обучить. Обычно сеть Хопфилда обучается при помощи правила Хебба: то есть создается матрица весов Wij, представляющая из себя кортеж (вектор), в нашем случае размерностью 1000x1000. Особенностью данной матрицы является то, что она симметрична относительно главной диагонали. Это является одним из необходимых, но не достаточных условий для достижения стабильной работы сети. Также все элементы главной диагонали равны нулю (Wii = 0). Это связано с тем, что выход i-го нейрона не поступает на его вход. Перед началом работы сети необходимо задать значения всем элементам вектора W. Для этого можно использовать правило Хэбба для двуполярных векторов:

если ij

если i = j

Здесь i,j – элементы из обучающей выборки. Таким образом, Wij формируют соответствующие элементы, последовательно поступающие из матриц известных шаблонов.

Работа сети

После того как матрица W сформирована можно подавать на вход сети искаженный образ. Размерность этого вектора должна соответствовать векторам из обучающей выборки. Вектор Х одновременно попадает на выходы всех нейронов. Тут стоит упомянуть о том, что сеть может работать в двух режимах: синхронном и асинхронном. Различие заключается в том, что при синхронном режиме работы сети активационная функция каждого нейрона рассчитывается без учета выходных значений других нейронов (активационные функции всех нейронов рассчитываются в один момент времени). Следовательно, их выходные значения формируются одновременно. Недостатком этого подхода является то, что существует вероятность появления бесконечного чередования двух состояний (то есть динамического аттрактора).

Более продуктивным является асинхронный режим работы сети. Во время его работы произвольно выбирается нейрон и для него рассчитывается активационная (передаточная) функция:

если Yi > Θi

если Yi = Θi

если Yi < Θi

В качестве функции активации используется обычная пороговая функция с порогом Θ = 0. В качестве передаточной можно использовать более сложные функции, такие как сигмоидальные и тангенциальные, но изменения будут несущественны.

После расчета активационной функции выходное значение нейрона может измениться. С учетом этого изменения рассчитывается активационная функция для следующего нейрона. Это продолжается до тех пор, пока сеть не достигнет устойчивого состояния - то есть пока выходные значения нейронов не будут изменяться. Если же состояние равновесия не будет достигнуто за заданное число итераций (в нашем случае 2500), то образ считается нераспознанным.

Вывод

В результате была разработана программная реализация сети Хопфилда на языке программирования Python 3.2, успешно распознающая искаженные/зашумленные входные сигналы и сводящая их к одному из известных заранее. Отношение сигнал/шум, при котором программа не испытывает трудностей в распознавании составляет 3:1. Это отношение прямо пропорционально размерности обучающих векторов (и соответственно искаженного вектора).

К достоинствам сети Хопфилда можно отнести:

  • относительно простую реализацию;

  • быструю скорость обучения;

  • большую масштабируемость.

Недостатком сети является малый объем памяти. Максимальное число шаблонов, можно рассчитать по следующей формуле:

, где N – число нейронов в сети.

Если не придерживаться этого соотношения, сеть выдаст некий собирательный образ, в состав которого будут входить несколько исходных.

В статье преднамеренно опущено подробное описание кода программы, чтобы не нарушать целостность описания алгоритма работы сети. Соответствующие комментарии приведены непосредственно в самом коде.


Литература:

  1. С. Короткий Нейронные сети Хопфилда и Хэмминга.

  2. Саймон Хайкин Нейронные сети. Полный курс. 2-е издание.

  3. Яхъяева Г. Э. Нечеткие множества и нейронные сети. Учебное пособие.

  4. Mark Pilgrim. Dive into Python 3.


Исходный код программы:

Основной модуль h_main.py

import sys

from parser_and_co import parse, parse_image, print_image, DIMENSION

from h_net import h_net


learnt_images = "learnt_images"

unfamiliar_image = "unfamiliar/unfamiliar.txt"


def main(argv):

images_ll = parse(learnt_images)

image_l = parse_image(unfamiliar_image)

print("Known images")

for i in images_ll:

print_image(i, DIMENSION)

print("Remembering images")

network = h_net(DIMENSION)

for i in images_ll:

network.remember(i)

print()

print("Changed image ")

print_image(image_l, DIMENSION)

print()

print("Detecting image:")

(recognized, recimage, counter) = network.recognize(image_l)

print()

if recognized:

print("Recognized in %g" %counter)

else:

print("Not recognized in %g" %counter)

print_image(recimage, DIMENSION)


if __name__ == '__main__':

main(sys.argv[1:])


Дополнительный модуль, реализующий чтение из файлов и ввод/вывод информации parser_and_co.py:

from __future__ import with_statement

import os


MAX = 1024

DIMENSION = 16

d_parse = {'.': -1, '#': 1}

d_print = {-1:'.' ,1 :'#' }


#

# parse returns a list of symbols from the file

#


def parse(dir):

filenames_l = []

for filename in os.listdir(dir):

filepath = os.path.join(dir, filename)

if os.path.isfile(filepath):

filenames_l.append(filepath)

images_l = []

for filepath in filenames_l:

image = parse_image(filepath)

images_l.append(image)

return images_l


#

# parse_image returns file in a list

#


def parse_image(filepath):

with open(filepath) as f:

temporary = f.read(MAX)

temporary = temporary.replace("\n", "")

temporary = temporary.replace("\r", "")

image_l = []

for i in temporary:

image_l.append(d_parse[i])

if len(image_l) != pow(DIMENSION, 2):

raise Exception("The dimension of images must be %gx%g" % (DIMENSION, DIMENSION))

return image_l

#

# print_image prints an image

#

def print_image (list, size):

c = 0

for i in list:

print(d_print[i], end = ' ')

c += 1

if (c % size == 0):

print()


Дополнительный модуль, описывающий класс нейронной сети, ее методы h_net.py:

import math

import random

from parser_and_co import print_image, DIMENSION

#

# Class of Hopfield net

#

class h_net:

#

# Constructor

#

def __init__(self, dimension):

self.neurons = int(math.pow(dimension, 2)-1)

self.images = []

self.y = [] # keeps the exit variable

self.W = [] # initialization of

r = range(0, self.neurons) # weighted matrix Wij

for i in r: #

self.W.append([0 for i in r]) #

self.queue = list(range(self.neurons))

random.shuffle(self.queue)

#

# Remember according to Hebb's rule

#

def remember(self, image):

self.images.append(image)

r = range(0, self.neurons)

for i in r:

for j in r:

if (i==j):

self.W[i][j] = 0

else:

self.W[i][j] += image[i] * image[j]

#

# Recognize unknown image

#

def recognize(self, image):

counter = 0

self.y = image

j = 0

while (self.images.count(self.y) == 0):

counter +=1

s = 0

for i in range(0, self.neurons):

s += self.W[i][self.queue[j]]*self.y[i] #sum

s += image[self.queue[i]]

s = ((s>10)-(s<10)) # s=(-1) if (s<0); s=1 if (s>0) else s=0

if (s != self.y[self.queue[j]]): # change

self.y[self.queue[j]] = s

print("Image ,while count is ", counter)

print()

print_image(self.y, DIMENSION)

print()

j += 1

if (j == (self.neurons)):

j = 0

if (counter>2500):

return (False, self.y, counter)

return (True, self.y, counter)

Основные термины (генерируются автоматически): сеть, нейрон, активационная функция, вектор, Нейронная сеть, ассоциативная память, вход сети, входной образ, главная диагональ, число нейронов.


Похожие статьи

Преимущества комплекснозначного нейрона на примере решения...

Комплексно-значная нейронная сеть — это сеть, основанная на комплексных числах, т. е. входные данные весы и функция активации являются комплексными. На сегодняшний день существует три очень веские причины для использования комплексно-значных нейронов и...

Аппаратная реализация искусственных нейронных сетей. Часть 1

Рассмотрены типы искусственных нейронных сетей. Представлены методы аппаратной реализации искусственных нейронных сетей с использованиеманалоговых, либо цифровых схем нейрон-синапсов.

Разработка математической модели нейронной сети

нейрон, искусственный нейрон, нейронная сеть, сеть, вход, модель, взвешенный сумматор, клетка головного, процессорный элемент, связь. Ключевые слова. модель, нейронные сети, нейрон, математика...

Анализ особенностей обучение нейронных сетей.

Особенностью искусственной нейронной сети является наличие активационной (передаточной) функции. Выбор функции зависит от области применения разрабатываемой сети, характера моделируемой нелинейности.

Матричный метод расчетов динамических рекуррентных...

Ключевые слова: искусственная нейронная сеть, синаптические веса, ассоциативная память, сигнальные графы, матрицы смежности

вектор функций активационных блоков. ; (3). ‒ — вектор значений, подаваемых на входы всех нейронов ИНС внешних сигналов.

Распознавание английского текста сверточной нейронной сетью

. Таким образом, выходом сверточной нейронной сети является вектор следующего вида

Таким образом, полученная нейронная сеть будет инвариантна к незначительным

В качестве функции активации данного слоя выбиралась softmax-функция вида [3]

Виды архитектур нейронных сетей | Статья в журнале...

нейронная сеть, сеть, эта, нейрон, данные, архитектура, функция активации, искусственная нейронная сеть, искусственный интеллект, искусственный нейрон.

Искусственные нейронные сети | Статья в журнале...

нейронная сеть, сеть, GRNN, нейрон, задача, вход, распознавание образов, типовая структура, адаптивно-резонансная теория, ассоциативная память.

Модель математической нейронной сети | Статья в журнале...

Ключевые слова: нейрон, синапс, нейронная сеть, функция активации, линейная функция, сигмоид, гиперболический тангенс, тренировочный сет.

Нейронная сеть берет на вход два числа и должна на выходе дать другое число — ответ.

Похожие статьи

Преимущества комплекснозначного нейрона на примере решения...

Комплексно-значная нейронная сеть — это сеть, основанная на комплексных числах, т. е. входные данные весы и функция активации являются комплексными. На сегодняшний день существует три очень веские причины для использования комплексно-значных нейронов и...

Аппаратная реализация искусственных нейронных сетей. Часть 1

Рассмотрены типы искусственных нейронных сетей. Представлены методы аппаратной реализации искусственных нейронных сетей с использованиеманалоговых, либо цифровых схем нейрон-синапсов.

Разработка математической модели нейронной сети

нейрон, искусственный нейрон, нейронная сеть, сеть, вход, модель, взвешенный сумматор, клетка головного, процессорный элемент, связь. Ключевые слова. модель, нейронные сети, нейрон, математика...

Анализ особенностей обучение нейронных сетей.

Особенностью искусственной нейронной сети является наличие активационной (передаточной) функции. Выбор функции зависит от области применения разрабатываемой сети, характера моделируемой нелинейности.

Матричный метод расчетов динамических рекуррентных...

Ключевые слова: искусственная нейронная сеть, синаптические веса, ассоциативная память, сигнальные графы, матрицы смежности

вектор функций активационных блоков. ; (3). ‒ — вектор значений, подаваемых на входы всех нейронов ИНС внешних сигналов.

Распознавание английского текста сверточной нейронной сетью

. Таким образом, выходом сверточной нейронной сети является вектор следующего вида

Таким образом, полученная нейронная сеть будет инвариантна к незначительным

В качестве функции активации данного слоя выбиралась softmax-функция вида [3]

Виды архитектур нейронных сетей | Статья в журнале...

нейронная сеть, сеть, эта, нейрон, данные, архитектура, функция активации, искусственная нейронная сеть, искусственный интеллект, искусственный нейрон.

Искусственные нейронные сети | Статья в журнале...

нейронная сеть, сеть, GRNN, нейрон, задача, вход, распознавание образов, типовая структура, адаптивно-резонансная теория, ассоциативная память.

Модель математической нейронной сети | Статья в журнале...

Ключевые слова: нейрон, синапс, нейронная сеть, функция активации, линейная функция, сигмоид, гиперболический тангенс, тренировочный сет.

Нейронная сеть берет на вход два числа и должна на выходе дать другое число — ответ.

Задать вопрос