Разделение хромотографических пиков нейросетями
Категория реферата: Рефераты по информатике, программированию
Теги реферата: сочинение почему, шпаргалки по математике
Добавил(а) на сайт: Ахвледиани.
Предыдущая страница реферата | 1 2 3 4 5 | Следующая страница реферата
3.)После обучения сети до не обходимого уровня ошибки необходимо подать на вход значение времени, при котором требуется узнать значение функции. Полученное значение при прямом функционировании и есть прогнозируемая точка. Она же будет добавлена в обучающую выборку. И снова провести выше описанные действия. Прогнозирование производится до тех пор, пока это необходимо.
Целесообразно параллельно проводить прогнозирование смежного пика.
Прогнозируемая точка смежного фронта соседнего пика может быть получена
следующим способом:
1.) Подать параллельной сети примеры соседнего пика.
2.) Подать на дополнительный вход разность между значением суперпозиции в этой точке и полученным значением в этой точке у соседнего пика.
3 Схема алгоритма разделения пиков
4 Методика обучения нейросети
Метод обучения нейросети на основании алгоритма обратного распространения представляет собой - распространение сигналов ошибки от выходов нейросети к ее входам, в направлении, обратном прямому распространению сигналов в обычном режиме работы.
Ниже представлен методика обучения НС с помощью процедуры обратного распространения строится так:
1. Подать на входы сети один из возможных образов и в режиме обычного функционирования НС, когда сигналы распространяются от входов к выходам, рассчитать значения последних. Ниже представлена формула расчёта взвешенной суммы весов:
[pic] (1) где M – число нейронов в слое n-1 с учетом нейрона с постоянным выходным состоянием +1, задающего смещение; yi(n-1)=xij(n) – i-ый вход нейрона j слоя n. yj(n) = f(sj(n)), где [pic] – сигмоид (2) yq(0)=Iq, где Iq – q-ая компонента вектора входного образа.
2. Рассчитать ((N) для выходного слоя по формуле:
[pic] (3)
Рассчитать изменения весов (w( N) слоя N по формуле:
[pic] (4)
3. Рассчитать для всех остальных слоев, n=N-1,...1
1)(( n) по формуле:
[pic] (5)
2) (w( n) по формуле(15)
4. Скорректировать все веса в НС
[pic] (6)
5. Если ошибка сети существенна, перейти на шаг 1. В противном случае конец.
5 Схема алгоритма обучения
6 Заключение
В ходе настоящей работы была разработана и реализована программно
искусственная нейронная сеть. Программа написана в среде Borland Delphi 3.
Она представляет собой гибкую систему, в которой задаётся количество
скрытых слоёв и количество нейронов в каждом из них. Количество входов и
выходов одинаково и равно единице. Над программой был проведён длительный
эксперимент, который продолжался около 10-ти часов. За это время нейронная
сеть, реализованная в ней, обучалась по переднему фронту пика(см.
приложение Г). Нейронная сеть состояла из 4-х слоёв по 50 нейронов, и
выходного слоя с одним нейроном. Сеть обучилась до уровня ошибки – 0,0016, за число итераций – 95649.
Список использованных источников
Рекомендуем скачать другие рефераты по теме: оформление доклада титульный лист, изложение материала.
Предыдущая страница реферата | 1 2 3 4 5 | Следующая страница реферата