Классификация сейсмических сигналов на основе нейросетевых технологий
Категория реферата: Рефераты по кибернетике
Теги реферата: законодательство реферат, рецензия на дипломную работу
Добавил(а) на сайт: Распутин.
Предыдущая страница реферата | 3 4 5 6 7 8 9 10 11 12 13 | Следующая страница реферата
[pic] [pic]
Шаг 6. Обновить размер окрестности ((t) и скорость ((t)
((t)=((0)(1-t/tmax) ((t)=((0)(1-t/tmax)
Шаг 7. Если (t < tmax), то Шаг 2, иначе СТОП.
Благодаря своим способностям к обобщению информации, карты Кохонена
являются удобным инструментом для наглядного представления о структуре
данных в многомерном входном пространстве, геометрию которого представить
практически невозможно.
Сети встречного распространения.
Еще одна группа технических применений связана с предобработкой данных.
Карта Кохонена группирует близкие входные сигналы Х, а требуемая функция Y
= G(X) строится на основе обычной нейросети прямого распространения
(например многослойного персептрона или линейной звезды Гроссберга[1]) к
выходам нейронов Кохонена. Такая гибридная архитектура была предложена Р.
Хехт-Нильсеном и имеет название сети встречного распространения[1-3,7,9].
Нейроны слоя Кохонена обучаются без учителя, на основе самоорганизации, а
нейроны распознающих слоев адаптируются с учителем итерационными методами.
Пример такой структуры для решения задачи классификации сейсмических
сигналов приведен на рис. 4.5.
Второй уровень нейросети используется для кодирования информации.
Весовые коэффициенты tij (i =1,...,M; j=1,2) – коэффициенты от i-го нейрона
слоя Кохонена к j-му нейрону выходного слоя рассчитываются следующим
образом:
[pic]
где
Yi – выход i- го нейрона слоя Кохонена
Sj – компонента целевого вектора (S={0,1} – взрыв, S={1,0}-землетрясение)
Таким образом после предварительного обучения и формирования кластеров в слое Кохонена, на фазе вторичного обучения все нейроны каждого полученного кластера соединяются активными (единичными) синапсами со своим выходным нейроном, характеризующим данный кластер.
Выход нейронов второго слоя определяется выражением:
(11) [pic] где: [pic]
Kj - размерность j-ого кластера, т.е. количество нейронов слоя Кохонена соединённых с нейроном j выходного слоя отличными от нуля коэффициентами.
R - пороговое значение (0 < R < 1).
Пороговое значение R можно выбрать таким образом, чтобы с одной стороны не были потеряны значения активированных кластеров, а с другой стороны - отсекался "шум не активизированных кластеров".
В результате на каждом шаге обработки исходных данных на выходе получаются значения Sj, которые характеризуют явление, породившее данную входную ситуацию ([pic] - землетрясение; [pic] - взрыв).
4.5 Выводы по разделу.
Итак, подводя итог данной главе, следует сказать, что это далеко не полный обзор нейросетевых архитектур, которые успешно справляются с задачами классификации. В частности ничего не было сказано о вероятностных нейронных сетях, о сетях с базисно радиальными функциями, о использовании генетических алгоритмов для настройки многослойных сетей и о других, пусть менее известных, но хорошо себя зарекомендовавших. Соответственно проблема выбора наиболее оптимальной архитектуры для решения задачи классификации сейсмических сигналов вполне актуальна. В идеале, конечно хотелось бы проверить эффективность хотя бы нескольких из них и выбрать наилучшую. Но для этого необходимо проводить более масштабные исследования, которые займут много времени. На данном этапе исследований была сделана попытка использовать хорошо изученные нейронные сети и алгоритмы обучения для того, чтобы убедиться в эффективности подхода в целом. В главе 6 детально обсуждаются нейросеть, которая была исследована в рамках настоящей дипломной работы.
5. Методы предварительной обработки данных.
Если возникает необходимость использовать нейросетевые методы для решения конкретных задач, то первое с чем приходится сталкиваться – это подготовка данных. Как правило, при описании различных нейроархитектур, по умолчанию предполагают что данные для обучения уже имеются и представлены в виде, доступном для нейросети. На практике же именно этап предобработки может стать наиболее трудоемким элементом нейросетевого анализа. Успех обучения нейросети также может решающим образом зависеть от того, в каком виде представлена информация для ее обучения.
В этой главе рассматриваются различные процедуры нормировки и методы понижения размерности исходных данных, позволяющие увеличить информативность обучающей выборки.
5.1 Максимизация энтропии как цель предобработки.
Рассмотрим основной руководящий принцип, общий для всех этапов предобработки данных. Допустим, что в исходные данные представлены в числовой форме и после соответствующей нормировки все входные и выходные переменные отображаются в единичном кубе. Задача нейросетевого моделирования – найти статистически достоверные зависимости между входными и выходными переменными. Единственным источником информации для статистического моделирования являются примеры из обучающей выборки. Чем больше бит информации принесет пример – тем лучше используются имеющиеся в нашем распоряжении данные.
Рассмотрим произвольную компоненту нормированных (предобработанных)
данных: [pic]. Среднее количество информации, приносимой каждым примером
[pic], равно энтропии распределения значений этой компоненты [pic]. Если
эти значения сосредоточены в относительно небольшой области единичного
интервала, информационное содержание такой компоненты мало. В пределе
нулевой энтропии, когда все значения переменной совпадают, эта переменная
не несет никакой информации. Напротив, если значения переменной [pic]
равномерно распределены в единичном интервале, информация такой переменной
максимальна.
Общий принцип предобработки данных для обучения, таким образом состоит в максимизации энтропии входов и выходов.
5.2 Нормировка данных.
Как входами, так и выходами могут быть совершенно разнородные величины.
Очевидно, что результаты нейросетевого моделирования не должны зависеть от
единиц измерения этих величин. А именно, чтобы сеть трактовала их значения
единообразно, все входные и выходные величин должны быть приведены к
единому масштабу. Кроме того, для повышения скорости и качества обучения
полезно провести дополнительную предобработку, выравнивающую распределения
значений еще до этапа обучения.
Индивидуальная нормировка данных.
Приведение к единому масштабу обеспечивается нормировкой каждой переменной на диапазон разброса ее значений. В простейшем варианте это – линейное преобразование:
[pic]
в единичный отрезок: [pic]. Обобщение для отображения данных в интервал
[pic], рекомендуемого для входных данных тривиально.
Рекомендуем скачать другие рефераты по теме: організація реферат, женщины реферат.
Предыдущая страница реферата | 3 4 5 6 7 8 9 10 11 12 13 | Следующая страница реферата