Использование нечеткой искусственной нейронной сети TSK (Takagi, Sugeno, Kang’a) в задаче прогнозирования валютных курсов
1) Обучение проводится с учителем. Т.е. для каждого входного вектора имеется желаемое для выхода значение.
2) Выборка разбивается на 2 части: обучающая и проверочная.
Обобщенную схему вывода в модели TSK при использовании правил и переменных t=25 src="images/referats/8196/image004.png">можно представить в следующем виде:
, то ;
, то
где - значение лингвистической переменной для правила с функцией принадлежности (ФП)
, ,
В нечеткой нейронной сети TSK пересечение правил определяется ФП в форме произведения, т.е.
При правилах вывода композиция исходных результатов сети определяется по следующей формуле (аналогично выводу Сугено):
где ,
Нечеткая нейронная сеть TSK задается многослойной структурной сетью, представленной на рисунке 1. В такой сети выделяют 5 слоев.
1. Первый слой выполняет раздельную фаззификацию каждой переменной , , определяя для каждого -го правила вывода значение ФП в соответствии с функцией фаззификации. Это параметрический слой с параметрами , которые подлежат адаптации в процессе обучения.
2. Второй слой выполняет агрегирование отдельных переменных , определяя результирующую степень принадлежности для вектора условиям -го правила. Это не параметрический слой.
3. Третий слой представляет собой генератор функции TSK, в котором рассчитывается значения . В этом слое также происходит умножение функции на , сформированных на предыдущем слое. Это параметрический слой, в котором адаптации подлежат линейные параметры (веса), для , , определяющие функции последствий правил.
4. Четвертый слой составляют 2 нейрона-сумматора, один из которых рассчитывает взвешенную сумму сигналов , а второй определяет сумму весов .
5. Пятый слой состоит из одного единственного нейрона. В нем веса подлежат нормализации и вычисляется выходной сигнал в соответствием с выражением
Это так же не параметрический слой.
Из приведенного описания следует, что нечеткая сеть TSK содержит только 2 параметрических слоя (первый и третий), параметры которых уточняются в процессе обучения. Параметры первого слоя () будем называть нелинейными, а параметры третьего слоя - линейными весами.
Общее выражение для функциональной зависимости для сети TSK задается так:
|
|
Рисунок 1. Структура ННС TSK
3.3 Алгоритм обучения
Рассмотрим гибридный алгоритм обучения. В гибридном алгоритме параметры, подлежащие адаптации, делятся на 2 группы. Первая из них состоит из линейных параметров третьего слоя, а вторая группа – из параметров нелинейной ФП первого слоя. Уточнение параметров происходит в 2 этапа.
На первом этапе при фиксации отдельных значений параметров функции принадлежности, решая систему линейных уравнений, рассчитываются линейные параметры полинома TSK. При известных значениях ФП зависимость для выхода можно представить в виде линейной формы относительно параметра :
, где ,
При размерности обучающей выборки , и замене выходного сигнала сети ожидаемым значением получим систему из линейных уравнений вида
Другие рефераты на тему «Программирование, компьютеры и кибернетика»:
Поиск рефератов
Последние рефераты раздела
- Основные этапы объектно-ориентированного проектирования
- Основные структуры языка Java
- Основные принципы разработки графического пользовательского интерфейса
- Основы дискретной математики
- Программное обеспечение системы принятия решений адаптивного робота
- Программное обеспечение
- Проблемы сохранности информации в процессе предпринимательской деятельности