Ви є тут

Методи синтезу моделей багатовимірних нелінійних об'єктів керування на основі нейромережевого підходу.

Автор: 
Субботін Сергій Олександрович
Тип роботи: 
Дис. канд. наук
Рік: 
2005
Артикул:
0405U004270
129 грн
Додати в кошик

Вміст

РАЗДЕЛ 2
НЕИТЕРАТИВНЫЕ МЕТОДЫ СИНТЕЗА МОДЕЛЕЙ
ОБЪЕКТОВ УПРАВЛЕНИЯ НА ОСНОВЕ НЕЙРОСЕТЕВОГО ПОДХОДА

В предыдущем разделе было отмечено, что традиционно используемые итеративные методы синтеза нейромоделей на основе процедур оптимизации [94-101] обладают такими недостатками как низкая скорость сходимости, неопределенность начальной точки поиска [96-98], зависимость нейромоделей от задаваемых пользователем параметров, а также сложность последующего анализа и интерпретации нейромоделей, что затрудняет их применение в СУ и СППР.
Для разработки эффективных методов синтеза и настройки весов МНС, свободных от перечисленных недостатков предлагается учитывать размерность и топологию обучающих данных, а также информативность признаков при формировании нейросетевых моделей.
В данном разделе для расчета топологических характеристик образов с учетом информативности признаков предлагается использовать модифицированный метод метрической классификации, а для ранжирования признаков по степени значимости разработан новый метод оценивания информативности признаков.
Для моделирования управляемых объектов и автоматизации процессов принятия решений в данном разделе разработаны новые методы неитеративного синтеза и настройки весовых коэффициентов МНС. Предложенные методы позволяют синтезировать нейромодели, обладающие простой структурой и удобные для последующего анализа и извлечения знаний.
2.1. Построение нейромоделей управляемых объектов с учетом топологических свойств образов
Пусть мы имеем обучающую выборку x, состоящую из S экземпляров: x = {xs}, характеризующихся N признаками: xs ={xsj}, где s - номер экземпляра обучающей выборки, s = 1,2,...,S; j - номер признака, j = 1,2,...,N. Каждому экземпляру обучающей выборки сопоставлен бинарный номер класса ys*, , где 0 и 1 - условные обозначения (коды) разных классов экземпляров K0 и K1.
Для разделения экземпляров на классы в пространстве признаков может быть использован метод метрической классификации [102, 103]. Согласно данному методу распознаваемый экземпляр относят к тому классу, расстояние к центру которого от распознаваемого экземпляра в пространстве признаков наименьшее.
Центры классов представляют собой эталоны - наиболее типичные (идеализированные) экземпляры соответствующих классов. Для определения их координат можно использовать формулы (2.1) и (2.2):

, j = 1,2,...,N,(2.1), j = 1,2,...,N,(2.2)
где С0j - j-ая координата центра сосредоточения экземпляров класса K0;
С1j - j-ая координата центра сосредоточения экземпляров класса K1;
S0- количество экземпляров обучающей выборки, принадлежащих к классу K0;
S1- количество экземпляров обучающей выборки, принадлежащих к классу K1.
Расстояния R0 и R1 от распознаваемого экземпляра xs до центров классов K0 и K1 будут вычисляться следующим образом:

,(2.3).(2.4)
Номер класса распознаваемого экземпляра xs в этом случае будет определяться по формуле:

(2.5)
Так как в (2.5) при сравнении расстояний нас интересует лишь качественный результат (какое из расстояний меньше), а не их значения, то при расчете расстояний по формулам (2.3) и (2.4) корни можно опустить (по другому - возвести расстояния в квадрат). Преобразуем формулу (2.5) к следующему виду:

(2.6)
Распишем разность R0 - R1, используя формулы (2.3) и (2.4) без извлечения корней:
(2.7)
Полученное выражение (2.7) в совокупности с (2.6) может быть использовано для неитеративной настройки весов однослойного персептрона, дискриминантная функция и функция активации которого будут задаваться формулами (A.1) и (A.5), соответственно.
Вес j-го входа однослойного персептрона wj будет определяться по формуле:

(2.8)
Схема однослойного персептрона, обученного предложенным способом, представлена на рис. 2.1.

Рис. 2.1. Схема однослойного персептрона

2.2. Неитеративные методы синтеза моделей объектов управления на основе двухслойных нейросетей

Двухслойная НС с сигмоидными функциями активации нейронов скрытого слоя. Пусть мы имеем обучающую выборку x ={xsj} и каждому экземпляру обучающей выборки сопоставлен бинарный номер класса ys*. В общем случае, экземпляры выборки характеризуются достаточно большим количеством признаков, имеющих разную информативность. Номер класса экземпляра зачастую определяется не одним признаком, а целым множеством признаков, что не позволяет в большинстве случаев построить линейную модель для классификации по одному признаку, удовлетворяющую заданным требованиям точности классификации. Поэтому метод классификации должен быть многомерным (обрабатывать множество признаков), позволять учитывать связи между номером класса и признаками, а также должен учитывать информативность (значимость) признаков.
Наиболее простым способом реализации многомерной классификации, очевидно, будет объединение результатов одномерных классификаций с учетом значимости признаков.
Представим ys - номер класса s-го экземпляра как округленную взвешенную сумму:
,(2.9)
где yjs - результат (бинарный номер класса) одномерной классификации s-го экземпляра обучающей выборки по j-му признаку;
?j - коэффициент, учитывающий значимость результата одномерной классификации по j-му признаку (доля ysj в формировании значения ys);
- пороговая функция, которая задается формулой (A.5).
Если значение ?j известно, то задача сводится к разработке правила одномерной классификации для j-го признака относительно порога классификации ?j. Это правило должно быть нелинейным, а также должно учитывать степень близости экземпляров к центрам классов. В качестве основы такого правила будем использовать сигмоидную функцию (A.7):

,(2.10)
которая будет тем ближе к единице, чем ближе распознаваемый экземпляр xs к центру класса K1, и наоборот, тем ближе к нулю, чем ближе распознаваемый экземпляр xs к центру класса K0.