Библиографическое описание:

Дмитриев Е. И. Об одной задаче идентификации стохастических систем // Молодой ученый. — 2012. — №7. — С. 9-15.

Рассматривается задача идентификации, поэтому целесообразно привести общую схему исследуемого процесса, принятую в теории моделирования и идентификации [1]:

Рис. 1. Классическая схема задачи идентификации

Где A – неизвестный оператор объекта, – векторная выходная переменная процесса, – векторное управляющее воздействие, – вектор входных неуправляемых, но контролируемых воздействий, – векторное случайное воздействие, – непрерывное время, , – означает измерение в дискретное время. Контроль переменных осуществляется через интервал времени , т.е. – выборка измерений переменных процесса, - объем выборки, , – случайные помехи измерений переменных процесса.

Объект на рисунке 1 описывается оператором A:

(1)

При исследовании реального процесса класс операторов А должен быть как-то определен. В этом и заключается суть задачи идентификации – в определении оператора A (определение его структуры и параметров).

Проблема идентификации тесно связана с понятием априорной информации. Априорная информация характеризуется наличием некоторых заведомо известных сведений, на основе которых в дальнейшем будет решаться задача идентификации. Соответственно априорная информация характеризуется различными уровнями, т.е. исследователь может располагать информацией о структуре исследуемого объекта, параметрах объекта, о природе протекающих процессов и др., а может и не располагать этими сведениями или только частью их. В зависимости от уровня априорной информации применяются различные подходы для решения проблемы идентификации и моделирования [1].

Наличие того или иного объема априорной информации об исследуемом процессе определяет математическую постановку задачи моделирования и идентификации, что в свою очередь предопределяет подход к решению рассматриваемой задачи. Имеют место следующие виды априорной информации [2]:

  • Системы с параметрической неопределенностью. Параметрический уровень априорной информации предполагает наличие параметрической структуры модели и некоторых характеристик случайных помех (обычно нулевое математическое ожидание и ограниченная дисперсия). При этих условиях решается задача идентификации в узком смысле;

  • Системы с непараметрической неопределенностью. Непараметрический уровень априорной информации не предполагает определения параметрической структуры модели с точностью до вектора параметров, но требует некоторые сведения качественного характера о процессе, например, однозначность, либо неоднозначность его характеристик. Для решения задач идентификации на данном уровне априорной информации (решается задача идентификации в широком смысле) применяются методы непараметрической статистики;

  • Системы с параметрической и непараметрической неопределенностью. Важными с точки зрения практики являются задачи идентификации многосвязных систем в условиях, когда объем исходной информации не соответствует ни одному из вышеописанных типов. Например, для отдельных характеристик многосвязного процесса могут быть выведены параметрические соотношения, а для других нет. Таким образом, возникает ситуация, когда задача моделирования и идентификации формулируется в условиях и параметрической, и непараметрической априорной информации.

Текущая априорная информация является средством решения проблемы идентификации и результатом измерения всех доступных и возможных переменных, характеризующих некоторый технологический, природный и другие процессы, описывающих работу исследуемого объекта. Следовательно, от текущей информации зависит весь процесс идентификации, поэтому необходимо с особым вниманием отнестись к процессу сбора информации (в частности к контролю и способам получения информации), технологиям измерения переменных процесса и обработки данной информации.

Генерация рабочей выборки. В задаче идентификации стохастических систем в условиях непараметрической неопределенности исследователь располагает некоторой исходной обучающей выборкой. Часто в пространстве «входных-выходных» переменных элементы этой выборки образуют «сгущения», а в ряде других подобластей пространства - «разряжения». При их использовании при решении задачи идентификации предлагается из имеющейся обучающей выборки сгенерировать новую «рабочую» выборку, которая непосредственно используется в непараметрических моделях. Этот процесс генерации, предлагаемый в настоящем статье целесообразно использовать и в других непараметрических адаптивных системах. Процесс генерации основывается на непараметрическом оценивании регрессионных характеристик по наблюдениям с шумами [2].

Почему же появилась необходимость в обработке исходной выборки с помощью предлагаемого алгоритма генерации рабочей выборки? Было замечено, что во многих стационарных безынерционных системах в течение некоторого времени при измерении некоторых его величин, параметров, наблюдения ложатся в одну точку или ε – окрестность некоторой точки, тем самым образуя выборку большого объема с большим количеством малоинформативных измерений, часть из которых повторяется или похожа друг на друга. Данное явление может объясняться особенностями оборудования контроля, особенностями самого объекта и процесса (например, его стационарностью), сбоями в работе системы, наличием человеческого фактора, наличием шумов. Эти факторы могут приводить к появлению выбросов, пропусков и др. Поэтому появилась необходимость в обработке, очищении исходной выборки, чем и занимается предлагаемый алгоритм генерации новой рабочей выборки. Стоит подчеркнуть, что данный алгоритм предлагается для увеличения эффективности решения задачи идентификации и многих других задач, и не является приемлемым с точки зрения другой научной области – математической статистики, но этого и не требуется.

Если осуществить процесс генерации новой «рабочей» выборки из исходной обучающей (, где -ое измерение выхода,-ое измерение вектора входа) на основе создания равномерной сетки в пространстве и вычисления в ее узлах непараметрической оценки , то можно получить другую «рабочую» выборку , где . На этой выборке вводится новый тип стохастических аппроксимаций из класса Н-аппроксимаций. Вычислительные эксперименты показывают, что объем рабочей выборки, при практически том же качестве оценивания регрессионных характеристик, значительно меньше исходной обучающей выборки. Для генерации элементов «рабочей» обучающей выборки используется соответствующий непараметрический индикатор.

Целесообразно рассмотреть алгоритм генерации новой «рабочей» выборки более подробно:

1. Пусть мы располагаем априорной информацией в виде исходной выборки измерений параметров некоторой системы, для которой происходит решение задачи идентификации, моделирования или некоторые другие исследования.

2. Далее происходит настройка значений параметров размытости для представленной ниже непараметрической оценки Надарая-Ватсона (2) с использованием некоторых оптимизационных процедур (выбор алгоритма оптимизации зависит от предпочтений исследователя), где s- объем исходной выборки, , - размерность пространства измерений.

3. Затем происходит построение непараметрической оценки Надарая-Ватсона (2) с использованием ранее настроенных значений параметров размытости [3]:

где колоколообразное ядро; значения выхода; - значения входа; ; ; - размерность; s - объем выборки.

4. Затем происходит построение равномерной сетки с количеством узлов . Шаг в сетке для каждой оси задается исходя из цели, которую преследует исследователь, т.е. насколько хочет уменьшить объем выборки. Стоит отметить, что не является конечным значением объема выборки, которая будет сгенерирована в конце работы алгоритма, так как не все узлы данной сетки попадут в конечную выборку. Для работы алгоритма необходимо задавать равномерную сетку на области, покрывающей область определения выборки. При этом если задать сетку на области, превышающей по размеру область определения, то алгоритм за счет специального индикатора проигнорирует точки, лежащие вне области определения выборки.

5. Осуществляется «отсеивание» некоторых узлов данной равномерной сетки с помощью индикатора, который является знаменателем непараметрической оценки, формула которой приведена выше. То есть индикатор имеет следующий вид:

Индикатором отсеиваются те узлы равномерной сетки, значение индикатора в которых равно нулю. Остальные узлы сетки становятся точками новой «рабочей» выборки.

6. Таким образом, после работы индикатора получается новая выборка входов объемом . В оставшихся узлах сетки вычисляются значения выхода с помощью уже упомянутой ранее непараметрической оценки Надарая-Ватсона. В результате работы алгоритма сгенерирована новая «рабочая» выборка объемом .

7. Далее целесообразно построить оценку регрессии по данной выборке с помощью H-аппроксимации [2]:

где – новые значения параметров размытости; – значения выходов в новой «рабочей» выборке (значения непараметрической оценки Надарая-Ватсона); H-ядро (содержит внутри себя ядро и длины областей определения для каждой переменной); – значения входов в новой «рабочей» выборке; .

В этом алгоритме удобно использовать H-аппроксимацию вместо классической непараметрической оценки, так как мы сами формируем выборку входа и делаем эту выборку равномерной, т.е. создаем равномерную сетку. При этом мы знаем, что эта выборка имеет равномерную плотность распределения, причем, параметры этой плотности нам известны, поэтому удобнее от обычной непараметрической оценки, в которой в знаменателе стоит выражение, связанное с непараметрической оценкой плотности распределения входа, перейти к самой плотности входа. Ниже рассмотрен вывод H-оценки:


где – равномерная плотность функции распределения входа;

; и определяют нижнюю и верхнюю границу области определения выборки для каждой переменной .

Таким образом, H-оценка (конкретно для данного алгоритма) имеет вид (4).

Ниже приведен пример генерации рабочей выборки для размерности .

Истинная зависимость:. Общий объем выборки (включая «сгущения») из области определения и . Количество «сгустков» объемом . На выборку наложена 10%-помеха (центрированная), распределенная по равномерному закону.

Выборка на плоскости выглядит следующим образом (рисунок 2):

Рис. 2. Исходная выборка


В результате работы алгоритма и индикатора объем новой «рабочей» выборки составил . Далее в оставшихся точках сетки были вычислены значения выхода, была построена H- аппроксимация. И при этом ошибка аппроксимации имела тот же порядок малости, что и при построении оценке на исходной выборке, несмотря на то, что . Ниже приведены графики, на которых сравнивается исходная выборка со сгенерированной «рабочей» (рисунки 3а, 3б):

Рис. 3а. Плоскость . Исходная выборка представлена точками темного цвета, сгенерированная – более светлого цвета

Рис. 3б. Плоскость


Таким образом, в дальнейших исследованиях некоторого процесса или объекта лучше использовать сгенерированную новую «рабочую» выборку, т.к. при незначительно малом изменении ошибки объем выборки значительно уменьшается, отбрасываются малоинформативные измерения, восстанавливаются пропуски в выборке.

Модифицированная непараметрическая оценка. В статье рассматривается так же случай оценивания регрессионных характеристик при неравномерно распределенных элементах исходной обучающей выборки. Для этого была введена и исследована непараметрическая оценка кривой регрессии по наблюдениям с шумами [4], использующая в вычислительной формуле вместо измерения выхода объекта () гиперплоскость ( – временные векторы, состоящие из точек области -го измерения; обозначает количество точек в такой области), аппроксимирующую некоторую окрестность точки (окрестность состоит из точек, выбираемых из соображения их близости к относительно некоторого расстояния h, определяемого экспериментальным путем):

где – вектор точек, лежащих в окрестности точки .

Таким образом, каждой точке выборки поставлена в соответствие некая гиперплоскость, параметры которой определяются с помощью МНК (метод наименьших квадратов).

Данная непараметрическая оценка демонстрирует свою эффективность на выборках, в которых имеются пропуски, и на выборках, объем которых невелик.

Рассматривается алгоритм построения такой модифицированной непараметрической оценки на примере случая, когда вход – скаляр.

Дана некоторая выборка измерений , где (- измерения входа, – измерения выхода, – объем выборки). Необходимо построить оценку регрессии, которая основывается на данной выборке. При этом существует вероятность, что в выборке имеются пропуски или кол-во измерений в выборке невелико.

Сначала происходит оптимизация параметра размытости для непараметрической оценки Надарая-Ватсона (2). Затем значение параметра размытости принимается за радиус окрестности для любой точки выборки , где . При этом допускается варьирование параметром .

Далее с помощью МНК происходит расчет параметров гиперплоскостей (для данного случая прямых), аппроксимирующих окрестность рассматриваемой точки, для каждой точки в выборке. Т.е. вычисляются параметры и , задающие прямую, для каждой точки выборки , где . При этом в МНК для подсчета параметров прямой, соответствующей определенной точке выборки (), используются только те точки, которые попадают в окрестность точки , т.е. удовлетворяют условию (- переменная входа некоторой точки, которая попадает в окрестность точки ).

На рисунке 4 изображена окрестность точки некоторой выборки и прямая, ее аппроксимирующая:

Рис. 4. Окрестность точки (выделена красным цветом)


Далее происходит построение самой модифицированной оценки с найденными параметрами прямых:

В результате исследований данной оценки ошибка идентификации по сравнению с классической непараметрической оценкой имеет значение на порядок, а в некоторых случаях и на несколько порядков меньше. Данный результат объясняется привлечением дополнительной полезной информации о поведении соседних с точек.

Ниже приведен пример работы такой модифицированной непараметрической оценки для размерности .

Истинная зависимость: . Выборка входа была получена на области определения случайным образом (генератор случайных чисел, равномерный закон). Объем выборки составил .

Выборка на плоскости выглядит следующим образом (рисунок 5):

Рис. 5. Исходная выборка


В результате работы данной модифицированной оценки была получена ошибка: . Ниже приведен график этой оценки в сравнении с выборкой (рисунок 6а):

Рисунок 6а. Рисунок 6б.


В результате работы обычной непараметрической оценки была получена ошибка: , что на несколько (2 порядка) больше чем у модифицированной оценки. Выше приведен график этой оценки в сравнении с выборкой (рисунок 6б):

Данная модифицированная оценка, использующая МНК, дает хорошие результаты оценивания даже при работе с малым объемом выборки.

В заключение стоит отметить, что представленные исследования позволяют повысить эффективность моделирования стохастических систем.


Огромная благодарность выражается моему научному руководителю Медведеву Александру Васильевичу за его терпение, постоянную поддержку и труд, вложенный в меня.


Литература:

  1. Эйкхофф П. Основы идентификации систем управления / П. Эйкхофф. – М.: Мир, 1975. – 683с.

  2. Медведев А.В. Непараметрические системы адаптации / А.В. Медведев. – Новосибирск: Наука, 1983. – 174 с.

  3. Надарая Э.А. Непараметрические оценки плотности вероятности и кривой регрессии / Э.А. Надарая. – Тбилиси: изд. Тбил. ун-т, 1983. – 194 с.

  4. Катковник В.Я. Непараметрическая идентификация и сглаживание данных: метод локальной аппроксимации / В.Я. Катковник. – М.: Главная редакция физико-математической литературы, 1985. – 336 с.

Обсуждение

Социальные комментарии Cackle