Цыпкин Я.З. Информационная теория идентификации

1

Upload: any6804

Post on 02-Jan-2016

307 views

Category:

Documents


15 download

TRANSCRIPT

Page 1: Цыпкин Я.З. Информационная теория идентификации

Я.З.ЦЫПКИН

ИНФОРМАЦИОННАЯТЕОРИЯИДЕНТИФИКАЦИИ

Page 2: Цыпкин Я.З. Информационная теория идентификации

ББК 32.81Ц97

УДК 62-51

Издание осуществляется при финансовой под-держке Российского фонда фундаментальныхисследовании согласно проекту 95-01-00034.

Ц ы п к и н Я . 3. Информационная теория идентификации. — М.: Наука.Физматлит, 1995. — 336 с. — ISBN 5-02-015071-1.

Излагается информационная теория идентификации, позволяющая учитыватьаприорную информацию о структуре динамических объектов, помехах, областипринадлежности неизвестных параметров объекта. Определяются оптимальныенастраиваемые модели, оптимальные и оптимальные на классе критерии качестваидентификации, оптимальные и оптимальные на классе или робастные алгоритмыидентификации. Изучаются свойства этих алгоритмов: Приводятся многочислен-ные примеры. Алгоритмы идентификации динамических объектов с постоянны-ми параметрами обобщаются на случай нестационарных динамических объектов.Обсуждается возможность использования нейронных сетей для идентификациисложных нелинейных объектов.

Для научных и инженерно-технических работников в области кибернетики иавтоматики, а также для аспирантов и студентов.

Табл. 12. Ил. 108. Библиогр. 471 назв.

Р е ц е н з е н тдоктор технических наук А. И. Пропой

Научное издание

ЦЫПКИН Яков Залманович

Информационная теория идентификации

Редакторы А. В. Назин, Л. В. БогачевКорректор О. Ф. Алексеева

ИБ 41679

ЛР JV* 020297 от 27.11.91

Подписано к печати с оригинал-макета 25.09.95.Формат 60x90/16. Бумага книжно-журнальная. Печать офсетная.Усл. печ. л. 21. Уч.-изд. л. 23,1. Тираж 1000 экз.Заказ тип. № 3308 С-046.

Издательская фирма«Физико-математическая литература» РАН117071 Москва В-71, Ленинский проспект, 15

Отпечатано в Московской типографии № 2 РАН121099 Москва Г-99, Шубинский пер., 6

ISBN 5-02-015071-1

Page 3: Цыпкин Я.З. Информационная теория идентификации

Оглавление

Предисловие . 6

Введение 10

Г л а в а 1. Задача идентификации и ее особенности 13§1.1. О методах идентификации 13§ 1.2. Объекты и их классификация 17§ 1.3. Настраиваемая модель 25§1.4. Критерий качества идентификации и оптимальное решение 35§ 1.5. Алгоритмы идентификации 40§ 1.6. Асимптотическая скорость сходимости алгоритмов 44§ 1.7. Оптимальные алгоритмы идентификации 50§ 1.8. Заключение 56

Г л а в а 2. Оптимальные функции потерь 58

§ 2.1. Эмпирические средние потери и оценки оптимального решения . . . 58§2.2. Асимптотические свойства оценок и средних потерь 60§ 2.3. Предельно возможная скорость сходимости оценок 64§ 2.4. Определение оптимальной функции потерь 68§ 2.5. Свойства оптимальной функции потерь 72§ 2.6. Заключение 78

Г л а в а 3. Абсолютно оптимальные алгоритмы идентификации . . 80

§ 3.1. Формирование оптимальных и абсолютно оптимальных алгоритмов 803 3.2. Основные виды абсолютно оптимальных алгоритмов 833 3.3. Абсолютно оптимальные алгоритмы с настройкой параметра мас-

штаба 88§ 3.4. Одномерные абсолютно оптимальные и оптимальные алгоритмы и

их свойства 95

Page 4: Цыпкин Я.З. Информационная теория идентификации

4

§ 3.5. Многомерные абсолютно оптимальные и оптимальные алгоритмы иих свойства 108

§ 3.6. Заключение 119

Г л а в а 4. Оптимальные на классе функции потерь. 121§ 4.1. Априорная информация о помехах и классы распределений 121§ 4.2. Понятие оптимальности на классе 126§ 4.3. Принцип оптимальности на классе 130§ 4.4. Вариационные задачи минимизации и методика их решения 132§ 4.5. Оптимальные на классе функции потерь для Р-объектов с простой

помехой 139§ 4.6. Оптимальные на классе функции потерь для АР-объектов 146§ 4.7. Оптимальные на классе функции потерь для РАР-объектов и Р-объ-

ектов с преобразованной помехой 152§ 4.8. О грубости оценок оптимального решения . 158§ 4.9. Оптимальность на классе и робастность 162§ 4.10. Заключение 163

Г л а в а 5. Абсолютно оптимальные на классе алгоритмы иденти-фикации 164§ 5.1. Формирование абсолютно оптимальных на классе алгоритмов . . . . 164§ 5.2. Реализуемые абсолютно оптимальные на классе алгоритмы 165§ 5.3. Абсолютно оптимальные на классе алгоритмы с настройкой параме-

тра масштаба 171§ 5.4. Одномерные абсолютно оптимальные на классе алгоритмы 173§ 5.5. Многомерные абсолютно оптимальные на классе алгоритмы 180§ 5.6. Заключение 185

Г л а в а 6. Алгоритмы идентификации неминимально-фазовых повозмущению объектов 186§ 6.1. Неминимально-фазовые объекты 186§ 6.2. Особенности оптимальной настраиваемой модели 188§ 6.3. Преобразование плотностей распределения линейным дискретным

фильтром J 192§ 6.4. Оптимальные и оптимальные на классе функции потерь 197§ 6.5. Абсолютно оптимальные и абсолютно оптимальные на классе алго-

ритмы 199§ 6.6. Примеры 201§ 6.7. Заключение 203

Г л а в а 7. Акселерантные алгоритмы идентификации 205

§ 7.1. Об акселеризации оценок оптимального решения 205§ 7.2. Представление априорной информации об оптимальном решении . . 206§ 7.3. Обобщенные эмпирические средние потери 208§ 7.4. Акселерантные абсолютно оптимальные алгоритмы 210§ 7.5. Акселерантные абсолютно оптимальные на классе алгоритмы . . . . 214§ 7.6. Линейные акселерантные алгоритмы 219§ 7.7. Выбор оптимальных входных воздействий 224§ 7.8. Примеры 230§ 7.9. Заключение 231

Г л а в а 8. Модифицированные алгоритмы идентификации 233§ 8.1. О возможных модификациях алгоритмов 233§ 8.2. Алгоритмы со скалярной матрицей усиления 234§ 8.3. Усредненные алгоритмы со скалярной матрицей усиления 236

Page 5: Цыпкин Я.З. Информационная теория идентификации

5

к 8,4. Алгоритмы с упрощенным градиентом функции потерь 241§8.5. Алгоритмы идентификации при коррелированной помехе 244§ 8.6* Алгоритмы идентификации некоторых классов нелинейных объектов 248§ 8.7. Примеры 251§ g.8. Бще о возможности акселеризации алгоритмов 255§ 8.9. О критериальных алгоритмах идентификации 258§ 8.10. Заключение 261

Г л а в а 9. Алгоритмы идентификации нестационарных объектов 262

§ 9.1. Описание нестационарных динамических объектов и их особенности 262§ 9.2. Критерий качества и алгоритмы идентификации 265§ 9.3. Оптимальные алгоритмы 267§ 9.4. Абсолютно оптимальные алгоритмы 271§ 9.5. Оптимальные алгоритмы для многошаговых моделей дрейфа . . . . 273§ 9.6. Упрощенные алгоритмы 274§ 9.7. Акселерантные алгоритмы 276§ 9.8. Заключение 278Г л а в а 10. Введение в искусственные нейронные сети 279

§ 10.1. О нейронных сетях 279§ 10.2. Структуры нейронных сетей 280§ 10.3. Условие оптимальности 283§ 10.4. Алгоритмы настройки нейронной сети 287§ 10.5. Алгоритмы настройки общей нейронной сети 289§ 10.6. Заключение 290

Послесловие 291

Комментарии 295

Список литературы 310

Page 6: Цыпкин Я.З. Информационная теория идентификации

Предисловие

Задаче идентификации посвящено необозримое число работ, отличаю-щихся не только типами объектов, которые необходимо идентифици-ровать, но и самими методами и алгоритмами идентификации. Боль-шое внимание в этих работах уделяется идентификации линейных ди-намических объектов, описывающихся дифференциальными или раз-ностными уравнениями с неизвестными коэффициентами. Среди раз-нообразных алгоритмов идентификации, предназначенных для оце-нивания коэффициентов уравнений по наблюдаемым данным, чащевсего используются рекуррентные алгоритмы, позволяющие осуще-ствить идентификацию в режиме нормальной работы объекта.

Принципы формирования алгоритмов идентификации тесно свя-заны с выбором уравнения, использующего наблюдаемые данные иаппроксимирующего уравнения объекта, выбором критерия качестваэтой аппроксимации (функции потерь) и, наконец, выбором методаоптимизации критерия. Эти принципы до самого последнего време-ни были в значительной мере произвольны и зависели во многом отвкусов и возможностей исследователя. Они вырабатывались и утвер-ждались на основе различных эвристических соображений и, в част-ности, удобства работы с выбираемыми уравнениями аппроксимации,критериями и алгоритмами.

Такой произвол обусловил безраздельное господство линейной ап-проксимации уравнения объекта и квадратичного критерия. В резуль-тате задача идентификации часто сводилась к решению системы ли-нейных уравнений. Но практика показала, что не всегда такой выбор

Page 7: Цыпкин Я.З. Информационная теория идентификации

уравнения аппроксимации и критерия приводит к утешительным ре-зультатам. Естественно, возникли вопросы: как выбирать уравнениеаппроксимации, критерий, а затем и алгоритм, которые бы гаранти-ровали получение удовлетворительного, а если возможно, то и наилуч-шего в рассматриваемых условиях решения задачи идентификации?

Цель излагаемой в данной книге информационной теории иденти-фикации состоит в том, чтобы дать ответ на эти вопросы.

Книга состоит из десяти глав.В первой главе приводится формулировка задачи идентификации

и дается краткая характеристика известной методологии. Описыва-ются типичные линейные объекты и приводятся их уравнения. Этиуравнения положены в основу классификации объектов. Обсуждает-ся вопрос о выборе уравнений аппроксимации, определяющих ту илииную настраиваемую модель. Естественно потребовать, чтобы эта на-страиваемая модель наилучшим, в каком-то смысле, образом предска-зывала выходную величину объекта. Оказывается, что такая опти-мальная модель существует; ее структура зависит от точки прило-жения к объекту помех. Далее рассмотрены свойства критериев ап-проксимации, характеризующих качество идентификации. Приводят-ся условия оптимальности и выясняются свойства оптимального ре-шения, определяющего неизвестные параметры идентифицируемогообъекта. Наконец, приводятся алгоритмы идентификации и указы-ваются их особенности. Определяется асимптотическая скорость схо-димости алгоритмов идентификации и устанавливаются оптимальныепо скорости сходимости алгоритмы идентификации.

Вторая глава посвящена выяснению влияния функции потерь наасимптотические свойства оценок оптимального решения и среднихпотерь. Здесь изучается вопрос о предельно возможной скорости схо-димости оценок оптимального решения и определяется, оптимальнаяфункция потерь, при которой эта предельно возможная скорость схо-димости максимальна.

В третьей главе показано, что оптимальная функция потерь по-зволяет сформировать алгоритмы, обладающие предельно возможнойскоростью сходимости. Эти алгоритмы названы абсолютно оптималь-ными. Они оптимальны не только по матрице усиления, но и по функ-ции потерь. Здесь же приводятся абсолютно оптимальные алгоритмыс настройкой параметра масштаба. Подробно исследуются свойстваконкретных одномерных и многомерных алгоритмов. Отметим, чтооптимальная функция потерь, а значит, и абсолютно оптимальныеалгоритмы могут быть определены лишь при полной априорной ин-формации относительно помех, т. е. когда плотность распределенияпомех известна.

В четвертой главе рассматриваются случаи, когда априорная ин-формация о помехах не полна, т. е. плотность распределения поме-хи полностью не известна. Здесь вводится понятие оптимальной на

7

Page 8: Цыпкин Я.З. Информационная теория идентификации

8

классе функции потерь. Описываются классы распределения помех,характеризующие различные уровни априорной информации о поме-хах. Формулируется принцип оптимальности на классе и обсуждают-ся методы решения вариационных задач минимизации на классе. При-водятся примеры оптимальных на классе функций потерь. Устанавли-вается связь между оптимальностью на классе и робастностью, т. е.нечувствительностью свойств оценок при малых отклонениях функ-ций потерь от оптимальных.

Пятая глава посвящена формированию абсолютно оптимальных наклассе алгоритмов идентификации, в том числе и алгоритмов с на-стройкой параметра масштаба. Выясняются свойства абсолютно оп-тимальных на классе алгоритмов.

В шестой главе рассмотрен сравнительно новый вопрос, связанныйс идентификацией неминимально-фазовых по возмущению объектов.Обсуждается специфика неминимально-фазовых объектов и показы-вается, как использовать полученные в предыдущих главах результа-ты, чтобы охватить и этот класс объектов, весьма важный для при-ложений. Здесь, однако, возникают новые задачи, которые к настоя-щему времени полностью не решены.

Седьмая глава посвящена учету априорной информации об иско-мом решении. Эта априорная информация не влияет на асимптоти-ческие свойства алгоритмов, но она обеспечивает ускорение получе-ния оценок оптимального решения. Такие алгоритмы уместно назы-вать акселерантными. Они осуществляют также регуляризацию по-лучаемых оценок. Акселерантные абсолютно оптимальные на клас-се алгоритмы полностью учитывают имеющуюся в наличии априор-ную информацию о решении и о помехах и являются оптимальнымив условиях неполной априорной информации. Подробно рассмотренылинейные акселерантные абсолютно оптимальные на классе алгорит-мы. Указано на возможность улучшения алгоритмов за счет управле-ния входными воздействиями.

В восьмой главе приводятся различные модификации акселерант-ных абсолютно оптимальных на классе алгоритмов. Эти модифика-ции, с одной стороны, касаются упрощения алгоритмов (упрощенияматрицы усиления или градиента функции потерь), а с другой сто-роны, они охватывают более сложные задачи идентификации (учеткоррелированности помех и идентификация нелинейных объектов).Рассмотрены также критериальные алгоритмы.

В девятой главе, написанной совместно с М. В. Бондаренко, изло-жены алгоритмы идентификации нестационарных объектов, параме-тры которых являются функциями времени.

Десятая глава, написанная совместно с Э. Д. Аведьяном, посвященанейронным сетям и их применению для идентификации объектов. Вней показано, что приведенные в предшествующих главах алгоритмыпо существу используются в нейронных сетях.

Page 9: Цыпкин Я.З. Информационная теория идентификации

Почти во всех главах приведены конкретные числовые примеры,иллюстрирующие свойства и особенности алгоритмов идентифика-ции, а также эффективность абсолютно оптимальных на классе ал-горитмов.

Излагаемая в книге информационная теория идентификации осно-вана на общем подходе, связанном с вероятностными рекуррентнымиалгоритмами оптимизации в условиях неопределенности. Этому под-ходу были посвящены предшествующие книги автора: «Адаптация иобучение в автоматических системах» (М.: Наука, 1968) и «Основы те-ории обучающихся систем» (М.: Наука, 1970). Вопросы оптимизациимоделей, функций потерь и алгоритмов были впервые систематическирассмотрены в книге автора «Основы информационной теории иден-тификации» (М.: Наука, 1984). Для настоящего издания материал этойкниги был существенно переработан и дополнен рассмотрением рядановых вопросов.

Из всех задач оптимизации в условиях неопределенности мы огра-ничились в настоящей книге лишь одной задачей — задачей иденти-фикации. Это позволило наиболее рельефно показать, какие возмож-ности открывает учет априорной информации различного уровня какпри формулировке, так и при решении задач идентификации. Пре-жде всего, учет этой априорной информации вносит в теорию иден-тификации определенность, однозначность. Такая однозначность не-привычна, но очень удобна, и автор надеется, что заинтересованныйчитатель к этому быстро привыкнет.

В настоящей книге, как и в упомянутых выше книгах, нет последо-вательности лемм, теорем и их подробных доказательств. Это сделаноне только потому, что нам хотелось в основном тексте рельефно из-ложить главные идеи, закономерности и методы, но и потому, что невсе высказанные положения могут быть в настоящее время формальнообоснованы.

В основном тексте отсутствуют литературные ссылки. Они при-водятся в комментариях, помещенных в конце книги. Там же можнопознакомиться с обсуждением и сравнением полученных результатовс ранее известными, а также с различного рода замечаниями по рас-сматриваемому кругу вопросов.

Известен афоризм: «Чистая математика делает то, что можно, так,как нужно; прикладная — то, что нужно, так, как можно». Эта книгаследует принципу прикладной математики.

При подготовке книги к печати неоценимая помощь мне была ока-зана ее редактором А. В. Назиным. Я очень благодарен Э. Д. Аве-дьяну, М. В. Бондаренко, А. В. Назину и Л. В. Богачеву за помощь,которая позволила завершить эту книгу.

Москва, 1995

Я. Цыпкин

9

Page 10: Цыпкин Я.З. Информационная теория идентификации

Введение

Задача идентификации систем, т. е. определение структуры и пара-метров систем по наблюдениям, является одной из основных задач со-временной теории и техники автоматического управления. Эта задачавозникает при изучении свойств и особенностей объектов с целью по-следующего управления ими, либо при создании адаптивных систем,в которых на основе идентификации объекта вырабатываются опти-мальные управляющие воздействия. К различным вариантам задачиидентификации, по существу, приводят статистические методы обра-ботки экономической, биологической, медицинской информации.

Наиболее часто используется идентификация в режиме нормаль-ной работы. По наблюдаемым входным воздействиям и выходнымвеличинам объекта подбираются параметры настраиваемой модели,обеспечивающие экстремум некоторого критерия, характеризующе-го качество идентификации. Изменение параметров настраиваемоймодели осуществляется при помощи адаптивных устройств, реали-зующих алгоритмы идентификации.

К настоящему времени предложены различные адаптивные алго-ритмы идентификации. Многочисленность и разнообразие настраи-ваемых моделей, критериев и алгоритмов, естественно, затрудняетрешение конкретных задач идентификации. Это обстоятельство вы-звало к жизни специальные работы по экспериментальному исследо-ванию и сравнению алгоритмов идентификации для типовых задач.К сожалению, результаты этих работ, кроме констатации отдельныхфактов, не позволяют установить какие-либо общие закономерности.

Page 11: Цыпкин Я.З. Информационная теория идентификации

11

Практика применения адаптивных алгоритмов идентификацииобнаружила, что алгоритмы простейшей формы — типа стохасти-ческой аппроксимации — часто оказывались неработоспособными.Оценки параметров настраиваемой модели, даваемые этими алгорит-мами, во многих случаях зависели от произвола в выборе начальныхзначений, а сходимость алгоритмов часто была очень медленной. По-пытки улучшения или оптимизации этих алгоритмов за счет заменыскалярного коэффициента усиления матричным и подбора элементовэтой матрицы, как это делается в рекуррентной форме метода наи-меньших квадратов, не всегда приводили к удаче. Подобные опти-мальные алгоритмы, несмотря на теоретическую сходимость и мини-мальность асимптотической дисперсии, в ряде случаев практическиоказывались несходящимися.

Такое поведение адаптивных алгоритмов идентификации вызыва-лось несоответствием используемых алгоритмов условиям, характе-ризующим конкретные задачи идентификации. Так, алгоритмы типастохастической аппроксимации слишком универсальны. Они не учи-тывают имеющуюся априорную информацию как о помехах, так и осамом решении, т. е. о параметрах объекта. Оптимальные же алго-ритмы рекуррентной формы метода наименьших квадратов не все-гда оказываются адекватными априорной информации о помехах иобласти принадлежности параметров идентифицируемого объекта. Витоге выбираемые — по существу, наугад — алгоритмы идентифи-кации часто не приводили к надежным и обоснованным результатам.Поэтому возникла важная задача обоснованного выбора или, точнееговоря, формирования алгоритмов идентификации. Решение этой за-дачи тесно связано с возможностью учета в настраиваемых моделях,в критериях качества и, наконец, в алгоритмах идентификации име-ющейся в нашем распоряжении априорной информации.

Поскольку адаптивные алгоритмы идентификации определяютсяпринятой настраиваемой моделью идентифицируемого объекта и кри-терием качества идентификации, оценивающим близость модели иобъекта, то однозначный выбор алгоритма возможен лишь при одно-значном выборе настраиваемой модели и критерия. Таким образом,задача обоснованного, а значит, и однозначного формирования ада-птивного алгоритма сводится прежде всего к задачам выбора настра-иваемой модели и выбора критерия идентификации.

Современная теория идентификации предоставляет в распоряже-ние исследователя возможность широкого выбора настраиваемых мо-делей и критериев качества идентификации, а также большое числоалгоритмов идентификации. К сожалению, какие-либо указания о вы-боре настраиваемых моделей, критериев и алгоритмов, кроме сообра-жений простоты, отсутствуют.

Развиваемая в настоящей книге информационная теория иденти-фикации дает возможность устранить эту неопределенность и для ка-

Page 12: Цыпкин Я.З. Информационная теория идентификации

12

ждого конкретного класса задач идентификации, характеризуемоготем или иным уровнем априорной информации, однозначно опреде-лить настраиваемую модель, критерий качества идентификации и ал-горитм идентификации, обеспечивающий в определенном смысле наи-лучшее использование обрабатываемых данных для целей идентифи-кации. Такой подход привлекателен не только с точки зрения внесе-ния большей определенности в задачу идентификации и устранениянеобходимости в проведении сравнительного анализа разнообразныхалгоритмов, но также и потому, что он позволяет установить общиез акономерности.

Учет априорной информации в задаче идентификации связан с ши-роким использованием основных понятий теории информации и ста-тистики, таких, как информационные меры Шеннона, Кульбака, Фи-шера и разновидностей этих понятий. Поэтому развиваемую теориюидентификации уместно назвать информационной теорией идентифи-кации. Информационная теория идентификации позволяет не тольковнести определенность в постановку и решение разнообразных задачидентификации, но и по-новому взглянуть на традиционные методыидентификации, методы робастного [стабильного) оценивания^ ме-тоды регуляризации и методы планирования эксперимента.

На этом пути формируются асимптотически оптимальные алго-ритмы идентификации, т. е. алгоритмы, обладающие предельно воз-можной, максимальной скоростью сходимости, если известна плот-ность распределения помехи.

В том случае, когда плотность распределения помехи неизвестна, аизвестен лишь класс, которому она принадлежит, формируются асим-птотически оптимальные на классе алгоритмы идентификации, обла-дающие гарантированной скоростью сходимости. Замена в этих ал-горитмах нормированной информационной матрицы и фишеровскойинформации выборочными позволяет, не изменяя асимптотическихсвойств алгоритмов, придать им нужные свойства на конечных ша-гах.

Конечно, на пути развития информационной теории идентифика-ции возникает множество трудностей как формального характера,связанных с теми или иными доказательствами, так и не формально-го характера, связанных с используемыми предположениями. Но, каксказал С. Джонсон: «Если прежде, чем начать дело, было бы необхо-димо найти пути преодоления всех возможных препятствий, которыемогут встретиться в ходе его выполнения, то ни одно дело не бы-ло бы начато». Поэтому в комментариях читатель найдет множествовопросов, которые ждут ответа, и множество задач, ждущих своегорешения.

Page 13: Цыпкин Я.З. Информационная теория идентификации

— Скажите, пожалуйста, куда мне отсюда идти?— А куда ты хочешь попасть? — ответил Кот.— Мне все равно... — сказала Алиса.— Тогда все равно, куда и идти, — заметил Кот.— ...Только бы попасть куда-нибудь, — пояснила Алиса.— Куда-нибудь ты обязательно попадешь, — сказал

Кот. — Нужно только достаточно долго идти.

Льюис Кэррол

ГЛАВА 1

Задача идентификациии ее особенности

§ 1.1. О методах идентификации

Идентификация динамических объектов в общем случае состоит вопределении их структуры и параметров по наблюдаемым данным— входному воздействию и выходной величине. Идентификация осу-ществляется при помощи настраиваемой модели той или иной струк-туры, параметры которой могут изменяться. Функциональную схемуидентификации можно представить в виде, изображенном на рис. 1.1.В каждый момент времени п = 1,2,... ко входам объекта и настра-иваемой модели приложено внешнее воздействие и(п). Объект возму-щается также некоторой случайной ненаблюдаемой помехой £(п). Вы-ходная величина объекта у(п) зависит как от внешнего воздействияи помехи, так и от неизвестного вектора параметров с*. Выходнаявеличина настраиваемой модели у(п) зависит от вектора настраи-ваемых параметров с, который пересчитывается в силу алгоритма,обрабатывающего вектор всех наблюдений z(n). Набор этих наблю-дений зависит от конкретных задач идентификации.

Разность выходных величин объекта и настраиваемой модели об-разует невязку

е{х{п),с) = у{п)-у{п), (1.1.1)

Page 14: Цыпкин Я.З. Информационная теория идентификации

14

которая поступает на вход функционального преобразователя, изоб-раженного на рис. 1.1 двойным прямоугольником. Далее всегда пред-полагается, что объект работает в стационарном режиме, т. е. веро-ятностные характеристики последовательностей у(п), у(п), а значит,и z(n) не зависят от момента времени п. Такой режим называетсяобычно режимом нормальной работы.

Соответствие настраиваемой модели объекту, т. е. качество иден-тификации, оценивается критерием качества идентификации

J(c) = M{F[e(z(n),c)]}. (1.1.2)

Здесь F[-] — функция потерь, а М — символ математического ожи-дания.

Критерий качества идентификации (1.1.2) представляет собойсредние потери. Чем меньше средние потери, тем выше качество иден-тификации. Улучшение качества идентификации осуществляется над-лежащим выбором структуры настраиваемой модели и изменением еепараметров. Это изменение осуществляется алгоритмом идентифи-кации.

Алгоритм идентификации определяется функцией потерь и струк-турой настраиваемой модели. По наблюдениям входного воздействия

Page 15: Цыпкин Я.З. Информационная теория идентификации

15

я выходных величин объекта и настраиваемой модели алгоритм иден-тификации изменяет параметры последней так, чтобы средние потеридостигали с ростом п минимума. Эти условия соответствуют иденти-фикации в режиме нормальной работы объекта.

Идентификацию можно осуществить иным способом, а именно:провести специальные эксперименты на объекте, затем полученныерезультаты этих экспериментов обработать, приближенно восстано-вить средние потери и далее тем или иным способом минимизироватьвосстановленные средние потери. Такие алгоритмы минимизации непозволяют обрабатывать поступающие наблюдения последовательно,в режиме нормальной работы. Их мы не будем подробно рассматри-вать. В дальнейшем, говоря об идентификации, мы всегда будем иметьв виду идентификацию в режиме нормальной работы, если нет специ-альных оговорок.

Для решения задачи идентификации, как это следует из функцио-нальной схемы (рис. 1.1), необходимо:

1) очертить класс объектов;2) выбрать для этого класса объектов настраиваемую модель, т. е.

модель, параметры которой можно изменять;3) выбрать критерий качества идентификации — средние потери,

которые бы характеризовали различие между выходными величинамиобъекта и настраиваемой модели;

4) сформировать алгоритм идентификации, который, используядоступные для наблюдения значения входных и выходных величин,изменял бы параметры настраиваемой модели так, чтобы средние по-тери с ростом п достигали минимума.

Динамические объекты описываются дифференциальными урав-нениями (обыкновенными или в частных производных) с неизвестны-ми коэффициентами, либо интегральными уравнениями с неизвест-ным ядром. Динамические объекты, управляемые цифровыми вычи-слительными машинами (ЦВМ), а также разнообразные процессы, ха-рактеризуемые временными рядами, описываются разностными урав-нениями, которые являются дискретными аналогами дифференциаль-ных уравнений, либо уравнениями типа свертки (с неизвестнымядром). Как правило, объекты подвержены воздействию помех, кото-рые непосредственно не измеряются. Эти мешающие воздействия фи-гурируют в уравнениях динамического объекта. Коэффициенты этихУравнений неизвестны.

На основании сведений об объекте формируется настраиваемаямодель. Настраиваемая модель описывается уравнениями, подобнымиУравнениям объекта, либо соотношениями, содержащими измеряемыевходные и выходные величины, характеризующие состояние динами-ческого объекта. Коэффициенты этих уравнений или соотношенийявляются параметрами настраиваемой модели. Близость настраивае-мой модели к динамическому объекту характеризуется функционалом

Page 16: Цыпкин Я.З. Информационная теория идентификации

16

невязки — средними потерями J(c) (1.1.2). Минимизация средних по-терь достигается изменением параметров настраиваемой модели припомощи алгоритмов идентификации.

В современной теории идентификации выбор структуры настра-иваемой модели для заданного класса динамических объектов в зна-чительной мере произволен. Так, широко используются статическиенастраиваемые модели, описываемые соотношениями типа линейнойкомбинации измеряемых входных и выходных величин динамическогообъекта. Несколько реже применяются динамические настраиваемыемодели, описываемые уравнениями, подобными уравнениям объекта.Часто такие настраиваемые модели приводят к смещенным оценкампараметров. Тогда для устранения смещенности в настраиваемую мо-дель вводят оценки ненаблюдаемых помех, либо используют преобра-зованные тем или иным способом наблюдаемые величины (инструмен-тальные переменные).

Критерий качества идентификации в подавляющем большинстверабот выбирался квадратичным в виде среднего значения квадра-та невязки. Минимизация такого квадратичного критерия во мно-гих случаях сводилась к решению системы линейных алгебраическихуравнений. Возможность получения теоретически точного результатана основе различных вариантов метода наименьших квадратов обес-печила господствующее положение квадратичному критерию иденти-фикации. Значительно реже использовались критерии качества иден-тификации, отличные от квадратичных, например, модульный кри-терий типа среднего значения абсолютной величины невязки.

Что же касается алгоритмов идентификации, то здесь широкоераспространение получили рекуррентный метод наименьших квадра-тов, а также различные варианты метода стохастической аппрокси-мации. Простота и универсальность последнего метода позволила неограничиваться квадратичными критериями идентификации и фор-мировать разнообразные как линейные, так и нелинейные алгорит-мы идентификации. Появление большого числа различных алгоритмовидентификации вызвало к жизни работы по их сравнительному ана-лизу. Разумеется, такой анализ иногда позволял выделить лучший изсравниваемых алгоритмов. Но является ли этот алгоритм наилучшимв рассматриваемой задаче идентификации, — на этот вопрос покаответа не было.

Развитая к настоящему времени теория идентификации предла-гает огромное число методов и способов, но эта теория не касает-ся вопросов обоснованного выбора метода, т. е. выбора настраива-емой модели, критерия качества идентификации и алгоритмов. Вы-бор настраиваемых моделей и алгоритмов является скорее искусством,чем наукой. Поэтому много усилий затрачивается на эксперименталь-ное исследование выбранных настраиваемых моделей и алгоритмов исравнение их с ранее предложенными.

Page 17: Цыпкин Я.З. Информационная теория идентификации

17

Теория идентификации также не пытается объяснить причины не-удовлетворительной работы тех или иных конкретных алгоритмов.Поэтому особенно важно рассмотреть возможности обоснования вы-бора настраиваемой модели, критерия и алгоритма идентификации,которые бы гарантировали не только удовлетворительную работу ал-горитмов, но и наилучшее, в том или ином смысле, решение конкрет-ных задач идентификации. Все это и составляет содержание инфор-мационной теории идентификации.

§ 1.2, Объекты и их классификация

Динамические объекты описываются дифференциальными, интег-ральными или функциональными уравнениями относительно некото-рых координат, характеризующих их состояние. Широкое примененияцифровых вычислительных машин для управления этими объектамиприводит к необходимости описать эти объекты разностными илисуммарными уравнениями, которые определяются на основании из-вестных способов теории дискретных систем по дифференциальнымили интегральным уравнениям. Поэтому да-лее мы будем иметь дело с разностными илисуммарными уравнениями. Для наглядно-сти мы ограничимся рассмотрением линей-ных динамических объектов. Обобщение наопределенные классы нелинейных объектов,как будет видно из дальнейшего, не пред-ставит труда.

В общем случае уравнение линейных ди-намических объектов при наличии входно-го воздействия и(п) и помехи £(п) (рис. 1.2) может быть представленов виде линейного разностного уравнения

N N N

m=l m=0 m=0

где n = 0,1,2,... — дискретное время.Введем оператор запаздывания q, определяемый как

qmy(n) = y(n-m), m = 1,..., TV; (1.2.2)

тогда уравнение линейных динамических объектов можно записать воператорной форме

Q(q)y(n) = Pu(q)u(n) + Р(№{п), (1.2.3)

или

у(п) = Ku(q)u(n) + K((q)t{n), (1.2.4)

Page 18: Цыпкин Я.З. Информационная теория идентификации

18

где

— передаточные функции динамического объекта по воздействию ивозмущению соответственно.

В уравнении (1.2.3) и передаточных функциях (1.2.5)

Q(q) = l + *ti+ .- + a*NqN (1.2.6)

— характеристический полином, а

Pu(q) = b*0 + blq+... + b*NqN,

Pc(q) = ds + diq + ... + d;fqtr

— полиномы по воздействию и по возмущению соответственно. Ра-венство степеней всех этих полиномов не является ограничением (еслиэто не так, достаточно приравнять старшие коэффициенты нулю).

Блок-схема динамическогообъекта, описываемого урав-нением (1.2.4) или, что эквива-лентно, (1.2.3), (1.2.1), приве-дена на рис. 1.3.

Идентификация динамиче-ских объектов непосредствен-но по наблюдаемым входным,г/(га), и выходным, у (га), вели-чинам может быть осущест-влена лишь тогда, когда ди-намический объект устойчив,т.е. когда его реакция на огра-ниченные воздействия такжеограниченна. Но, как известно

из теории дискретных систем, для того чтобы линейный динамиче-ский объект был устойчивым, необходимо и достаточно, чтобы всекорни qu, v — l,...,iV, характеристического полинома Q(q) (1.2.6)лежали вне единичного круга с центром в начале координат:

Ы > 1 , v=l,...,N. (1.2.8)

Полином, нули которого удовлетворяют условию (1.2.8), для кратко-сти будем называть внешним полиномом.

Критерии, позволяющие судить об устойчивости динамических си-стем по коэффициентам характеристического полинома, широко из-вестны. Они приводятся в руководствах по теории дискретных си-

Page 19: Цыпкин Я.З. Информационная теория идентификации

19

стем, и мы не будем их здесь выписывать. Далее всегда будет предпо-лагаться устойчивость идентифицируемых динамических объектов.

Назовем динамический объект минимально-фазовым, если поли-номы Ри{я) и Р({я) внешние, т. е. если все их нули лежат вне еди-ничного круга с центром в начале координат. В противном случае,если не все нули полиномов Pu{q) и (или) P^{q) лежат вне единичного

круга с центром в начале координат, будем называть динамическийобъект неминимально-фазовым по воздействию и (или) по возмуще-нию. Уравнения линейных динамических объектов (1.2.1), или (1.2.4),(1.2.5), являются наиболее общими. Они охватывают в качестве част-ных случаев различные объекты и процессы: регрессии, авторегрес-сии, скользящего среднего, временные ряды и т. п.

Рассмотрим, как меняются уравнения динамических объектов приизменении точки приложения возмущения — помехи £(п). Предполо-жим, что помеха приложена ко входу объекта (рис 1.4). Тогда

K((q) = Ku(q), т .е . P((q) = Pu(q). (1-2.9)

В этом случае

<С = *т. т = 0,1,...,ЛГ, (1.2.10)

и уравнения объекта (1.2.1), (1.2.4) принимают вид

N N

»(") + £ О"(«-"»)= £ С И"-"*)+*(n-m)] (1.2.11)т=1 т=0

И

у(п) = Ш~[и{п)+ап)]' (1'2Л2)

Если помеха приложена к выходу объекта (рис. 1.5), то

Kt{q)=-l, т.е. P((q) = Q{q). (1.2.13)

Page 20: Цыпкин Я.З. Информационная теория идентификации

20

В этом случае

dS = l и d*m = a*m, m = l , . . . , N , (1.2.14)

и уравнения объекта (1.2.1), (1.2.4) принимают вид

N N

У(п) - *(«) + £ а*т[у(п - т) - Цп - т)] = £ Ь*ти(п - т) (1.2.15)m=l m=0

И

y(n) = ^u(n)+t(n)- (1.2.16)

Наконец, существует такая точка приложения помехи, для которой

Ki{q) = ~WY Т'е' P(iq) = 1- ( 1 2 1 7 )

В этом случае

d*0 = l и « ^ = 0 , m=l,...,N, (1.2.18)

и уравнения объекта (1.2.1), (1.2.4) запишутся в видеN N

У(П) + J2 а™ У(П ~ ™) = J2 Ь*ти(П ~ ™) + « Н (1.2Л9)т=1 т=0

И

»w = W«w+o5i«"'- с-2 2 0»Реакция выходной величины у(п), вызываемая помехой <J(n), в этомслучае не зависит от параметров 6J , m = 1,.. ., TV. Блок-схема тако-

го динамического объекта изо-бражена на рис. 1.6. Разностноеуравнение (1.2.19) особенно ча-сто фигурирует в работах поидентификации.

Заметим, что параметры с/^,если они отличны от нуля, за-висят, вообще говоря, от пара-метров a j , 6£, 6Q> * = 1,...,JV.Поэтому параметры a£, 6£, 6Q,fc = 1 , . . . , N, мы назовем основ-ными, а параметры б?^, m == 0 , 1 , . . . , N, выражающиеся че-рез основные, — вспомогатель-ными.

Page 21: Цыпкин Я.З. Информационная теория идентификации

21

Приведенные выше уравнения динамических систем являются наи-более общими. Рассмотрим некоторые частные случаи этих уравне-ний.

Пусть

Pi(9) = Q(9) = 1. (1-2.21)

т. е. d*0 = I и d*m = а*т = 0, т = 1,.. .,N.Это значит, что

Ku{q) = Pu{q) и Щ(Я) = 1. (1.2.22)

Тогда уравнения (1.2.4) и (1.2.1) соответственно принимают вид

y(n) = Pu(q)u(n)+Z{n) (1.2.23)

И

N

l/(")=X>m«(«-m)+4("). (1-2.24)m=0

Эти уравнения соответствуют динамическому объекту с конечнойдлительностью переходного процесса. Блок-схема такого динамиче-ского объекта изображена на рис. 1.7.

Уравнение, аналогичное (1.2.24), но в котором вместо Ц п — га)фигурирует гхт(п), т. е.

N

y(n)=Y,b*murn(n) + n), (1.2.25)m=0

соответствует статическому объекту с N -f 1 входами и одним вы-ходом (рис. 1.8).

Объекты, соответствующие уравнениям (1.2.24), (1.2.25), будем на-зывать регрессионными объектами, или кратко, V-объектами. Такимобразом, к Р-объектам относятся как динамические (1.2.24), так истатические объекты (1.2.25).

Page 22: Цыпкин Я.З. Информационная теория идентификации

22

Предположим теперь, что

ри(д) = о, Pt(i)ih ( L 2 - 2 6 )

т. е. rfg = 1, 60 = О и ^т = ^т = 0, тп = 1,.. ., N. Следовательно,

K»(q)mO, К;(9) = -щ, (1.2.27)

и уравнения (1.2.4), (1.2.1) соответственно запишутся в виде

у ( п ) = ш * ( п ) (L2-28)

и

N

y(n)+J£a*my(n-m)=t(n). (1-2.29)m=l

Уравнения (1.2.28), (1.2.29) соответствуют динамическому объ-екту при отсутствии входных воздей-ствий. Такие объекты будем называть,как это принято в эконометрике, авто-регрессионными объектами, или, крат-ко, АР- объектами. Они широко исполь-зуются при исследовании различного

рода временных рядов. Блок-схема АР-объекта изображена на рис. 1.9.Положим

Pu(q)=0, Q(q) = l, (1.2.30)

т. е. 6J = 0, Ь*т = а^ = 0, га = 1,..., N. В этом случае

Ku(q) = 0, К((Ч) = Ре(д), (1.2.31)

и уравнения (1.2.4), (1.2.1) соответственно принимают вид

y(n)=P({q)t(n) (1.2.32)

И

N

y(n)=J2cTmt(n-m). (1.2.33)m=0

Эти - уравнения соответствуют операции скользящего среднего.Очевидно, что операция скользящего среднего будет фигурироватьи в Р-объектах и в АР-объектах, если изменить точку приложенияпомехи.

Page 23: Цыпкин Я.З. Информационная теория идентификации

23

Объекты, описываемые общими уравнениями (1.2.1), (1.2.4)i назо-вем регрессионно-авторегрессионными объектами, или, кратко, РАР-объектами. В отличие от Р-объектов, к АР-объектам и РАР-объек-там относятся только динамические системы.

Если перейти от уравнения динамического объекта в операторнойформе (1.2.16) к уравнению относительно у(п), то мы получим урав-нение типа свёртки

оо

у(п) = £*•("*)«("-">)+*(")> (1.2.34)т=0

где k*(m) — временная, или импульсная характеристика объекта,равная

£ i Q W") (1.2.35)

**(0) = 0.

Здесь д„ (i/ = 1,..., JV) — нули характеристического полинома Q(q)(1.2.6), которые предполагаются различными. Выражение k*(m) дляслучая кратных нулей (если в этом есть необходимость) может бытьполучено из (1.2.35) предельным переходом.

Для устойчивого объекта

* * ( т ) - > 0 при т - » о о . (1.2.36)

Поэтому всегда можно предположить, что при достаточно большом

п0

к*{т) « 0, если m > п 0, (1.2.37)

и, значит, уравнение (1.2.34) можно приближенно записать так:По

у(п) = ^2 к*Ми(п - то) + *(п). (1.2.38)т=0

Сопоставляя уравнения (1.2.38) и (1.2.24), заключаем, что при

Ъ*т = к*(т), т = 0,1,...,щ {N = n0) (1.2.39)

эти уравнения идентичны, но теперь для уравнения (1.2.38) неизвест-ными являются не параметры Ь^, а дискреты временной характери-стики к*(т).

Из сказанного следует, что в зависимости от формы описанияобъекта (1.2.15) или (1.2.34), а значит, и от того, какие величины под-лежат определению при идентификации: aj^, 6J , bjj и л и k*(m) (m =

Page 24: Цыпкин Я.З. Информационная теория идентификации

24

= 1,..., N; N = no), — динамический объект может быть отнесен кРАР-объектам либо к Р-объектам.

Рассмотренные выше Р-, АР- и РАР-объекты назовем объектамис простой помехой, если в правую часть уравнения объекта (1.2.1)входит только £(п), т. е. dj = 1 и dj, = 0 (m = l,...,iV). Приме-ром уравнения РАР-объекта с простой помехой является уравнение(1.2.19), Р-объекта — (1.2.24), а АР-объекта — (1.2.29). В тех случа-ях, когда в правую часть уравнения объекта (1.2.1) входят, кроме £(п),также и £(n — m), m > 0, соответствующие объекты будем называтьобъектами с преобразованной помехой.

Далее всегда будет предполагаться, если нет особых оговррок, чтопомехи £(п) образуют последовательность независимых одинаковораспределенных случайных величин, имеющих симметричную плот-ность распределения ро(£)> т - е* Ро(£) — четная функция:

М О = РО(-0 . (L 2-4 0)

Если, кроме того, £(п) имеет конечную дисперсию сг|, то корреляци-онная функция помех равна

{ (Л т = О,

О, тфО.

Очевидно, что

М«(п)} = 0. (1.2.42)

Внешнее воздействие w(n), вообще говоря, может быть произвольным.Для режима нормальной работы оно представляет собой стационар-ный случайный процесс со средним п и дисперсией сг\. Помеху £(п)будем считать не зависящей от входных воздействий и(1),..., и(п).Именно эти предположения, если нет особых оговорок, и будем далееиметь в виду.

Для любых нелинейных преобразований помехи <р(£) и ^ ( 0 полу-чим при т ф 0 (считая, что математические ожидания существуют)

ММ£(и)) Шп - т))} = ММ£(п))} М№(п - т ) ) } . (1.2.43)

Если же <р(£) — нечетная функция, т. е. <р(—£) = —^(0) т о

MMt(n))} = 0. (1.2.44)

Из общего уравнения линейного динамического объекта (1.2.1) не-трудно видеть, что у(п — т) при т > 0 не зависят от £(п). Поэтому

M{t(n)v(n-m)} = M{t(n)}M{y(n-m)}, m > 0, (1.2.45)

Page 25: Цыпкин Я.З. Информационная теория идентификации

25

а учитывая (1.2.42), получаем

M{£Hl/(n - m ) } = 0, m > 0 . (1.2.46)

Аналогично (1.2.43), при тпфО

ММ{(п)) ^(у(п - го))} = М{р(*(п))} МЩу(п - го))}, (1.2.47)

и если у?(£) — нечетная функция, то

М{<р{{(п)) ф(у(п - т))} = 0, т >0. (1.2.48)

Случай коррелированных помех, для которых условия, подобныеприведенным выше, не выполняются, будет рассмотрен в главе 8.

Идентификация линейных объектов состоит в оценке основных па-раметров а^, Ь^, 6Q, m as 1,...,ЛГ, либо дискрет fc*(m), m == 1,..., по, по наблюдаемым величинам: входной величине и(п) и вы-ходной величине у(п) для Р- и РАР-объектов или только по выходнойвеличине у(п) для АР-объектов..

§ 1.3. Настраиваемая модель

Настраиваемая модель, фигурирующая в функциональной схеме иден-тификации, должна вырабатывать прогнозирующую величину у(п) наоснове наблюдаемых входных воздействий и выходных величин объ-екта. Поэтому настраиваемую модель можно также называть прогно-зирующей, предсказывающей моделью. Чем ближе параметры настра-иваемой модели к параметрам объекта, тем точнее прогноз, т. е. темближе у(п) к выходной величине объекта у(п).

Существует множество различных настраиваемых моделей. Какуже упоминалось, выбор настраиваемой модели обычно не аргумен-тировался и был довольно произвольным. Тем не менее интуитивноощущалось, что модель должна формироваться на основе той априор-ной информации, которая нам известна об объекте. К этой априорнойинформации относятся: порядок уравнений объекта, точка приложе-ния помехи, длительность временной характеристики объекта и т. д.Возникает задача синтеза в определенном смысле наилучшей настра-иваемой модели на основе имеющейся априорной информации об объ-екте.

Напомним, что в общем случае уравнение объекта имеет вид(1.2.4), т .е .

y(n) = Ku{q)u{n)+Kt{q)t{n). (1.3.1)

Будем искать уравнение настраиваемой модели в такой форме:

у(п) = кг(Я)и(п) + [1 - K2(q)}y(n), (1.3.2)

Page 26: Цыпкин Я.З. Информационная теория идентификации

26

где K\(q) и K2{q) — пока неизвестные передаточные функции настра-иваемой модели, представляющие собой дробно-рациональные функ-ции переменной q. Эти передаточные функции определяют способ об-работки наблюдаемых входных, м(п), и выходных, у(п), величин объ-екта.

Выбор уравнения настраиваемой модели в форме (1.3.2) объясняет-ся тем, что выходная величина настраиваемой модели у(п) не должназависеть от выходной величины объекта в тот же момент времени п,т. е. от у(п). Условием этого, как видно из (1.3.2), является равенство

К2{0) = 1. (1.3.3)

Класс настраиваемых моделей, определяемых уравнением (1.3.2) приусловии (1.3.3), обозначим через М.

Назовем невязкой е(п) = e{z{n))c) разность между выходнымивеличинами объекта у(п) и настраиваемой модели у(п):

е(п)=у(п)-у(п). (1.3.4)

Близость настраиваемой модели к объекту будем характеризовать ма-тематическим ожиданием квадрата невязки

М{е2(п)} = М{[у(п)-у(п)}>}. (1.3.5)

Если

Ще(п)} = Щу(п)-у(п)} = 0,

то мерой близости настраиваемой модели и объекта будет дисперсияневязки.

Под оптимальной настраиваемой моделью будем подразумеватьтакую, для которой М{е2(п)} достигает минимально возможного зна-чения при определенных значениях ее параметров. Поскольку модельполностью определяется передаточными функциями Ki(q), K2(q)(см. (1.3.2)), то М{е2(п)} является функционалом, зависящим от этих

передаточных функций, — Ф(/^1, К2). Таким образом, задача опреде-ления оптимальной настраиваемой модели сводится к задаче миними-зации функционала невязки

Ще2(п)} = Ф{КиК2) -> inin , (1.3.6)к\, кз

Найдем явное выражение этого функционала. Из уравнения на-страиваемой модели (1.3.2) и определения невязки (1.3.4) следует

е(п) = -K^uin) + K2(q)y(n). (1.3.7)

Page 27: Цыпкин Я.З. Информационная теория идентификации

27

Подставляя в (1.3.7) у(п) из уравнения (1.3.1), получим

£(п) = Wu(q)u(n) + ^ Ы ^ ( п ) . (1-3.8)

где

Wo(g) = l M № ( 9 ) - £ i ( ? ) , ( 1 3 9 )

W({q) = tf€(«)K2(9).

Функционал ^{Кх^Къ) может быть выражен через передаточныефункции Wu(q) и И (<?) (1.3.9) и спектральные плотности воздей-ствия Su{q) и возмущения *%(<?). Как известно из теории дискретныхсистем, для независимых между собой воздействий и(п) и возмущений£(п) функционал Ф{К\,К2) можно представить в виде

Ф(КиК2) = Ще2(п)} =

= / К Ы ^ и ( ^ ) + 5 . ( д ) + (д)^(1)5е((?)]^. (1.3.10)L

Здесь L, контур интегрирования на комплексной плоскости, — окруж-ность единичного радиуса с центром в начале координат (рис. 1.10),j — мнимая единица.

Как следует из (1.2.41), спектральнаяплотность возмущения (помехи) есть

St(q) = «l (1.3.11)

Что же касается спектральной плотностивоздействия Su (q), то она зависит от ста-тистических свойств воздействия и(п) иразлична для различных воздействий.

Потребуем, чтобы структура настра-иваемой модели не зависела от характе-ристик внешних воздействий. Это будетиметь место, если функционал (1.3.10) не зависит от спектральнойплотности воздействия Su(q)> т. е. если

Wu(q) = Ku(q)K2(q) - K^q) = 0. (1.3.12)

Это условие налагает связь на передаточные функции настраиваемоймодели Ki(q) и / ^ Ы - При выполнении условия (1.3.12) функционал(1.3.10) упрощается и принимает вид

Ф(Кг,К2) = Ф0(£2) = ^LJW^W^) ^ , (1.3.13)L

Page 28: Цыпкин Я.З. Информационная теория идентификации

28

или, после подстановки W((q) из (1.3.9),

<№) = £jfK3(q)K3(\)Ke(q)Ke(i) %. (1.3.14)L

Функционал Фо(К2) не зависит от передаточной функции K\{q).Задача минимизации (1.3.6), таким образом, упрощается и сводитсяк задаче минимизации вида

Ф ( £ 2 ) - > т т . (1.3.15)

Передаточная же функция K\{q) определяется по передаточной функ-

ции K2(q) из условия (1.3.12)

K1{q) = Ku(q)K3{q). (1.3.16)

Условие минимума функционала Фо(^г) (1.3.14) получается при-

равниванием нулю его вариации по K2(q) и (l/q), т. е.

6Ф0(К3) = ±,j>k,{q)Kd<l)K^\)SK,{\)^ +L

+ 2^7/ъ{1)ке$)к€шк3( ч)% = о. (1.3.17)L

Но второй интеграл заменой переменной q на \/q сводится к первому.Поэтому условие минимума (1.3.17) упрощается и может быть запи-сано в виде

fK2(q)Kt(q)Kt(l)6K2(±)^- = 0. (1.3.18)L

Контурный интеграл в левой части равенства (1.3.18) обратитсяв нуль, если подынтегральное выражение не будет иметь полюсов вобласти £+, т. е. вне единичного круга (рис. 1.10). Для обеспеченияэтого условия достаточно положить

K2(q)Kt(q)=p, (1.3.19)

где /3 — неопределенная пока постоянная.Отсюда находим, учитывая (1.2.5),

K2(q) = K0

2(q) = /3K^(q) = /}Ш. (1.3.20)

Page 29: Цыпкин Я.З. Информационная теория идентификации

29

Значение постоянной /? определяется из условия К2(0) = 1 (1-3.3):

/?=*«(о) = | ^ = <*г. (1-3.21)

Следовательно, оптимальная передаточная функция (1.3.20) оконча-тельно принимает вид

k°2{q)=d°W)' (L322)

Подставляя это выражение К${д) в (1.3.16), находим

£?(«) = Ku(q)K°2(q) = d*0 ^ . (1.3.23)

Нетрудно проверить (мы этого делать не будем), что найденныеоптимальные передаточные функции К® (q) и К$ (q) удовлетворяют идостаточным условиям минимума функционала Ф(К\, К2). Заменяя в(1.3.23) и (1.3.22) полиномы Pu(q), Pz(<l)i Q(<l) (1-2.6), (1.2.7) на поли-номы

Pu(q) = bo + hq + ... + bNqN, (1.3.24)

P({q)=do + diq + ... + dNqN, (1.3.25)

Q(q) = l + aiq+...+ aNqN, (1.3.26)

отличающиеся лишь коэффициентами от Pu(g), P((q), Q(q), найдемпередаточные функции оптимальной настраиваемой модели

/?l(<7) = d ° f ^ ' (L3'2?)

K2(q) = d0$&. (1.3.28)

Следовательно, уравнение оптимальной настраиваемой модели (1.3.2)представится в виде

у(п) = d0 *Ш и(п) + fl - do Ш] у{п) (1.3.29)

ИЛИ

Pdq)y(n)=d0Pu(q)u(n) + [P((q)-d0Q(q)]y(n). (1.3.30)

Page 30: Цыпкин Я.З. Информационная теория идентификации

30

Наконец, воспользовавшись свойством (1.2.2) оператора запаздыванияд, получим окончательно

N N

у(п) = - Х^ ату(п" m ) + Yl bmU(n - т ) +т=1 т=0

+ Е - ^ Ь Ф » - " » ) - $ ( " - * » ) ] . (L3-31)

Таким образом, для устойчивого и минимально-фазового объектаоптимальная настраиваемая модель описывается уравнениями (1.3.29)— (1.3.31). Настраиваемая модель в общем случае — динамическая сдвумя входными воздействиями и(п) и у(п). ^ ^

Найдем минимальное значение функционала Ф(К®, К®) (1.3.10),достигаемое при равенстве параметров настраиваемой модели (какосновных, так и вспомогательных) параметрам идентифицируемогообъекта, т. е. при

ат = а*т, Ьт=Ь*т, dm = d*my т = 0 , 1 , . . . , Л Г . (1.3.32)

Согласно (1.3.23), (1.3.22) в этом случае

l ( g ) ° 1Ш' Шя)' ( 1Подставляя выражения этих передаточных функций iff (q) и К^ч)) а

также i^u(^) и K^(q) (1.2.5) в (1.3.9), получим

^ ( д ) = 0, Ws(q) = d*. (1.3.34)

При этих значениях Wu{q)*u W^(q) (1.3.34) и спектральной плотно-сти помехи S^(q) (1.3.11) функционал достигает минимума, равного

Ф(К°,К1) = M{£2(n)} = ^f-jdj = К«тс)

2. (1.3.35JL

Из (1.3.8) при выполнении (1.3.12) получаем

М[е(п)} = 0,

поэтому функционал Ф(К\)К2) представляет собой дисперсию невяз-jки. Отсюда следует, что минимально возможная дисперсия невязкиравна произведению дисперсии помехи сг| на с?02. Это предельно воз-можная дисперсия невязки, которая принципиально может быть до-стигнута.

Page 31: Цыпкин Я.З. Информационная теория идентификации

31

Рассмотрим частные случаи оптимальной настраиваемой модели.Предположим, что помеха приложена к объекту в специальной точке(рис. 1.6). Тогда (см. (1.2.17), (1.2.18)), полагая

Р*{9) = 1> ( 1 3 - 3 6 )

т > е . d0 = 1, dm = 0, m = 1,. . . , JV, получаем из (1.3.29) и (1.3.31)

у(п) = Pu(q)u(n) + [i ~ Q(g)]y(n), (1.3.37)

илиJV JV

у(п) = - ^ ат у{п - т ) + ^ 6 т гг(п - т ) . (1.3.38)т—\ т=0

ЭТО уравнение отвечает статической настраиваемой модели. Струк-турная схема такой модели изображена на рис. 1.11. Она содержит2N элементов запаздывания (ЭЗ) и 2N + 1 усилителей, коэффициен-ты усиления которых равны значениям настраиваемых параметрова т , Ът, Ьо, т = 1,..., N. Входными величинами оптимальной стати-ческой настраиваемой модели являются выходная у(п) и входная и(п)величины идентифицируемого объекта.

Предположим теперь, что помеха приложена ко входу объекта(Рис. 1.4). Тогда (см. (1.2.13), (1.2.14)), полагая

A(*) = QM, (1-3-39)