Стационарность процесса. Случайный процесс

Важным классом случайных процессов являются стационарные случайные процессы, то есть, случайные процессы, не изменяющие свои характеристики с течением времени. Они имеют вид непрерывных случайных колебаний вокруг некоторого среднего значения. Таковыми являются: давление газа в газопроводе, колебания самолёта при «автополёте», колебания напряжения в электрической сети и т.д.

Случайный процессназывается стационарным в широком смысле ,если его математическое ожидание
есть постоянное число, а корреляционная функция
зависит только от разности аргументов, т.е.

Из этого определения следует, что корреляционная функция стационарного процесса есть функция одного аргумента: Это обстоятельство часто упрощает операции над стационарными случайными процессами.

Случайный процесс называют стационарным в узком смысле , если его характеристики зависят не от значений аргументов, а лишь от их взаимного расположения. То есть, для функции распределения сечений процесса должно выполняться равенство:

при любых

Отметим, что из стационарности СП в узком смысле следует стационарность его в широком смысле, обратное утверждение неверно.

В дальнейшем мы будем рассматривать только стационарные случайные процессы в широком смысле. Далее приведем основные свойства корреляционной функции случайного стационарного процесса (с.с.п.).

1. Дисперсия с.с.п. постоянна и равна значению корреляционной функции в нуле, т.е.

То есть в начале координат.

2. Корреляционная функция с.с.п. является чётной функцией, т.е.

3. Абсолютное значение корреляционной функции с.с.п. не превосходит её значение при
, т.е.

Нормированная корреляционна функция с.с.п. является неслучайная функция аргумента , т.е.

при этом в соответствии свойство 3 имеет место неравенство

Пример 6 . Задана случайная функция,

равномерно распределённая случайная величина, в интервале

Доказать, что

Решение. Найдём математическое ожидание

На основании определения м.о. получим (с учётом равномерной распределённости с.в. , по условию контроля
)

и

Следовательно,

Найдём корреляционную функцию. Учитывая, что центрированная и случайная функция равны (т.к.
), т.е., то согласно определению корреляционной функции (см.пункт 16.5) имеем

,

поскольку ).

Задание. Покажите, что в условиях нашего примера имеет место

Итак, математическое ожидание с.в.
есть постоянное число при всех значениях аргумента, и её корреляционная функция зависит только от разности аргументов. Следовательно,
случайная стационарная функция.

Отметим что, положив
в корреляционной функции, найдём дисперсию

Таким образом, дисперсия сохраняет постоянное значение при всех значениях аргумента, как и должно, быть при случайной стационарной функции.

Большинство случайных стационарных процессов обладают важным для практики, так называемым, « эргодическим свойством» , сущность которого состоит в том, что по одной, достаточно длинной отдельной реализации данного процесса можно судить обо всех свойствах процесса также как по любому количеству реализаций.

Другими словами, отдельные характеристики с.с.п.
могут быть определены как соответствующие средние по времени для одной реализации достаточно большой продолжительности.

Связь между классами стационарных и случайных эргодических процессов можно охарактеризовать, например, как на рисунке 61.

Рис. 61 (Письм.).

Достаточным условием эргодического с.п.
относительно математического ожидания и корреляционной функции является стремление к нулю его корреляционной функции при
.

В качестве оценок характеристик эргодических с.с.п. принимают усреднённое по времени значение:

Интегралы, в правых частях равенств, на практике вычисляют приближённо.

Случайные процессы
и
называютсястационарно связанными , если их взаимно корреляционная функция
зависит только от разности
. В качестве примера стационарного процесса можно взять с.п.– гармоническое колебание. Можно показать, что
а

  • 5.Порядок оценивания линейной эконометрической модели из изолированного уравнения в Excel. Смысл выходной статистической информации сервиса Регрессия. (10) стр 41
  • 6.Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам. (30) стр.24-25,
  • 7. Классическая парная регресионная модель. Спецификация модели. Теорема Гаусса-Маркова.
  • 8. Метод наименьших квадратов: алгоритм метода, условия применения.
  • 9.Идентификация отдельных уравнений системы одновременных уравнений: порядковое условие. (30)
  • Необходимое условие идентифицируемости
  • 10.Оценка параметров парной регрессионной модели методом наименьших квадратов. (10)
  • 11.Фиктивные переменные: определение, назначение, типы.
  • 12.Автокорреляция случайного возмущения. Причины. Последствия.
  • 13.Алгоритм проверки значимости регрессора в парной регрессионной модели.
  • 14.Интервальная оценка ожидаемого значения зависимой переменной в парной регрессионной модели.
  • 15. Тест Чоу на наличие структурных изменений в регрессионной модели. (20) стр. 59,60
  • 16. Алгоритм проверки адекватности парной регрессионной модели. (20) стр. 37, 79
  • 17. Коэффициент детерминации в парной регрессионной модели.
  • 18. Оценка параметров множественной регрессионной модели методом наименьших квадратов.
  • 20. Гетероскедастичность случайного возмущения. Причины. Последствия. Тест gq(20)
  • 21.Фиктивная переменная наклона: назначение; спецификация регрессионной модели с фиктивной переменной наклона; значение параметра при фиктивной переменной. (20) стр.65
  • 22..Алгоритм теста Дарбина-Уотсона на наличие (отсутствие) автокорреляции случайных возмущений. (20) стр 33
  • 23. Структурная и приведённая формы спецификации эконометрических моделей.
  • 24. Гетероскедастичность случайного возмущения. Причины. Последствия. Алгоритм теста Голдфельда-Квандта на наличие или отсутствие гетероскедастичности случайных возмущений.
  • Алгоритм теста Голдфелда-Квандта на наличие (отсутствие) гетероскедастичности случайных возмущений.
  • 25. Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам.
  • 26. Способы корректировки гетероскедастичности. Метод взвешенных наименьших квадратов
  • 27.Проблема мультиколлинеарности в моделях множественной регрессии.Признаки мультиколлениарности.
  • 28.Что такое логит,тобит,пробит.
  • 29. Что такое Метод наибольшего правдоподобия стр. 62.
  • 30. Что такое стационарный процесс?
  • 31.Свойства временных рядов.
  • 32.Модели ar и var .
  • 33. Идентифицируемость системы.
  • 34. Настройка модели с системой одновременных уравнений.
  • 35.Что такое метод Монте-Карло стр 53
  • 36.Оценить качество модели по f, gq, dw (линейнные).Стр.33, 28-29
  • 37. Оценка погрешностей параметров эконометрической модели методом Монте-Карло.
  • 38. Отражение в модели влияния неучтённых факторов. Предпосылки теоремы Гаусса-Маркова.
  • 39.Модели временных рядов. Свойства рядов цен акций на бирже (20) с.93.
  • 40. Ожидаемое значение случайной переменной, её дисперсия и среднее квадратическое отклонение. (20) с.12-21
  • 41. Оценка параметров парной регрессионной модели методом наименьших квадратов с использованием сервиса Поиск решения.
  • 42. Проверка статистических гипотез, t-статистика Стьюдента, доверительная вероятность и доверительный интервал, критические значения статистики Стьюдента. Что такое “толстые хвосты”?
  • 43.Проблема мультиколлинеарности в моделях множественной регрессии. Признаки мультиколлинеарности
  • 44. Частные коэффициенты детерминации.
  • 46. Экономический смысл коэффициентов линейного и степенного уравнений регрессии.
  • 47.Оценка коэффициентов модели Самуэльсона-Хикса
  • 48. Ошибки от включения в модель незначимых переменных или исключения значимых.С.80
  • 49. Исследование множественной регрессионной модели с.74-79.
  • 50. Мультиколлинеарность: чем плоха, как обнаружить и как бороться.
  • 51. Признаки стационарности стохастического процесса. Что такое «Белый шум»? с.100
  • 52. Структурная и приведённая формы спецификации эконометрических моделей.
  • 53. Алгоритм проверки значимости регрессора в парной регрессионной модели. По t-статистике, по f-статистике.
  • 54.Свойства рядов цен на фондовом рынке. Принципы построения портфеля Марковица с.93,102
  • 55.Динамическая модель из одновременных линейных уравнений (привести пример) с.105.
  • 56. Метод наибольшего правдоподобия: принципы и целесообразность использования
  • 57. Этапы исследования модели множественной регрессии с.74-79.
  • 30. Что такое стационарный процесс?

    Стационарность - свойство процесса не менять свои характеристики со временем. Имеет смысл в нескольких разделах науки. Стационарность случайного процесса означает неизменность во времени его вероятностных закономерностей

    Временной ряд – это конечная реализация стохастического процесса: генерации набора случайных переменных Y(t).

    Стохастический процесс может быть стационарным и нестационарным. Процесс является стационарным, если

    1. Математическое ожидание значений переменных не меняется.

    2. Математическое ожидание дисперсий переменных не меняется.

    3. Нет периодических флуктуаций.

    Распознавание стационарности:

    1. График: систематический рост или убывание, волны и зоны высокой волатильности (дисперсии) в длинном ряде сразу видны.

    2. Автокорреляция (убывает при росте лага)

    3. Тесты тренда: проверка гипотезы о равенстве нулю коэффициента при t.

    4. Специальные тесты, включённые в пакеты компьютерных программ Stata,

    31.Свойства временных рядов.

    Эконометрическую модель можно построить, используя три типа исходных данных:

    Данные, характеризующие совокупность различных объек­тов в определенный момент (период) времени: cross sectional data , “пространственные”;

    Данные, характеризующие один объект за ряд последова­тельных моментов

    (периодов) времени: временные ряды, time series ;

      данные, характеризующие совокупность различных объек­тов за ряд последова­тельных моментов времени: panel data , “панельные”.

    Временной ряд – это совокупность значений какого-либо показателя за несколько последовательных моментов (периодов) времени. Он формируется под воздействием большого числа факторов, которые можно условно подразделить на три группы:

      факторы, формирующие тенденцию (тренд ) ряда;

      факторы, формирующие циклические колебания ряда, например сезонный, недельный; для рядов цен на фондовом рынке характерны непериодические колебания;

      случайные факторы.

    Модели, которые построены по данным, характеризующим один объект за ряд последовательных периодов, называются моделями временных рядов.

    Каждый уровень временного ряда может формироваться их трендовой (Т), циклической или сезонной компоненты (S), а также случайной (E) компоненты.

    Модели, где временной ряд представлен в виде суммы перечисленных компонентов называются аддитивными, если в виде произведения – мультипликативными моделями.

    Аддитивная модель имеет вид : Y=T+S+E

    Мультипликативная модель имеет вид : Y=T*S*E

    Построение модели временного ряда :

      производят выравнивание временного ряда (например методом скользящей средней); 2. Рассчитывают значения сезонной компоненты; 3. Устраняют сезонную компоненту и получают выровненный ряд; 4. Проводят аналитическое выравнивание уровней (T и E) и расчет значений Е с использованием полученного уравнения тренда; 5. Расчитывают значения Т и Е; 6. Расчитывают абсолютные и относительные ошибки.

    Построение аналитической функции при моделировании тренда в любой задаче по эконометрике на временные ряды называют аналитическим выравниванием временного ряда и в основном применяются функции: линейная, степенная, гиперболическая, параболическая и т.д.

    Параметры тренда определяются как и в случае линейной регрессии методом МНК, где в качестве независимой переменной выступает время, а в качестве зависимой переменной – уровни временного ряда. Критерием отбора наилучшей формы тренда служит наибольшее значение коэффициента детерминации, критерии Фишера и Стьюдента.

    Автокорреляция в остатках – корреляционная зависимость между значениями остатков за текущий и предыдущие моменты времени. Для определения автокорреляции остатков используется критерий Дарбина-Уотсона:

    Временной ряд – это датированная целочисленными моментами времени t экономическая переменная. Эта переменная служит количественной характеристикой некоторого экономического объекта, поэтому изменение этой переменной во времени определяется факторами, оказывающими воздействие на данный объект с ходом времени.

    Все факторы делятся на 3 класса. 1 класс: факторы («вековые» воздействия), результирующее влияние которых на данный объект на протяжении длительного отрезка времени не изменяют своего направления. Они порождают монотонную составляющую (тенденцию или тренд). 2 класс: факторы (циклические воздействия), результирующее влияние которых на объект совершает законченный круг в течение некоторого фиксированного промежутка времени T. 3 класс: факторы (случайные воздействия),результирующее влияние которых на объект с высокой скоростью меняет направление и интенсивность. 3 Класс факторов позволяют интерпретировать величину в каждый период времени как случайную переменную

    Стационарным случайным процессом в узком смысле называется случайный процесс, у которого n -мерная плотность вероятности не изменится, если все отсчеты времени сместить на одну и ту же величину:

    Если выбрать , то n -мерная плотность вероятности не будет зависеть от начала отсчета времени

    Таким образом, для стационарного процесса одномерная плот­ность вероятности вообще не зависит от времени, а двумерная плот­ность зависит не в отдельности от t 1 и t 2 , а от их разности

    В свою очередь, из выражений (2.9) и (2.10) вытекает, что математическое ожидание и дисперсия стационарного процесса не зависят от времени, а корреляционная функция зависит от t :

    (2.11)

    (2.12)

    Из (2.11), (2.12) и (2.13) следует, что математическое ожи­дание постоянно и поэтому для стационарного процесса характе­ризует постоянную составляющую процесса; постоянность харак­теризует то, что в каждой точке времени t средняя удельная мощность флюктуаций (то есть мощность переменной составляющей) одна и та же; зависимость от означает, что для стационарного процесса неважно, в каких точках t 1 и t 2 берутся сечения, важна разность между ними .

    Если условие (2.7) не выполняется, то случайный процесс на­зывается нестационарным . Иногда о стационарности судят только по выполнению равенств (2.9), (2.10) и, соответ­ственно, (2.11) - (2.13). Говорят, что, если выполняются равенства (2.9) и (2.10), то процесс является стационарным, не интересуясь при этом, выполняется условие (2.7) или нет. Такой подход дает более широкое толкование стационарности.

    Определение стационарного процесса в широком смысле является более приемлемым для решения практических задач, так как проще получать данные об одномерной и двумерной плотностях вероятнос­ти, чем о многомерной.

    В строгом смысле физически не существует стационарных слу­чайных процессов, так как любой процесс должен начаться в опреде­ленный момент времени в прошлом и, вероятно, завершиться в неко­торый момент в будущем. Однако есть много физических ситуаций, когда статистические характеристики процесса не изменяются на интервале времени наблюдения. В этих случаях предположение о стационарности приводит к удобной математической модели, которая является достаточно точной аппроксимацией реальной ситуации.

    Эргодическое свойство стационарных случайных процессов

    Среди всех стационарных процессов имеется часть, которая об­ладает эргодическим свойством. Поясним это свойство. Пусть имеется одна длинная реализация x (t ) случайного процесса (t ). Эта реализация определена на интервале Найдем среднее значение этой реализации путем ее усреднения во времени на достаточно большом интервале:

    (2.14)

    где черта сверху означает усреднение по времени, среднее значение является постоянной величиной, не зависящей от t .

    Аналогично можно найти среднее значение квадрата флюктуаций и среднее значение произведения флюктуаций, смещенных одна отно­сительно другой на интервал :

    (2.15)

    По своему физическому смыслу величины (2.14) - (2.16) являются числовыми характеристиками, совпадающими со средним зна­чением, дисперсией и корреляционной функцией процесса (t). Одна­ко они получены в результате усреднения во времени одной длин­ной реализации x(t) или функции от нее.

    Говорят, что стационарный процесс обладает эргодическим свойством , если с вероятностью, близкой к еди­нице, числовые характеристики, полученные в результате усреднения одной длинной реализации по времени, равны этим же характеристи­кам, полученным в результате усреднения по ансамблю. При этом ус­реднением по ансамблю называют определение числовых характеристик с использованием плотности вероятности, то есть по формулам (2.11) - (2.13), так как плотность вероятности характеризует всю совокупность или ансамбль реализаций.

    Таким образом, для эргодического стационарного процесса справедливы равенства:

    , (2.17)

    Само слово «эргодический»происходит от греческого «эргон», что означает «работа». Эргодическое свойство является удобной рабо­чей гипотезой для расчета числовых характеристик стационарного процесса, когда располагают одной длинной его реализацией. Физи­чески это обосновано тем, что одна длинная реализация может со­держать сведения обо всех реализациях этого случайного процесса.

    Заметим, что стационарность процесса является необходимым, но недостаточным условием эргодичности. Это означает, что не все стационарные процессы являются эргодическими. В общем случае трудно, если только вообще возможно, дока­зать, что эргодичность - обоснованное допущение для какого-либо физического процесса, так как может наблюдаться только одна реа­лизация этого процесса. Тем не менее, обычно имеет смысл предполо­жить эргодичность процесса, если только отсутствуют веские доводы физического характера, препятствующие этому.

    Стационарный случайный процесс

    важный специальный класс случайных процессов, часто встречающийся в приложениях теории вероятностей к различным разделам естествознания и техники. Случайный процесс X (t) называется стационарным, если все его вероятностные характеристики не меняются с течением времени t (так что, например, распределение вероятностей величины X (t) при всех t является одним и тем же, а совместное распределение вероятностей величин X (t

      зависит только от продолжительности промежутка времени t2≈t1, т. е. распределения пар величин {X (t1), X (t2)} и {X (t1 + s), X (t2 + s)} одинаковы при любых t1, t2и s и т.д.).

      Схема С. с. п. с хорошим приближением описывает многие реальные явления, сопровождающиеся неупорядоченными флуктуациями. Так, например, пульсации силы тока или напряжения в электрической цепи (электрический «шум») можно рассматривать как С. с. п., если цепь эта находится в стационарном режиме, т. е. если все её макроскопические характеристики и все условия, вызывающие протекание через неё тока, не меняются во времени; пульсации скорости в точке турбулентного течения представляют собой С. с. п., если не меняются общие условия, порождающие рассматриваемое течение (т. е. течение является установившимся), и т.д. Эти и другие примеры С. с. п., встречающиеся в физике (в частности, гео- и астрофизике), механике и технике, стимулировали развитие исследований в области С. с. п.; при этом существенными оказались также и некоторые обобщения понятия С. с. п. (например, понятия случайного процесса со стационарными приращениями заданного порядка, обобщённого С. с. п. и однородного случайного поля).

      В математической теории С. с. п. основную роль играют моменты распределении вероятностей значений процесса X (t), являющиеся простейшими числовыми характеристиками этих распределений. Особенно важны моменты первых двух порядков: среднее значение С. с. п. EX (t) = m ≈ математическое ожидание случайной величины X (t) и корреляционная функция С. с. п. EX (t1) X (t2)= B (t2≈t1) ≈ математическое ожидание произведения X (t1) X (t2) (просто выражающееся через дисперсию величин X (t) и коэффициент корреляции между X (t1) и X (t2); см. Корреляция). Во многих математических исследованиях, посвященных С. с. п., вообще изучаются только те их свойства, которые полностью определяются одними лишь характеристиками m и В (t) (т. н. корреляционная теория С. с. п.). В этой связи случайные процессы X (t), имеющие постоянное среднее значение EX (t) = m и корреляционную функцию В (t2, t1) = EX (t1) X (t2), зависящую только от t2 ≈ t1, часто называют С. с. п. в широком смысле (а более частные случайные процессы, все характеристики которых не меняются с течением времени, в таком случае называются С. с. п. в узком смысле).

      Большое место в математической теории С. с. п. занимают исследования, опирающиеся на разложение случайного процесса X (t) и его корреляционной функции B (t2 ≈t1) = В (t) в интеграл Фурье, или Фурье ≈ Стилтьеса (см. Фурье интеграл). Основную роль при этом играет теорема Хинчина, согласно которой корреляционная функция С. с. п. X (t) всегда может быть представлена в виде

      где F (l) ≈ монотонно неубывающая функция l (а интеграл справа ≈ это интеграл Стилтьеса); если же В (t) достаточно быстро убывает при |t|╝¥ (как это чаще всего и бывает в приложениях при условии, что под X (t) понимается на самом деле разность X (t) ≈ m), то интеграл в правой части (1) обращается в обычный интеграл Фурье:

      где f (l) = F▓(l) ≈ неотрицательная функция. Функция F (l) называемая спектральной функцией С. с. п. X (t), а функция F (l) [в случаях, когда имеет место равенство (2)] ≈ его спектральной плотностью. Из теоремы Хинчина вытекает также, что сам процесс X (t) допускает спектральное разложение вида

      где Z (l) ≈ случайная функция с некоррелированными приращениями, а интеграл справа понимается как предел в среднем квадратичном соответствующей последовательности интегральных сумм. Разложение (3) даёт основание рассматривать любой С. с. п. X (t) как наложение некоррелированных друг с другом гармонических колебаний различных частот со случайными амплитудами и фазами; при этом спектральная функция F (l) и спектральная плотность f (l) определяют распределение средней энергии входящих в состав X (t) гармонических колебаний по спектру частот l (в связи с чем в прикладных исследованиях функция f (l) часто называется также энергетическим спектром или спектром мощности С. с. п. X (t)).

      Выделение понятия С. с. п. и получение первых относящихся к нему математических результатов являются заслугой Е. Е. Слуцкого и относятся к концу 20-х и началу 30-х гг. 20 в. В дальнейшем важные работы по теории С. с. п. были выполнены А. Я. Хинчиным, А. Н. Колмогоровым, Г. Крамером, Н. Винером и др.

      Лит.: Слуцкий Е. Е., Избр. тр., М., 1960; Хинчин А. Я., Теория корреляции стационарных стохастических процессов, «Успехи математических наук», 1938, в. 5, с, 42≈51; Розанов Ю. А., Стационарные случайные процессы, М., 1963; Прохоров Ю. В., Розанов Ю. А., Теория вероятностей. (Основные понятия. Предельные теоремы. Случайные процессы), 2 изд., М., 1973; Гихман И. И., Скороход А. В., Теория случайных процессов, т. 1, М., 1971; Хеннан Э., Многомерные временные ряды, пер. с англ., М., 1974.

      Понятие стационарного случайного процесса. Характеристики стационарной случайной функции. Спектральная плотность ССФ. Эргодическое свойство ССФ.

      Рассмотрение на примерах свойств ССФ;

      Определение КФ и спектральной плотности ССФ;

      Рассмотрение свойств стационарного белого шума.

      Вопросы

      Примеры

      Пояснение. Стационарно связанными называются две случайные функции X (t ) и Y (t ) , взаимная корреляционная функция которых зависит только от разности аргументов
      :
      .

      Не всякие две стационарные функции стационарно связаны; две нестационарные функции могут быть стационарно связанными.

      Пример 1 . Задана случайная функция
      , где- случайная величина, распределенная равномерно в интервале
      .

      Доказать, что
      - стационарная функция.

      Решение .

      По формуле МО непрерывной случайной величины имеем:

      ,

      т.е.
      .

      По формуле КФ случайной функции
      (см. Тему 10), учитывая, что

      МО второго слагаемого равно нулю, поэтому окончательно

      Таким образом, МО функции
      постоянно при всех значениях аргумента, а КФ зависит только от разности аргументов.

      Следовательно,
      - стационарная случайная функция.

      Пример 2. Заданы две ССФ:
      и
      , где- случайная величина, распределенная равномерно в интервале (0,2).

      Доказать, что заданные функции стационарно связаны.

      Решение. В соответствии с решением предыдущего примера
      .

      По формуле взаимной КФ двух СФ
      и
      . (см. пример 2, Тема 10) имеем.

      МО второго слагаемого равно нулю, поэтому окончательно .

      Так как взаимная КФ зависит только от разности аргументов, то функции X (t ) и Y (t ) являются стационарно связанными.

      Пример 3. Нормированная спектральная плотность норм
      случайной функцииX (t ) постоянна в интервале частот ,и равна нулю вне этого интервала.

      Определить нормированную корреляционную функцию случайной функции X (t ).

      Решение. Значение норм
      при
      норм
      при
      определяется из условия, что площадь, ограниченная кривой
      норм
      , рана единице.

      норм

      Далее по формуле Винера – Хинчиа (в действительной форме) определяем нормированную КФ
      случайной функцииX(t):

      Общие виды функций
      и
      представлены на рис.1 и рис. 2. Конкретные виды графиков зависят от значений,.

      В пределе при
      т.е. при
      спектр случайной функции обращается в дискретный с одной единственной линией, соответствующей частоте; при этом корреляционная функция обращается в обычную косинусоиду:
      .

      Замечание. При дискретном спектре с одной линией спектральное разложение ССФ
      имеет вид:
      , гдеи- некоррелированные случайные величины с МО, равными нулю, и равными дисперсиями:
      .

      Пример 4. Найти спектральную плотность, ССФ
      , если задана её корреляционная функция
      .

      Решение. По формуле спектральной плоскости ССФ

      .

      Общие виды функций
      и
      представлены на рис. 3 и 4.

      При уменьшении корреляционная функция будет убывать медленнее; характер изменения случайной функции становится более плавным, в спектре больший «удельной вес» приобретают малые частоты: кривая спектральной плотности вытягивается вверх, сжимаясь с боков; в пределе при
      случайная функция выродится в обычную случайную величину с дискретным спектром, состоящим из единственной линии с частотой
      .

      При увеличении корреляционная функция убывает быстрее, колебания случайной функции становятся более резкими и беспорядочными; в спектре преобладание малых частот становится все менее выраженным; в пределе при
      спектр случайной функции приближается к равномерному, так называемому белому спектру, в котором нет преобладания каких – либо частот.

      Пример 5. Найти корреляционную функцию стационарного белого шума – стационарной случайной функции с постоянной спектральной плотностью
      .

      Решение. По формуле Винера – Хинчина

      .

      Учитывая, что
      , где
      -дельта функция,

      имеем
      .

      Тогда окончательно
      .

      Пояснение. Формально дельта – функцией
      называется такая функция, которая равна бесконечности, когда её аргумент равен нулю, и равна нулю при остальных значениях аргумента, причем интеграл от дельта – функции, распространенный на сколь угодно малый отрезок, включающий особую точку, равен единице.

      Задачи

      1. Найти дисперсию ССФ
      , зная её спектральную плотность
      .

      2. Найти спектральную плотность ССФ
      , зная её КФ
      при
      ; КФ равна нулю при
      .

      Тема 12

      Стационарные случайные функции(ССФ)

      Преобразование стационарной случайной функции стационарной линейной системой.

      Практическое занятие включает:

      Определение МО, спектральной плотности и дисперсии ССФ на выходе стационарной линейной системы в установившемся режиме.

      Вопросы

      1. Дайте определение линейного однородного оператора динамической системы. Перечислите его свойства.

      2. Приведите примеры линейных однородных операторов.

      3. Дайте характеристику стационарной линейной динамической системы.

      4. Что называется передаточной функцией и частотной характеристикой линейной динамической системы?

      5. Напишите соотношение, связывающее входную и выходную функции спектральной плотности линейной динамической системы.

      Примеры

      Пример 1. На вход линейной стационарной динамической системы описываемой уравнением , подается ССФ
      с
      . Найти МО
      на выходе системы в установившемся режиме (после затухания переходного процесса).

      Решение. , или

      Так как X(t) и Y(t) – стационарные функции, а МО производной стационарной функции равно нулю, то 2
      , откуда
      .

      Пример 2 . На вход линейной стационарной динамической системы, описываемой уравнением , подается ССФ
      с

      Решение. 1). Используя решение примера 4 предыдущего занятия при
      и
      , получим.

      2). Для нахождения передаточной функции запишем заданное дифференциальное уравнение в операторной форме: , или,

      Следовательно, передаточная функция .

      3). Частотная характеристика системы получается из передаточной функции при
      :.

      4). Спектральная плотность
      на выходе системы определяется по формуле

      5). Искомая дисперсия находится по формуле

      Представив подынтегральную функцию в виде суммы простейших дробей, имеем

      .

      Задачи

      1. На вход линейной стационарной динамической системы, описываемой уравнением , подается ССФ
      с математическим ожиданием
      . Найти МО случайной функции
      на выходе системы в установившемся режиме.

      2. На вход линейной стационарной динамической системы, описываемой уравнением
      , поступает ССФ
      с постоянной спектральной плотностью(белый шум).

      Найти дисперсию случайной функции
      на выходе системы в установившемся режиме.

      3. На вход линейной стационарной динамической системы с передаточной функцией поступает ССФ Х со спектральной плотностью
      . Найти дисперсию случайной функции
      на выходе системы в установившемся режиме.

      ПРИЛОЖЕНИЕ 1

      ТАБЛИЦА ПРОИЗВОДНЫХ ОСНОВНЫХ ФУНКЦИЙ

      1.
      .

      8.
      .

      2.
      ,
      .

      9.
      .

      3.
      .

      10.

      4.
      .

      11.
      .

      5.
      .

      12.
      .

      6.
      .

      13.
      .

      7.
      .

      14.
      .