Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Предмет:
«Статистическая динамика систем автоматического управления»
Тема:
«Случайные процессы в статической динамике»
1. Случайные процессы в системах автоматического управления
Реальные системы и процессы управления могут быть представлены двумя моделями: детерминированной и статистической (вероятностной).
В детерминированных моделях структура и параметры системы являются фиксированными или детерминированными, а сигналы и процессы управления описываются детерминированными функциями и являются полностью определенными.
В статистических моделях сигналы и процессы управления, а также структура и параметры системы являются случайными величинами и описываются случайными функциями времени.
Статистическая модель является более общей и полнее описывает реальные процессы, чем детерминированные.
Статистической динамикой систем управления называется раздел теории управления, который занимается изучением динамики процесса управления в статической схеме, т. е. при случайных сигналах и динамических свойствах системы.
Статистическая динамика изучает следующие задачи:
- статистическое описание случайных процессов и динамических свойств системы;
- статистический анализ систем управления - определение статистических характеристик выходных сигналов при заданных статистических характеристиках входных сигналов и статистических свойствах системы.
- статистический синтез оптимальных систем управления - отыскание и реализация оптимальных в определенном смысле свойств системы по заданным статистическим свойствам входных сигналов.
Статистическая динамика является разделом теории управления и базируется на теории вероятности и, в частности, на ее разделе теории случайных процессов.
1.1 Основные понятия теории вероятности
Рассмотрим случайные величины и их характеристики.
Случайное событие это событие, которое в результате опыта может произойти или не произойти (т.е. любой исход опыта).
Достоверное событие это событие, которое в результате опыта произойдет непременно.
Невозможное событие это событие, которое не может произойти в результате опыта.
Вероятность события - возможность появления, какого- либо события, из n возможных событий.
Случайная величина - это численное значение случайного события.
Случайная функция это функция, значение которой при каждом данном значении аргумента является случайной величиной.
Случайный процесс - случайная функция, аргументом которой является время.
Статистические свойства случайной величины X и случайного процесса X(t) полностью характеризуются функцией распределения вероятности F(x) (интегральным законом) или плотностью вероятности f(x) (дифференциальным законом).
1.2 Функция распределения
Функция распределения - вероятность события, которое заключается в том, что случайная величина Х примет значение меньше некоторой текущей переменной х, т.е.
F(x) = P(X<x). (1.1)
График функции распределения представлен на рис. 1.1.
Рис. 1.1
Свойства функции распределения:
Функция распределения - возрастающая функция от 0 до 1
(1.2)
Функция распределения неубывающая функция
если (1.3)
Для любых если , выполняется соотношение
(1.4)
1.3 Плотность вероятности
Плотность вероятности - вероятность попадания случайной величины в область x, x+x при x0.
(1.5)
График плотности вероятности показан на рис. 1.2.
Рис. 1.2
Свойства плотности вероятности:
Плотность вероятности неотрицательная функция
(1.6)
2. Площадь под кривой плотности вероятности равна единице
. (1.7)
3. Связь функции распределения с плотностью вероятности
.(1.8)
4. Вероятность попадания в область
(1.9)
1.4 Законы распределения
Различные классы случайных событий подчинены различным законам распределения. На практике при исследовании случайных событий широко используются следующие законы распределения: нормальный, равномерный, показательный, биномиальный, Эрланга, Пуассона, Рэлея, и др.
Рассмотрим законы, наиболее часто используемые в статистической динамике систем управления.
Нормальный закон распределения (закон Гаусса). Нормальный закон распределения это закон, наиболее часто встречающийся на практике при исследовании систем управления.
. (1.10)
Плотность вероятности и функция распределения для нормального закона приведены на рис. 1.3а, б.
Рис.1.3. а) б)
Как видно из графика (рис. 1.3) и формулы (1.10), нормальный закон распределения случайной величины X зависит от двух параметров: математического ожидания mx и среднего квадратичного отклонения этой величины x.
Закон равномерной плотности. Плотность вероятности и функция распределения для закона равномерной плотности приведены на рисунке 1.4.
(1.11)
Рис.1.4
1.5 Числовые характеристики случайных величин
Законы распределения полностью характеризуют случайные величины, но их не всегда можно получить. Случайные величины достаточно полно можно охарактеризовать, зная их числовые характеристики, которые определяются с помощью так называемых моментов (начальных, центральных и смешанных).
Начальные моменты
Начальные моменты характеризуют отклонение случайной величины относительно начала отсчета
, (1.12)
где f(x) плотность вероятности случайной величины X.
При к = 1
. (1.13)
Математическим ожиданием случайной величины mx называется начальный момент первого порядка 1, который характеризует среднее значение случайной величины.
Для дискретных, случайных величин
, (1.14)
где xi и pi - возможные значения случайных величин и их вероятности.
Для любой функции случайного аргумента математическое ожидание равно
. (1.15)
Для функции двух случайных аргументов математическое ожидание равно
. (1.16)
При к = 2
. (1.17)
Средним квадратом случайной величины называется начальный момент второго порядка -2, который характеризует среднюю мощность случайной величины.
Центральные моменты
Центральные моменты характеризуют отклонение случайной величины относительно среднего значения.
. (1.18)
называется центрированной величиной.
При к = 1
. (1.19)
При к = 2
. (1.20)
Дисперсией случайной величины Dx называется центральный момент второго порядка -1, который характеризует степень рассеивания случайной величины относительно среднего значения.
Величина называется средним квадратичным отклонением.
Между моментами существует следующая связь:
. (1.21)
Смешанные центральные моменты
Корреляционный момент - kxy характеризуют статистическую зависимость между случайными величинами X и Y.
(1.22)
На практике часто используется безразмерная величина, называемая коэффициентом корреляции
. (1.23)
Случайные величины X и Y называют коррелированными, если kxy 0, и некоррелированными, если kxy = 0.
Пример 1.1. Определить функцию распределения и числовые характеристики для случайной величины с равномерной плотностью вероятности, график которой приведен на рис. 1.5.
Решение: Функцию распределения можно определить из соотношения
При этом функция распределения имеет вид (рис. 1.6).
Рис. 1.5 Рис. 1.6
Определим числовые характеристики.
Математическое ожидание
.
Средний квадрат
Дисперсия
.
2. Случайные процессы и их статистические характеристики
Случайным (стохастическим) процессом называют случайную функцию, аргументом которой является время.
Реализацией называется неслучайная функция времени xi(t), которая является возможным значением случайного процесса X(t).
Группа возможных реализаций составляет множество, семейство или ансамбль (рис 2.1).
Сечением случайного процесса в момент времени t1 называются возможные значения случайного процесса X(t1) в момент времени t1.
Статистические методы изучают не каждую из реализаций xi(t1), образующих множество X(t), а свойство всего множества с помощью усреднения свойств его реализаций. Усреднение может выполняться по множеству и по времени.
Усреднение по множеству выполняется над множеством реализаций в фиксированный момент времени.
Усреднение по времени выполняется над одной реализаций на протяжении достаточно длинного промежутка времени Т.
Для случайных процессов функция распределения и плотность вероятности полностью определяет статистические свойства процессов и зависит как от уровня -х, так и времени -t.
(2.1)
Эти функции характеризуют случайный процесс в фиксированный момент времени -t1.
Для полной характеристики случайного процесса в произвольные моменты времени необходимо знать многомерные законы.
(2.2)
Эти законы громоздки, и оперировать ими сложно, поэтому на практике часто достаточно знание одномерных или двумерных законов. Это справедливо для широкого класса так называемых Гаусcовских процессов, или процессов с нормальным законом распределения. Например, помехи в САУ, действие которых обусловлено многими случайными факторами подчиненным различным законам распределения, и чем больше множество таких факторов, тем в значительно большей мере процесс будет приближаться к нормальному закону (в соответствии с центральной предельной теоремой).
2.1 Классификация случайных процессов
Случайные процессы можно классифицировать: стационарные; нестационарные (стохастические);
Стационарные процессы можно классифицировать: эргодические; неэргодические.
Стохастические процессы это процессы, для определения статистических свойств которого необходимо усреднение, как по множеству, так и по времени.
Стационарные процессы это процессы, для определения статистических свойств которого необходимо усреднение только по множеству, так как его числовые характеристики не зависят от времени.
Эргодические процессы - процессы, в которых статистические характеристики, определенные усреднением по времени, равны характеристикам, полученным усреднением по множеству. Для определения статистических свойств такого процесса используют одну, достаточно длинную реализацию x(t) на интервале [-T, T]. При этом
(2.3)
2.2 Числовые характеристики случайных процессов
Математическим ожиданием (средним значением) случайного процесса X(t) называют неслучайную функцию времени mx(t), значение которой в каждый момент времени равно математическому ожиданию соответствующего сечения случайного процесса
. (2.4)
При этом mx (t) представляет как бы ось симметрии отдельных реализаций, т. е. степень разбросанности относительно средней оси.
Для стационарных процессов
. (2.5)
Для эргодических процессов
(2.6)
Средний квадрат случайного процесса X(t) характеризует среднюю мощность процесса и определяется по формуле:
. (2.7)
Для стационарных процессов
. (2.8)
Для эргодических процессов
(2.9)
Дисперсией случайного процесса X(t) называют неслучайную функцию времени Dx(t), значение которой в каждый момент времени равно дисперсии соответствующего сечения случайного процесса
. (2.10)
Для стационарных процессов
. (2.11)
Для эргодических процессов
(2.12)
Математическое ожидание и дисперсия характеризуют процесс в отдельных сечениях, но не учитывают их взаимосвязь, эта взаимосвязь характеризуется корреляционной функцией.
Корреляционной (автокорреляционной) функцией случайного процесса X(t) называют неслучайную функцию двух аргументов Rxx(t1,t2), которая для каждой пары значений аргументов t1 и t2 равна корреляционному моменту соответствующих сечений случайного процесса
(2.13)
Корреляционная функция характеризует степень статистической взаимосвязи между двумя сечениями случайного процесса.
Взаимно корреляционная функция равна
(2.14)
Взаимно корреляционная функция характеризует степень статистической взаимосвязи между сечениями для двух процессов.
Для Гаусcовских случайных процессов определяющей характеристикой является двумерная плотность вероятности, поэтому корреляционная функция полностью характеризуют статистические свойства случайного процесса.
Для стационарных процессов корреляционная функция зависит от разности аргументов = t2 t1
(2.15)
При этом дисперсия равна
.(2.16)
Для эргодических процессов
(2.17)
2.3 Основные свойства корреляционной функции
1. Начальное значение корреляционной функции равно дисперсии
.(2.18)
2. Значение Rx() при любом не может превышать ее начального значения
(2.19)
3. Корреляционная функция симметрична относительно своих аргументов
(2.20)
.
Для взаимно корреляционных функций это не справедливо
4. Корреляционная функция стационарных процессов является четной функцией, а взаимно корреляционная нечетной
(2.21)
5. Корреляционная функция суммы Z(t) = X(t)+Y(t), где X(t) и Y(t) случайные процессы
(2.22)
6. Корреляционная функция произведения Z(t) = X(t)Y(t), где X(t)случайный процесс, а Y(t) - неслучайная помеха
(2.23)
7. Корреляционная функция суммы Z(t) = X(t)+Y(t), где X(t) случайный процесс, а Y(t) неслучайная функция
(2.24)
так как
8. Для автокорреляционной функции можно записать выражение
Для взаимно корреляционной функции можно записать выражение
(2.26)
Литература
0 t1 t2 t
xn(t)
Рис. 2.1
X(t)
x1(t)
x2(t)