У вас вопросы?
У нас ответы:) SamZan.net

Тема 1- ФИЛЬТРАЦИЯ ОДНОМЕРНЫХ СИГНАЛОВ

Работа добавлена на сайт samzan.net:

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 28.12.2024

PAGE  141

ЦИФРОВАЯ  ОБРАБОТКА  СИГНАЛОВ

Тема 1: ФИЛЬТРАЦИЯ ОДНОМЕРНЫХ СИГНАЛОВ.

Первый натиск и первые крики решают дело.

Тит Ливий (Римский историк)

Роль крика в драке - существенный вклад в теорию конфликтов. Но имеет ли он такое же значение при фильтрации данных - не очевидно, как и его место. Лично я предпочитаю воплем завершать этот процесс, а не  начинать.

Эдуард Павелко (Новосибирский геофизик)

 Содержание: 1.1. Введение. 1.2. Цифровые фильтры. Нерекурсивные фильтры. Рекурсивные фильтры. 1.3. Импульсная реакция фильтров. Функция отклика. Определение импульсной реакции. 1.4. Передаточные функции фильтров. Z-преобразование. Устойчивость фильтров. 1.5. Частотные характеристики фильтров. Общие понятия. Основные свойства. 1.6. Фильтрация случайных сигналов. Математическое ожидание. Корреляционные соотношения. Спектр мощности выходного сигнала. Дисперсия выходного сигнала.  Усиление шумов. Функция когерентности. 1.7. Структурные схемы цифровых фильтров. Структурные схемы. Графы фильтров. Соединения фильтров. Схемы реализации фильтров. Обращенные формы.  Литература.

1.1. Введение.

Предмет цифровой фильтрации данных (сигналов) является естественным введением в широкую и фундаментальную область цифровой обработки информации. Под фильтрацией будем понимать любое преобразование информации (сигналов, результатов наблюдений), при котором во входной последовательности обрабатываемых данных целенаправленно изменяются определенные соотношения (динамические или частотные) между различными компонентами этих данных.

К основным операциям фильтрации информации относят операции сглаживания, прогнозирования, дифференцирования, интегрирования и разделения сигналов, а также выделение информационных (полезных) сигналов и подавление шумов (помех).

Как известно, преобразование динамики сигналов (и данных, которые несут эти сигналы) осуществляется в системах. Соответственно, фильтры с любым целевым назначением являются частным случаем систем преобразования сигналов, в рамках теории которых они и будут рассматриваться.

В настоящем курсе рассматриваются, в основном, методы линейной обработки данных (носителей этих данных - сигналов) линейными дискретными системами. Линейными называют системы, которые осуществляют преобразование линейных комбинаций входных сигналов в суперпозицию выходных сигналов. Принцип реализации линейных систем, физический - в виде специальных микропроцессорных устройств, или алгоритмический - в виде программ на ЭВМ, существенного значения не имеет и определяет только их потенциальные возможности.

1.2. Цифровые фильтры /л2,л24/.

Общие понятия. В одномерной дискретной линейной системе связь между входом и выходом (входной и выходной дискретными последовательностями значений сигнала – отсчетами), задается линейным оператором преобразования TL:         

y(kDt) = TL{x(kDt)}.     

Это выражение отображает краткую запись линейного разностного уравнения:

      am y(kDt-mDt) =bn x(kDt-nDt),                       (1.2.1)

где k = 0,1,2,..- порядковый номер отсчетов, Dt - интервал дискретизации сигнала, am и bn - вещественные или, в общем случае, комплексные коэффициенты. Положим a0 = 1, что всегда может быть выполнено соответствующей нормировкой уравнения (1.2.1), и, принимая в дальнейшем Dt = 1, приведем его к виду:  

        y(k) = bn x(k-n) am y(k-m).                           (1.2.2)

Оператор, представленный правой частью данного уравнения, получил название цифрового фильтра (ЦФ), а выполняемая им операция - цифровой фильтрации данных (информации, сигналов). Если хотя бы один из коэффициентов am или bn зависит от переменной k, то фильтр называется параметрическим, т.е. с переменными параметрами. Ниже мы будем рассматривать фильтры с постоянными коэффициентами (инвариантными по аргументу).

Нерекурсивные фильтры. При нулевых значениях коэффициентов am уравнение (1.2.2) переходит в уравнение линейной дискретной свертки функции x(k) с оператором bn:

       y(k) = bn x(k-n).                                    (1.2.3)

Значения выходных отсчетов свертки (1.2.3) для любого аргумента k определяются текущим и "прошлыми" значениями входных отсчетов. Такой фильтр называется нерекурсивным цифровым фильтром (НЦФ). Интервал суммирования по n получил название "окна" фильтра. Окно фильтра составляет N+1 отсчет, фильтр является односторонним каузальным, т.е. причинно обусловленным текущими и "прошлыми" значениями входного сигнала, и выходной сигнал не опережает входного. Каузальный фильтр может быть реализован физически в реальном масштабе времени. При k<n, а также при k<m для фильтра (1.2.2), проведение фильтрации возможно только при задании начальных условий для точек x(-k), k = 1,2,..,N, и y(-k), k = 1,2,..,M. Как правило, в качестве начальных условий принимаются нулевые значения или значения отсчета х(0), т.е. продление отсчета x(0) назад по аргументу.

При обработке данных на ЭВМ ограничение по каузальности снимается. В программном распоряжении фильтра могут находиться как "прошлые", так и "будущие" значения входной последовательности отсчетов относительно текущей точки вычислений k, при этом уравнение (1.2.3) будет иметь вид:

   y(k) =bn x(k-n).    (1.2.4)

При N' = N фильтр называется двусторонним симметричным. Симметричные фильтры, в отличие от односторонних фильтров, не изменяют фазы обрабатываемого сигнала.

Техника выполнения фильтрации не отличается от техники выполнения обычной дискретной свертки двух массивов данных.

Рис. 1.2.1. Нерекурсивный ЦФ.

Представим, что на одной полоске бумаги выписаны по порядку сверху вниз значения данных x(k) ≡ sk (см. рис. 1.2.1). На второй полоске бумаги находятся записанные в обратном порядке значения коэффициентов фильтра bnhn (обозначение h для коэффициентов операторов НЦФ является общепринятым). Для вычисления yky(k) располагаем вторую полоску против первой таким образом, чтобы значение h0 совпало со значением sk, перемножаем все значения hn с расположенными против них значениями sk-n и суммируем все результаты перемножения. Результат суммирования является выходным значением сигнала yk. Сдвигаем окно фильтра - полоску коэффициентов hk, на один отсчет последовательности sk вниз (или массив sk сдвигаем на отсчет вверх) и вычисляем аналогично следующее значение выходного сигнала, и т.д.

Описанный процесс является основной операцией цифровой фильтрации и называется сверткой в вещественной области массива данных x(k) с функцией (оператором) фильтра bn (массивом коэффициентов фильтра). Для математического описания наряду с формулами (1.2.3-1.2.4) применяется также символическая запись фильтрации:

y(k) = b(n) * x(k-n).

Сумма коэффициентов фильтра определяет коэффициент передачи (усиления) средних значений сигнала в окне фильтра и постоянной составляющей в целом по массиву данных (с учетом начальных и конечных условий). Как правило, сумма коэффициентов фильтра нормируется к 1.

Имеется целый ряд методов обработки данных, достаточно давно и широко известных, которые по существу относятся к методам цифровой фильтрации, хотя и не называются таковыми. Например, методы сглаживания отсчетов в скользящем окне постоянной длительности. Так, для линейного сглаживания данных по пяти точкам с одинаковыми весовыми коэффициентами используется формула:

yk = 0.2(xk-2+xk-1+xk+xk+1+xk+2).

С позиций цифровой фильтрации это не что иное, как двусторонний симметричный нерекурсивный цифровой фильтр:

    yk =bn xk-n,     bn = 0,2.                                  (1.2.5)

Аналогично, при сглаживании данных методом наименьших квадратов (МНК) на основе кубического уравнения:

   yk = (-3xk-2+12xk-1+17xk+12xk+1-3xk+2)/35.                     (1.2.6)

Это также НЦФ с коэффициентами: b0 = 17/35,  b1 = b-1 = 12/35,  b2 = b-2 = -3/35.

 Пример.  Уравнение НЦФ:  yk =bn xk-n,  bn = 0,2. Начальные условия - нулевые.

 Входной сигнал – скачок функции (ступень): xk = {0,0,0,0,0,0,10,10,10,10,…}.

 Выходной сигнал: yk = {0,0,0,0,2,4, 6, 8,10,10,10,10,…}.

 Результат фильтрации приведен на рис. 1.2.2(А). Проверьте результат (выполните фильтрацию, как это показано на рис. 1.2.1, с учетом четности фильтра).

 Заметим: сумма коэффициентов сглаживающих НЦФ всегда должна быть равна 1, при этом сумма значений массива выходного сигнала равна сумме значений массива входного сигнала. Координатная детальность выходного сигнала  ниже входного, резкие изменения входных сигналов "размазываются" по аргументу.

 Повторите фильтрацию фильтром МНК на основе кубического уравнения. Сравните результаты фильтрации с результатами первого НЦФ (приведены на рис. 1.2.2(В)).

Рис. 1.2.2. Сглаживание МНК в скользящем окне по пяти точкам

Для операции фильтрации характерны следующие основные свойства:

1. Дистрибутивность: h(t) * [a(t)+b(t)] = h(t) * a(t)+h(t) * b(t).

2. Коммутативность:   h(t) * a(t) * b(t) = a(t) * b(t) * h(t).

3. Ассоциативность:    [a(t) * b(t)] * h(t) = h(t) * a(t) * b(t).

Фильтрация однозначно определяет выходной сигнал y(t) для установленного значения входного сигнала s(t) при известном значении импульсного отклика фильтра h(t).

Рис. 1.2.3. Рекурсивный ЦФ.

Рекурсивные фильтры. Фильтры, которые описываются полным разностным уравнением (1.2.2),  принято называть рекурсивными цифровыми фильтрами (РЦФ), так как в вычислении текущих выходных значений участвуют не только входные данные, но и значения выходных данных фильтрации, вычисленные в предшествующих циклах расчетов. С учетом последнего фактора рекурсивные фильтры называют также фильтрами с обратной связью, положительной или отрицательной в зависимости от знака суммы коэффициентов am. По существу, полное окно рекурсивного фильтра состоит из двух составляющих: нерекурсивной части bn, ограниченной в работе текущими и "прошлыми" значениями входного сигнала (при реализации на ЭВМ возможно использование и “будущих” отсчетов сигнала) и рекурсивной части am, которая работает только с "прошлыми" значениями выходного сигнала. Техника вычислений для РЦФ приведена на рис. 1.2.3.

 Пример.    Уравнение РЦФ:   yk = boxk+a1yk-1,  при bo = a1 = 0.5,  y-1 = 0.

 Входной сигнал:  xk = {0,0,1,0,0,0,0,0,0,0,1,1,1,1,1....}

 Расчет выходного сигнала:

   уo = 0,5xo + 0,5y-1 = 0;   y1 = 0,5x1 + 0,5yo =0;   y2 = 0,5x2 + 0,5y1 = 0.5;   y3 = 0,5x3 + 0,5y2 = 0.25;

   y4 = 0,5x4 + 0,5y3 = 0.125;   y5 = 0,5x5 + 0,5y4 = 0.0625;    y6 = 0,5x6 + 0,5y5 = 0.03125;   и т.д.

 Выходной сигнал: yk = {0, 0, 0.5, 0.25, 0.125, 0.0625, 0.03125, 0.015625,...}

Рис. 1.2.4. Рекурсивная фильтрация.

Из примера можно видеть, что реакция РЦФ на конечный входной сигнал, в принципе, может иметь бесконечную длительность (в данном случае с близкими к нулю, но не нулевыми значениями), в отличие от реакции НЦФ, которая всегда ограничена количеством членов bk (окном фильтра).

 Пример.   Уравнение РЦФ:   yk = boxk - a1yk-1,  при bo = 0.5,  a1=1.1,   y-1 = 0

 Входной сигнал: xk = {0, 10, 0, 0, 0,....}.

 Выходной сигнал:  yk = {0,0,5,-5.5,6.05,-6.655,7.321,-8.053,8.858,-9.744,10.718,-11.79,… и т.д.}

  Заметим: коэффициент обратной связи больше 1 и выходной сигнал идет "в разнос".

Рис. 1.2.5. Неустойчивый рекурсивный фильтр.

Операции, относящиеся к рекурсивной фильтрации, также известны в обычной практике, например - интегрирование. При интегрировании по формуле трапеций:

    yk = (xk+xk-1)/2 + yk-1,    (1.2.7)

т.е. здесь мы имеем РЦФ с коэффициентами: bo = b1 = 0.5, a1 = 1.

 Пример.  Уравнение РЦФ: yk=(xk+xk-1)/2+yk-1, начальные условия - нулевые.

 Входной сигнал: xk={0,0,2,2,4,0,0,0,4,4,4,0,0,0,5,0,0,0,....}

 Выполните фильтрацию.    Контроль:  yk= {0,0,0,1,3,6,8,8,8,10,14,18,20,20,20,22.5,25,25,25...}

1.2.6. Интегрирующий рекурсивный фильтр.

1.3. Импульсная реакция фильтров.

Функция отклика. Если на вход фильтра подать единичный импульс (импульс Кронекера), расположенный в точке k = 0, то на выходе фильтра мы получим его реакцию на единичный входной сигнал, которая однозначно определяется оператором преобразования:

       y(k) = TL[d(0)] = bn * d(0-n) = h(k) ≡ bn.                  (1.3.1)

Функция h(k), которая связывает вход и выход фильтра по реакции на единичный входной сигнал, получила название импульсного отклика фильтра (функции отклика).

Если произвольный сигнал на входе фильтра представить в виде линейной комбинации взвешенных импульсов Кронекера

x(k) =d0 x(k-n),

то, с использованием функции отклика, сигнал на выходе фильтра можно рассматривать как суперпозицию запаздывающих импульсных реакций на входную последовательность взвешенных импульсов:

y(k) = h(n) (d0 x(k-n))  h(n) x(k-n).

Пределы суммирования в последнем выражении устанавливаются непосредственно по длине импульсного отклика h(n).

Определение импульсной реакции требуется, как правило, только для рекурсивных фильтров, так как импульсная реакция для НЦФ при известных значениях коэффициентов b(n), как это следует из выражения (1.3.1), специального определения не требует: h(n)  ≡  b(n).

Если выражение для системы известно в общей форме (1.2.2), определение импульсной реакции производится подстановкой в уравнение системы импульса Кронекера с координатой k = 0 при нулевых начальных условиях. В соответствии с выражением (1.3.1) сигнал на выходе системы будет представлять собой импульсную реакцию системы.

 Пример.   Уравнение РЦФ:  yk = xk + 0.5yk-1.

 Входной сигнал:  xk= do= {1,0,0,0,...}.

 Расчет выходного сигнала при нулевых начальных условиях:

   yo = xo+0.5 y-1 = 1+0 = 1 = ho.   y1 = x1+0.5 yo = 0+0.5 = 0.5 = h1.   y2 = x2+0.5 y1 = 0+0.25 = 0.25 = h2.

   y3 = x3+0.5 y2 = 0.125 = h3.          y4 = x4+0.5 y3 = 0.0625 = h4,     и т.д.

 Импульсный отклик фильтра:  hk = (O.5)k, k = 0,1,2....

Определение импульсной реакции физической системы обычно производится подачей на вход системы ступенчатой функции (функции Хевисайда), которая равна uo(k) = 1 при k 0, и uo(k) = 0 при k < 0:

g(k) =h(n) uo(k-n) =h(n).

 Отсюда:

h(k) = g(k) - g(k-1).

Функция g(k) получила название переходной характеристики системы (перехода из одного статического состояния в другое). Форму реакции фильтра на функцию Хевисайда можно видеть на рис. 1.2.4 (с точки k = 10 и далее) в сопоставлении с реакцией на импульс Кронекера в точке k = 2.

1.4. Передаточные функции фильтров /л7/.

Z-преобразование. Удобным методом решения разностных уравнений линейных систем является z-преобразование. Применяя z-преобразование к обеим частям равенства (1.2.1), c учетом сдвига функций (y(k-m) zm Y(z)), получаем:   

        Y(z)amzm = X(z) bnzn,                                   (1.4.1)

где X(z),Y(z)- соответствующие z-образы входного и выходного сигнала. Отсюда, полагая ao = 1, получаем в общей форме функцию связи выхода фильтра с его входом - уравнение передаточной функции системы в z-области:

        H(z) = Y(z)/X(z) =bnzn(1+amzm).                         (1.4.2)

Для НЦФ:

          H(z) =bnzn.                                                (1.4.3)

При проектировании фильтров исходной, как правило, является частотная передаточная функция фильтра H(ω), по которой вычисляется ее Z-образ H(z) и обратным переходом в пространство сигналов определяется алгоритм обработки данных. В общей форме для выходных сигналов фильтра:

     Y(z) = H(zX(z).

  Y(z)·(1+am·zm) = X(z)·bn·zn

Y(z) = X(z)·bn·zn – Y(z)·am·zm.                            (1.4.4)

После обратного Z-преобразования выражения (1.4.4):

   y(k) =bn·x(k-n) –am·y(k-m).                               (1.4.5)

При подаче на вход фильтра единичного импульса Кронекера dо, имеющего z-образ d(z) = zn = 1, сигнал на выходе фильтра будет представлять собой импульсную реакцию фильтра y(k) ≡ h(k), при этом:

    H(z) = Y(z)/d(z) = Y(z) = TZ[y(k)] =h(k)zk,                   (1.4.6)

т.е. передаточная функция фильтра является z-образом ее импульсной реакции. При обратном z-преобразовании передаточной функции соответственно получаем импульсную характеристику фильтра:

    h(k) H(z).                                                (1.4.7)

Если функция H(z) представлена конечным степенным полиномом, что как правило характерно для НЦФ, то обратное z-преобразование осуществляется элементарно идентификацией коэффициентов по степеням z. Передаточная функция РЦФ также может быть представлена степенным полиномом прямым делением числителя на знаменатель правой части выражения (1.4.2), однако результат при этом может оказаться как конечным, так и бесконечным, т.е. система может иметь либо конечную, либо бесконечную импульсную характеристику. Фильтры с бесконечной импульсной характеристикой получили название БИХ-фильтров, с конечной импульсной характеристикой соответственно КИХ-фильтров. Нерекурсивные фильтры всегда являются КИХ-фильтрами, т.к. длительность импульсной реакции НЦФ определяется окном фильтра.

 Примеры.  

 1. Передаточная функция РЦФ:  H(z) = (1-z5)/(1-z).

     Прямым делением числителя на знаменатель получаем:  H(z) = 1+z+z2+z3+z4.

     H(z) h(n) = {1,1,1,1,1}.   Фильтр РЦФ является КИХ-фильтром.

 2. Передаточная функция: H(z) = 1/(1-2z).

     Методом обратного z-преобразования:  h(n) = 2n.    Фильтр РЦФ является БИХ-фильтром.

Устойчивость фильтров. Фильтр называется устойчивым, если при любых начальных условиях реакция фильтра на любое ограниченное воздействие также ограничена. Критерием устойчивости фильтра является абсолютная сходимость отсчетов его импульсного отклика:

     |h(n)| < .                                             (1.4.8)

Анализ устойчивости может быть проведен по передаточной функции. В устойчивой системе значение H(z) должно быть конечным во всех точках z-плоскости, где |z| 1, а, следовательно, передаточная функция не должна иметь особых точек (полюсов) на и внутри единичного круга на z-плоскости. Полюсы H(z) определяются корнями многочлена знаменателя передаточной функции (1.4.2).

  Пример.

 Передаточная функция фильтра рис. 1.2.4: H(z) = b0/(1-a1z). При а1= 0.5 полюс знаменателя: zр= 2. |zр|>1. Фильтр устойчив.

 Передаточная функция фильтра рис. 1.2.5: H(z) = b0/(1+a1z). При а1= 1.1 полюс знаменателя: zр= -0.909. |zр| < 1. Фильтр неустойчив, что и подтверждает пример фильтрации.

 Передаточная функция фильтра рис. 1.2.6: H(z) = 0.5(1+z)/(1-z). Полюс знаменателя: zр= 1. В принципе, фильтр неустойчив, но эта неустойчивость проявляется только при k = ∞. Импульсный отклик фильтра h(n) = {0.5,1,1,1, ….}, сумма которого равна ∞ только при n = ∞, т.е. при интегрировании бесконечно больших массивов. При интегрировании конечных массивов результат всегда конечен.

Приведенный критерий устойчивости относится к несократимой дроби, т.к. в противном случае возможна компенсация полюса нулем передаточной функции и следует проверить наличие однозначных нулей и полюсов.

Проверка на устойчивость требуется только для рекурсивных цифровых фильтров (систем с обратной связью), нерекурсивные системы всегда устойчивы.

1.5. Частотные характеристики фильтров /л2,л13,л24/.

Общие понятия. От z-образов сигналов и передаточных функций подстановкой z = exp(-jwDt) в уравнение (1.4.2) можно перейти к Фурье-образам функций, т.е. к частотным спектрам сигналов и частотной характеристике фильтров, а точнее – к функциям их спектральных плотностей.

Можно применить и способ получения частотных характеристик непосредственно из разностного уравнения системы обработки данных. Так как цифровая фильтрация относится к числу линейных операций, то, принимая для сигнала на входе фильтра выражение x(kDt) = B(w) exp(jwkDt), мы вправе ожидать на выходе фильтра сигнал y(kDt) = A(w) exp(jwkDt). Подставляя эти выражения в разностное уравнение фильтра (1.2.1), получаем:

am A(w) exp(jwkDt-jwmDt) =bn B(w) exp(jwkDt-jwnDt).

A(w) exp(jwkDt) am exp(-jwmDt) = B(w) exp(jwkDt)bn exp(-jwnDt).

  A(w)am exp(-jwmDt) = B(w)bn exp(-jwnDt).             (1.5.1)

Передаточная частотная функция (частотная характеристика при ао=1):

H(w) = A(w)/B(w) =bn exp(-jwnDt)[1+am exp(-jwmDt)].             (1.5.2)

Нетрудно убедиться, что полученная частотная характеристика повторяет функцию (1.4.2) при z = exp(-jwDt), что и следовало ожидать. Аналогично z-преобразованию (1.4.7), частотная характеристика фильтра представляет собой Фурье-образ его импульсной реакции, и наоборот. При Dt = 1:

   H(w) =h(n) exp(-jwn),    (1.5.3)

   h(n) = (1/2p)H(w) exp(jwn) dw.   (1.5.4)

В общем случае H(w) является  комплексной функцией, модуль которой R(w) называется амплитудно-частотной характеристикой (АЧХ), а аргумент j(w) - фазочастотной характеристикой (ФЧХ).

A(w) = |H(w)| =

j(w) = arctg(-Im H(w)/Re H(w)).

На рис. 1.5.1-1.5.3 приведены частотные характеристики фильтров (модули и аргументы спектральных плотностей), которые были рассмотрены выше в примерах и на рис. 1.2.4 – 1.2.6. Графики приведены в границах главных диапазонов спектров и получены непосредственной подстановкой z=exp(-jwDt) при Dt=1 в уравнения передаточных функций H(z).

Рис. 1.5.1. Спектр не имеет особых точек.

Рис. 1.5.2. Спектр имеет особые точки на границах диапазонов.

Рис. 1.5.3. Спектр интегрирующего фильтра. Особая точка на нулевой частоте.

При обработке ограниченных массивов  амплитуда центрального пика равна количеству точек массива.

Основные свойства частотных характеристик фильтров:

1. Частотные характеристики являются непрерывными функциями частоты.

2. При дискретизации данных по интервалам Dt функция H(w) является периодической. Период функции H(w) равен частоте дискретизации входных данных F = 1/Dt. Первый низкочастотный период (по аргументу w от -p/Dt до p/Dt, по f от -1/2Dt до 1/2Dt) называется главным частотным диапазоном. Граничные частоты главного частотного диапазона соответствуют частоте Найквиста wN, wN = p/Dt. Частота Найквиста определяет предельную частоту обработки данных.

3. Для фильтров с вещественными коэффициентами импульсной реакции h(nDt) функция АЧХ является четной, а функция ФЧХ - нечетной. С учетом этого частотные характеристики фильтров обычно задаются только на интервале положительных частот 0-wN главного частотного диапазона. Значения функций на интервале отрицательных частот являются комплексно сопряженными со значениями на интервале положительных частот.

Как правило, при частотном анализе фильтров значение Dt интервала дискретизации принимают за 1, что соответственно определяет задание частотных характеристик на интервале (0,p) по частоте w или (0,1/2) по f. При использовании быстрых преобразований Фурье (БПФ) вычисления спектров осуществляются в одностороннем варианте положительных частот в частотном интервале от 0 до 2p (от 0 до 1 Гц), где комплексно сопряженная часть спектра главного диапазона (от -p до 0) занимает интервал от p до 2p (для ускорения вычислений используется принцип периодичности дискретных спектров). Заметим, что при выполнении БПФ количество точек спектра равно количеству точек входной функции, а следовательно отсчет на частоте 2p, комплексно сопряженный с отсчетом на частоте 0, отсутствует. При нумерации точек входной функции от 0 до N он принадлежит точке N+1 - начальной точке следующего периода, при этом шаг по частоте равен 2p/(N+1). Современное программное обеспечение БПФ допускает любое количество точек входной функции, при этом для нечетного значения N частоте p соответствует отсчет на точке (N+1)/2, не имеющий сопряженного отсчета, а при четном значении N отсутствует отчет на частоте p (она располагается между отсчетами k=N/2 и N/2 +1). Отсчетам с номерами k главного диапазона БПФ (за исключением точки k=0) соответствуют комплексно сопряженные отсчеты N+1-k  (за исключением точки k=(N+1)/2 при нечетном N).

Фазовая и групповая задержка. Задержка сигналов во времени относится к характерной особенности каузальных систем в целом, а, следовательно, рекурсивных и односторонних нерекурсивных фильтров.

Фазовая задержка, это прямая характеристика временной задержки фильтром гармонических колебаний. При подаче на вход фильтра гармоники sin wt, сигнал на выходе каузального фильтра, без учета изменения его амплитуды, равен sin(wt-j), при этом:

sin(wt-j) = sin w(t-tp),           ωt-j = ω(t-tp).

Отсюда, фазовая задержка tp на частоте w равна:

tp = j /ω.                                                        (1.5.5')

При распространении (1.5.5) в целом на спектральную передаточную функцию фильтра получаем:

     tp(w)= j(w) /ω.                                                   (1.5.5)

Постоянство значения tp(w) в определенном частотном диапазоне обеспечивает для всех гармоник сигнала такое же соотношение их фазовых характеристик, какое было на входе системы, т.е. не изменяет формы сигнала, если его спектр полностью сосредоточен в этом частотном диапазоне и значения АЧХ в этом диапазоне также имеют постоянное значение. Это условие является определяющим, например, для систем передачи данных, для сглаживающих и полосовых частотных фильтров.

Что касается каузальных фильтров, то они, как правило, имеют в рабочем диапазоне определенную зависимость значения tp от частоты, которая характеризуется групповым временем задержки (ГВЗ).

Допустим, что сигнал на входе фильтра представляет собой сумму двух гармоник с близкими частотами:

s(t) = cos ω1t + cos ω2t.

 Тождественная тригонометрическая запись:

s(t) = 2 cos[0.5(ω1+ω2)t] · cos[0.5(ω1-ω2)t].

Эта запись показывает, что сумму двух гармоник с частотами ω1 и ω2 можно рассматривать, как амплитудную модуляцию гармоники с частотой (ω1+ω2)/2 гармоникой с частотой (ω1-ω2)/2. При прохождении через фильтр каждая из гармоник ω1 и ω2 может получить различную задержку, при этом сигнал на выходе фильтра, без учета амплитудных изменений:

s(t) = cos (ω1t-j1) + cos(ω2t-j2).

 Тождественная запись:

s(t) = 2 cos[0.5((ω12)t-(j1+j2))] · cos[0.5((ω12)t-(j1-j2))].

 Пульсацию колебаний выразим через групповую временную задержку tg:

cos[0.5((ω1-ω2)t-(j1-j2))] = cos[0.5(ω1-ω2)·(t-tg)].

Отсюда:

(ω1-ω2tg = j1-j2.

tg = (j1-j2)/(ω1-ω2) = Dj /Dω.                                 (1.5.6)

При распространении этого выражения на непрерывную частотную характеристику фильтра:

      tg(ω)= dj(w)/.                                               (1.5.7)

Для вычислений ГВЗ удобно использовать комплексный логарифм передаточной функции фильтра:

Ln(H(ω)) = ln |H(ω)| + j·j(ω),         j(ω) = Im[Ln(H(ω)].

     tg(ω)= dj / = Im{d[Ln(H(ω))]/} = Im{dH(ω)/[H(ω)]}.           (1.5.8)

Приближение для дискретных спектральных функций:

      tg(k·Dω) ≈ (2/DωIm{(Hk+1-Hk) / (Hk+1+Hk }.                         (1.5.9)

1.6. Фильтрация случайных сигналов /л4,л15,л24/.

Если сигнал на входе фильтра является детерминированным, то его соотношение с выходным сигналом однозначно определяется импульсным откликом фильтра. Таким же однозначным является соотношение входа - выхода и для случайных сигналов, однако в силу природы последних аналитическое представление как входного сигнала, так и отклика системы, не представляется возможным. Для описания реакции фильтра на случайный входной сигнал используется статистический подход. Если параметры входного сигнала специально не оговариваются, то по умолчанию принимается, что на вход фильтра поступает реализация случайного стационарного сигнала x(k·Dt) с нулевым средним, которая вызывает сигнал y(k·Dt) на выходе фильтра. Значение Dt, как обычно, принимаем равным 1.

Допустим, что фильтр имеет импульсный отклик h(n) = exp(-a·n), n  0. Зададим на входе фильтра стационарный квазидетерминированный случайный сигнал, который не обладает свойством эргодичности, но имеет все свойства случайного сигнала и может быть описан в явной математической форме:

x(k) = A + cos(2·k+j),

где A и j - взаимно независимые случайные величины, причем значение j равномерно распределено в интервале [0, 2p]. При этом выходной сигнал определится выражением:

y(k) = h(n) * x(k-n) h(n)x(k-n) = A/3 + [3·cos(2k+j) + 2·sin(2k+j)]/13.

Из этого выражения следует, что выходной сигнал фильтра также является случайным и содержит те же самые случайные параметры, что и входной сигнал, а, следовательно, для него существуют определенные статистические характеристики.

 Математическое ожидание произвольного входного случайного стационарного сигнала x(k) на выходе фильтра определится выражением:

= М{y(k)}= M{h(n)·x(k-n)}=M{x(k-n)}h(n) = h(n) =·Кпс.     (1.6.1)

Отсюда следует, что математическое ожидание выходных сигналов фильтра равно математическому ожиданию входных сигналов, умноженному на коэффициент усиления фильтром постоянной составляющей. При Кпс = 1 среднее значение выходных сигналов не изменяется и равно среднему значению входных сигналов. Если фильтр не пропускает постоянную составляющую сигналов (сумма коэффициентов импульсного отклика фильтра равна нулю), то случайный выходной сигнал всегда будет иметь нулевое математическое ожидание.

Корреляционные соотношения. Для центрированных входных сигналов x(k) размером (0-К) функция автокорреляции (ФАК) вычисляется по формуле:

Rx(n) = [1/(K+1-n)]x(k)·x(k+n).

 По аналогичной формуле может быть вычислена и ФАК выходных сигналов. Для произведения выходных сигналов y(k) и y(k+n), образующих функцию автокорреляции выходных сигналов, можно также записать:

y(k)y(k+n) = h(i)h(j) x(k-i)x(k+n-j).

 Если взять математические ожидания от обеих частей этого равенства, то, с учетом соотношения в правой части под знаками сумм

M{x(k-i) x(k+n-j)} = -Rx(k-i-k-n+j) = Rx(n+i-j),

получим:

   Ry(n) =h(i)h(j) Rx(n+i-j)Rx(n) * h(n+i) * h(n-j).               (1.6.2)

 Таким образом, функция автокорреляции выходного сигнала равна ФАК входного сигнала, свернутой дважды, в прямом и обратном направлении, с импульсным откликом фильтра, что сохраняет четность ФАК выходного сигнала. Для нецентрированных процессов аналогичное заключение действительно и для ковариационных функций. На рис. 1.6.1 приведен пример ФАК входной и выходной случайных последовательностей при фильтрации RC-фильтром, форма импульсного отклика которого также приведена на рисунке.

Рис. 1.6.1. Функции корреляционных коэффициентов.

Заметим, что для свертки импульсных откликов, производя замену n-j = m, мы имеем равенство:

h(n+i) * h(n-j) = h(m+i+j) * h(m) = h(m) * h(m+p) = Kh(m),

где Kh(m) - функция ковариации импульсного отклика фильтра. Отсюда:

Ry(n) = Rx(n) * Kh(m).                                             (1.6.2')

Это означает появление в случайном сигнале на выходе фильтра определенной корреляционной зависимости, определяемой инерционностью фильтра. Эффективный интервал tk корреляции данных в сигнале тем меньше, чем выше верхняя граничная частота wв его спектра (по уровню 0.5):

tк = p/wв =1/2fв.

Оценка интервала корреляции для конечных (непериодических) функций, как правило, производится непосредственно по функциям автокорреляции R(n):

tk = 2·Sn|R(n)/R(0)| - 1,

где значение n ограничивается величиной 3-5 интервалов спада центрального пика до величины порядка 0.1R(0) (дальше обычно начинаются статистические флюктуации значения R(n) около нулевой линии, вызванные ограниченностью выборки). Без такого ограничения за счет суммирования модуля флюктуаций, не несущих информациии, значение tk завышается относительно расчетного по спектральной характеристике сигнала.

Рис. 1.6.2. Функции корреляционных

коэффициентов большой выборки.

Функция Rx(n) случайных статистически независимых отсчетов близка к d-функции, свертка которой с Kh(m) приведет к формированию на выходе выходного сигнала, форма ФАК которого будет стремиться к форме Kh(m). При достаточно большой выборке случайных отсчетов входного сигнала это означает практически полное повторение функцией Ry(n) формы ковариационной функции импульсного отклика, как это можно видеть на рис. 1.6.2, который отличается от рис. 1.6.1 только количеством выборки К=10000. Соответственно, интервал корреляции выходных сигналов для случайной входной последовательности можно определять непосредственно по функции ковариации импульсного отклика фильтра:

tk = 2·Sn|Kh(n)/Kh(0)| - 1,   n ≥ 0.

Для взаимной корреляционной функции (ВКФ) Rxy входного и выходного сигналов соответственно имеем:

x(k)*y(k+n) =h(i) x(k)·y(k+n-i) .

           Rxy(n) =h(i) Rx(n-i) h(i) * Rx(n-i).                             (1.6.3)

т.е. функция взаимной корреляции входного и выходного сигналов равна свертке ФАК входного сигнала с функцией импульсного отклика фильтра. Заключение действительно и для функций ковариации.

Другая взаимно корреляционная функция Ryx может быть получена из соотношения:

  Ryx(n) = Rxy(-n) h(i) * Rx(n+i).                                     (1.6.3')

Отметим, что для статистически независимых случайных величин при одностороннем импульсном отклике (h(i) = 0 при i<0) функция Rxy(n) также является односторонней и равна 0 при n<0, а функция Ryx соответственно равна 0 при n>0.

Спектр мощности выходного сигнала. Если на вход фильтра с импульсным откликом h(k) H(f) поступает случайный стационарный эргодический сигнал x(k) XТ(f), имеющий на интервале Т функцию автокорреляции Rx(n) и спектр мощности Wx(f), то на выходе фильтра регистрируется стационарный эргодический сигнал y(k) YT(f) = XТ(f)H(f). Соответственно, энергетический спектр выходного сигнала на том же интервале:

         |YT(f)|2 = |XT(f)|2 |H(f)|2.                                         (1.6.4)

Оценка спектра мощности (спектральной плотности энергии):

   Wy(f) (1/T) |XТ(f)|2 |H(f)|2= Wx(f) |H(f)|2.                           (1.6.5)

Спектр мощности сигнала на выходе фильтра равен спектру мощности входного сигнала, умноженному на квадрат модуля частотной характеристики фильтра. С учетом четности корреляционных функций спектр мощности выходного сигнала также является четной действительной функцией и не имеет фазовой характеристики процесса.

Спектр мощности сигнала и его функция автокорреляции связаны преобразованием Фурье:

Ry(n) |Y(w)|2 = Wy(w).

Дисперсия выходного сигнала (средняя мощность) определяется с использованием формулы (1.6.5):

sy2 = Ry(0) =Wx(f) |H(f)|2 df Rx(0)h2(n) = sx2h2(n).             (1.6.6)

Если сигнал нецентрированный и значение дисперсии входного сигнала неизвестно, то по аналогичным формулам вычисляется сначала средний квадрат выходного сигнала или так называемая средняя мощность сигнала:

== Ry(0) h2(n) Wx(f) |H(f)|2 df,                      (1.6.7) 

 Вывод: средняя мощность выходного сигнала равна средней мощности входного сигнала, умноженной на сумму квадратов коэффициентов импульсного отклика фильтра. Для центрированных случайных сигналов средняя мощность равна дисперсии сигналов. Для нецентрированных выходных сигналов:

 sy2 = - 2  (-2)h2(n).                                     (1.6.8)

Взаимный спектр мощности входного и выходного сигнала:

Wxy(f) (1/T)XT(f)YT(f) = (1/T)|XT(f)|2 H(f) = Wx(f)H(f).             (1.6.9)

Осуществляя преобразование Фурье левой и правой части выражения, получаем:

        Rxy(n) = Rx(n) * h(n),                                            (1.6.10)

что повторяет формулу (1.6.3).

Усиление шумов. Критерием качества при использовании любого метода фильтрации информации можно считать выполнение целевого назначения с минимальным усилением шумов (максимальным их подавлением). Обозначим через e(k) аддитивный шум во входном сигнале с математическим ожиданием M{e(k)}= 0 и дисперсией s2. Значения e(k) статистически независимы. С учетом помехи во входном сигнале значение сигнала на выходе:

y(k) = Sn h(n)[x(k-n)+e(k-n)].

Математическое ожидание значений выходного сигнала:

M{y(k)}= Sn h(n)[x(k-n)+M{e(k-n)]}= Sn h(n)x(k-n).

Вычислим дисперсию распределения отсчетов выходного сигнала:

D{y(k)}= M{[Sn h(n)[x(k-n)+e(k-n)]-M{y(k)}]2}=

= M{[Sn h(n) e(k-n)]2}= Sn h2(n) M{e2(k-n)}= s2 Sn h2(n).         (1.6.11)

Отсюда следует, что сумма квадратов значений импульсного отклика цифрового фильтра представляет собой коэффициент усиления шумов, равномерно распределенных в главном частотном диапазоне фильтра, в процессе фильтрации сигнала. Это полностью соответствует прямому использованию выражения (1.6.7) при Wx(f) = s2:

   sy2 = s2|H(f)|2 df  ≡ s2h2(n).                          (1.6.11')

Таким образом, коэффициент усиления фильтром дисперсии статистически распределенных шумов при расчете по импульсному отклику:

   Kq = h2(n).                                                    (1.6.12)

По дискретной передаточной функции фильтра:

       Kq =  [1/(N+1)] Sn Hn2.                                              (1.6.12')

 Пример.   Сглаживающий фильтр:  y(k) = 0.2x(k-n).   

 Коэффициент усиления шумов:  5 (0,22) = 0,2.   Дисперсия шумов уменьшается в 1/0.2 = 5 раз.

 Выполните расчет коэффициента усиления шумов для пятиточечного фильтра МНК.  

 Контрольный ответ: 0.486.

 Функция когерентности входного и выходного сигналов фильтра оценивается по формуле:

   gxy2(f) = |Wxy(f)|2/[Wx(f)Wy(f)].                                    (1.6.12)

Если функции Wx(f) и Wy(f) отличны от нуля и не содержат дельта-функций, то для всех частот f значения функции когерентности заключены в интервале:

0   gxy2(f) 1.

Для исключения дельта-функции на нулевой частоте (постоянная составляющая сигнала) определение функции когерентности производится по центрированным сигналам. Для фильтров с постоянными параметрами функция когерентности равна 1, в чем нетрудно убедиться, если в формулу (1.6.12) подставить выражения Wxy и Wy, определенные через Wx. Для совершенно не связанных сигналов функция когерентности равна нулю. Промежуточные между 0 и 1 значения могут соответствовать трем ситуациям:

1. В сигналах (или в одном из них) присутствует внешний шум (например, шум квантования при ограничении по разрядности).

2. Фильтр не является строго линейным. Это может наблюдаться, например, при определенном ограничении по разрядности вычислений, при накоплении ошибки в рекурсивных системах и т.п.

3. Выходной сигнал y(t) помимо x(t) зависит еще от каких-то входных или внутренних системных процессов.

Величина 1-gxy2(f) задает долю среднего квадрата сигнала y(t) на частоте f, не связанную с сигналом x(t).

Использование функций когерентности в практических методах анализа случайных данных подробно рассмотрено в работе /л4/.

1.7. Структурные схемы цифровых фильтров /л8,л21/.

Рис. 1.7.1. Структурные схемы цифровых фильтров.

Структурные схемы. Алгоритмы цифровой фильтрации сигналов (цифровых фильтров) представляются в виде структурных схем, базовые элементы которых показаны на рисунке 1.7.1 вместе с примерами структурных схем фильтров. Как правило, структурные схемы соответствуют программной реализации фильтров на ЭВМ, но не определяют аппаратной реализации в специальных радиотехнических устройствах, которая может существенно отличаться от программной реализации.

Рис. 1.7.2. Граф фильтра.

Графы фильтров. Наряду со структурной схемой фильтр может быть представлен в виде графа, который отображает диаграмму прохождения сигналов и состоит из направленных ветвей и узлов.

Пример структурной схемы фильтра с передаточной функцией H(z) = (1+b1z)/(1+a1z) и графа, ей соответствующего, приведен на рисунке 1.7.2. С каждым i - узлом графа связано значение сигнала xi(k) или его образа Xi(z), которые определяются суммой всех сигналов или z-образов входящих в узел ветвей. В каждой ij - ветви (из узла i в узел j) происходит преобразование сигнала в соответствии с передаточной функцией ветви, например задержка сигнала или умножение на коэффициент.

Соединения фильтров. Различают следующие соединения фильтров.

Рис. 1.7.3.

1. Последовательное соединение (рис. 1.7.3). Выходной сигнал предшествующего фильтра является входным для последующего. Эквивалентная передаточная функция общей системы равна произведению передаточных функций фильтров, в нее входящих:  H(z) = H1(z)H2(z)...HN(z).

Рис. 1.7.4.

2. Параллельное соединение (рис. 1.7.4). Сигнал подается на входы всех параллельно соединенных фильтров одновременно, выходные сигналы фильтров суммируются. Эквивалентная передаточная функция общей системы равна сумме передаточных функций фильтров, в нее входящих:  H(z) = H1(z)+H2(z)+...+HN(z).

Рис. 1.7.5.

3. Соединение обратной связи (рис. 1.7.5). Выходной сигнал первого фильтра подается на выход системы и одновременно на вход фильтра обратной связи, выходной сигнал которого суммируется, со знаком плюс или минус в зависимости от вида связи (отрицательной или положительной), с входным сигналом системы. Эквивалентная передаточная функция системы:  H(z) = H1(z)/(1H1(z)H2(z)).

Схемы реализации фильтров. По принципам структурной реализации фильтров различают следующие схемы:

Рис. 1.7.6.

1. Прямая форма (рис. 1.7.6) реализуется непосредственно по разностному уравнению

yk =bnxk-n –amyk-m,

или по передаточной функции

H(z) =bnzn /(1+amzm).    

2. Прямая каноническая форма содержит минимальное число элементов задержки. Передаточную функцию РЦФ можно представить в следующем виде:

H(z) = Y(z)/X(z) = H1(z)H2(z),

H1(z) = V(z)/X(z) = 1/(1+amzm),

H2(z) = Y(z)/V(z) =bnzn.

Рис. 1.7.7.

Отсюда:             v(k) = x(k) -amv(k-m),                     (1.7.1)

      y(k) =bnv(k-n).                            (1.7.2)

В разностных уравнениях (1.7.1-1.7.2) осуществляется только задержка сигналов v(k). Граф реализации РЦФ в прямой канонической форме приведен на рисунке 1.7.7.

3. Каскадная (последовательная) форма соответствует представлению передаточной функции в виде произведения:

H(z) =Hi(z).

Hi(z) - составляющие функции вида (1-riz)/(1-piz) при представлении H(z) в факторизованной форме, где ri и pi - нули и полюсы функции H(z). В качестве функций Hi(z) обычно используются передаточные функции биквадратных блоков - фильтров второго порядка:

Hi(z) = (b0i + b1i z + b2i z2) / (1 + a1i z + a2i z2).

4. Параллельная форма используется много реже и соответствует представлению передаточной функции в виде суммы биквадратных блоков или более простых функций.

Рис. 1.7.8.

Обращенные формы. В теории линейных направленных сигнальных графов существуют процедуры преобразования исходных графов с сохранением передаточных функций. Одна из таких процедур - обращение (транспозиция) графов, которая выполняется путем изменения направления всех ветвей цепи, при этом вход и выход графа также меняются местами. Для ряда систем такая транспозиция позволяет реализовать более эффективные алгоритмы обработки данных. Пример обращения графа прямой канонической формы рекурсивной системы (с перестроением графа на привычное расположение входа с левой стороны) приведен на рис. 1.7.8.


Тема 2:
 ЧАСТОТНЫЙ  АНАЛИЗ  ЦИФРОВЫХ  ФИЛЬТРОВ.

Не перестаю удивляться дерзкой гениальности Стефенсона и братьев Черепановых. Как они отважились построить паровоз, не располагая теорией его движения?

Архив Кифы Васильевича (Наука и жизнь, 1984).

Пока нет теории, есть возможность войти в Историю. Бог прославился созданием Евы из ребра Адама без всякого теоретического обоснования. А когда теория есть, можно только влипнуть в какую-нибудь историю.

Архив студента Фика Волосатого (Наука и жизнь, 2084).

 Содержание: Введение. 2.1. Сглаживающие фильтры и фильтры аппроксимации. Фильтры МНК 1-го порядка. Фильтры МНК 2-го порядка. Фильтры МНК 4-го порядка.  2.2. Разностные операторы. Восстановление данных. Аппроксимация производных. 2.3. Интегрирование данных. 2.4. Расчет фильтра по частотной характеристике. Литература.

Введение.

Основной инструмент цифровой фильтрации данных и проектирования цифровых фильтров – частотный анализ (второй распространенный термин – спектральный анализ). Частотный анализ базируется на использовании периодических функций, в отличие от численных методов анализа и математической статистики, где предпочтение отдается полиномам. В качестве периодических используются преимущественно гармонические функции – синусы и косинусы. По-существу, спектральный состав сигналов – это тонкая внутренняя структура данных, которые несет сигнал, и которая практически скрыта даже для опытных обработчиков в динамическом (графическом) представлении больших множеств данных. Точно так же частотная характеристика цифрового фильтра – это его однозначный функциональный паспорт, полностью определяющий сущность преобразования фильтром входных данных.  

Однако следует отметить, что хотя сущность фильтрации сигналов состоит именно в направленном изменении частотного состава данных, которые несет сигнал, тем не менее, у начинающих специалистов существует определенное эмоциональное противодействие частотному подходу и его роли в анализе данных. Преодолеть это противодействие можно только одним путем – на опыте убедиться в эффективности частотного подхода.

Рассмотрим несколько примеров частотного анализа фильтров применительно к известным способам обработки данных.

2.1. Сглаживающие фильтры и фильтры аппроксимации /л24/. 

Предположим, что требуется осуществить сглаживание (регуляризацию, аппроксимацию) по методу наименьших квадратов (МНК) равномерного по аргументу массива данных.

Фильтры МНК 1-го порядка (МНК-1). Простейший способ аппроксимации по МНК произвольной функции s(t) - с помощью полинома первой степени, т.е. функции вида y(t) = A+Bt (метод скользящих средних). В качестве примера произведем расчет симметричного фильтра на (2N+1) точек с окном от -N до N.

Для определения коэффициентов полинома найдем минимум функции приближения (функцию остаточных ошибок). С учетом дискретности данных по точкам tn = nDt и принимая Dt = 1 для симметричного НЦФ с нумерацией отсчетов по n от центра окна фильтра (в  системе координат фильтра), для функции остаточных ошибок имеем:

s(A,B) = [sn - (A+B·n)]2.

Дифференцируем функцию остаточных ошибок по аргументам 'А, В' и, приравнивая полученные уравнения нулю, формируем 2 нормальных уравнения:

(sn-(A+B·n)) sn - A1 - Bn = 0,

(sn-(A+B·n))·n nsn - An - Bn2 = 0,

С учетом очевидного равенства n = 0, результат решения данных уравнений относительно значений А и В:

А = sn ,    B =nsn /n2.

Подставляем значения коэффициентов в уравнение аппроксимирующего полинома, переходим в систему координат по точкам k массива y(k+t) = A+B·t, где отсчет t производится от точки k массива, против которой находится точка n = 0 фильтра, и получаем в общей форме уравнение фильтра аппроксимации:

y(k+t) = sk-n + tnsk-n /n2.

Для сглаживающего НЦФ вычисления производятся непосредственно для точки k в центре окна фильтра (t = 0), при этом:

         yk = sk-n.                                           (2.1.1)

Импульсная реакция фильтра соответственно определяется (2N+1) значениями коэффициентов bn = 1/(2N+1). Так, для 5-ти точечного НЦФ:

h(n) = {0.2, 0.2, 0.2, 0.2,  0.2}.

Передаточная функция фильтра в z-области:

H(z) = 0.2(z-2+z-1+1+z1+z2).

Рис. 2.1.1.

Коэффициент усиления дисперсии шумов:

Kq = Sn h2(n) = 1/(2N+1),

т.е. обратно пропорционален ширине окна фильтра. Зависимость значения Kq от ширины окна приведена на рис. 2.1.1.

Частотная характеристика фильтра (передаточная функция фильтра в частотной области) находится преобразованием Фурье импульсной реакции h(n) (фильтр симметричный, начало координат в центре фильтра) или подстановкой z = exp(-jw) в выражение передаточной функции H(z). И в том, и в другом случае получаем:

  H(w) = 0.2[exp(2jw)+exp(jw)+1+exp(-jw)+exp(-2jw)].               (2.1.2)

Можно использовать и непосредственно уравнение фильтра, в данном случае уравнение (2.1.1). Подадим на вход фильтра гармонический сигнал вида sk = exp(jwk). Так как сигнальная функция относится к числу собственных, на выходе фильтра будем иметь сигнал yk = H(w)exp(jwk). Подставляя выражения входного и выходного сигналов в уравнение (2.1.1), получаем:

H(w) exp(jwk) = 0.2exp(jw(k-n))= 0.2 exp(jwk) exp(-jwn).

Отсюда, выражение для передаточной функции:

H(w) = 0.2exp(-jwn) = 0.2[exp(2jw)+exp(jw)+1+exp(-jw)+exp(-2jw)],

что полностью идентично выражению (2.1.2).

 Следует запомнить: если оператор фильтра известен, то для получения его частотной характеристики достаточно подставить сигнал exp(jwn) непосредственно в линейное уравнение фильтра. Тем самым выполняются сразу 2 операции: производится z- преобразование h(n) и подставляется z = exp(-jwn), т.е. осуществляется трансформация h(n)→ h(z) → H().

Так как импульсная реакция фильтра МНК  симметрична (функция h(n) четная), частотное представление передаточной функции должно быть вещественным, в чем нетрудно убедиться, объединив комплексно сопряженные члены выражения (2.1.2):

H(w) = 0.2(1+2 cos w+2 cos 2w).

Альтернативное представление передаточной функции H(w) для фильтра с произвольным количеством коэффициентов 2N+1 нам достаточно хорошо известно, как нормированный фурье-образ прямоугольной функции, каковой по существу и является селектирующее окно фильтра (2.1.1):

  H(w) = sin((N+1/2)w)/[(N+1/2)w] = sinc((N+1/2)w).                   (2.1.3)

Рис. 2.1.2. Сглаживающие фильтры МНК.

Графики передаточных функций (2.1.3) приведены на рисунке 2.1.2. По графикам можно видеть коэффициент передачи сигнала с входа на выход фильтра на любой частоте. Без ослабления (с коэффициентом передачи 1) сглаживающим фильтром пропускается (и должен пропускаться по физическому смыслу сглаживания данных) только сигнал постоянного уровня (нулевой частоты). Этим же определяется и тот фактор (который стоит запомнить), что сумма коэффициентов сглаживающего НЦФ всегда должна быть равна 1 (отсчет ненормированного дискретного фурье-преобразования на частоте = 0 равен сумме значений входной функции).

Чем больше число коэффициентов фильтра (шире окно фильтра), тем уже полоса пропускания низких частот. Подавление высоких частот довольно неравномерное, с осцилляциями передаточной функции относительно нуля. На рис. 2.1.3 приведен пример фильтрации случайного сигнала (шума) фильтрами с различным размером окна.

Рис. 2.1.3.  Фильтрация шумов фильтрами МНК 1-го порядка.

Частотное представление передаточных функций позволяет наглядно видеть особенности фильтров и целенаправленно улучшать их характеристики. Так, если в рассмотренном нами фильтре с однородной импульсной реакцией hn = 1/(2N+1) уменьшить два крайних члена в 2 раза и заново нормировать к сумме S hn = 1, то частотные характеристики фильтра заметно улучшаются. Для нахождения передаточной функции модифицированного фильтра снимем в выражении (2.1.3) нормировку (умножим на 2N+1), вычтем значение 1/2 крайних членов (exp(-jwN)+exp(jwN))/2 = cos(wN) и заново пронормируем полученное выражение (разделим на 2N). Пример новой передаточной функции при N=3 также приведен на рисунке 2.1.2. Передаточные функции модифицированных таким образом фильтров приводятся к нулю на частоте Найквиста, при этом несколько расширяется полоса пропускания низких частот и уменьшается амплитуда осцилляций в области подавления высоких частот. Если смотреть на сглаживание, как на операцию подавления высокочастотных помех, то модифицированные фильтры без сомнения больше соответствует своему целевому назначению.

Рис. 2.1.4.

При выборе окна фильтра следует учитывать как коэффициент подавления дисперсии шумов, так и степень искажения полезного сигнала, на который наложены шумы. Оптимальное окно фильтра может быть определено только в том случае, если спектр сигнала известен и ограничен определенной верхней частотой, а мощность шумов не превышает определенного уровня. Рассмотрим это на конкретном примере.

Допустим, что нужно обеспечить максимальное подавление дисперсии шумов при минимальном искажении верхней граничной частоты сигнала fв, на которой мощность шумов равна мощности сигнальной гармоники fв. Значение fв равно 0.08 частоты Найквиста дискретизации данных, т.е. fв = 0.04 при Dt=1. Относительные значения мощности (дисперсии) гармоники и шума принимаем равными 1. Спектр модели сигнала + шума в сопоставлении с передаточными функциями фильтров приведен на рис. 2.1.4.

Таблица 2.1.1.

      N

0

1

2

3

4

5

6

7

Ку(fв)

1

0.98

0.94

0.88

0.8

0.7

0.6

0.51

Wu(N)

1

0.96

0.88

0.77

0.64

0.51

0.38

0.26

Wq(N)

1

0.33

0.2

0.14

0.11

0.09

0.08

0.07

Кс/ш(N)

1

2.88

4.4

5.4

5.8

5.6

4.89

3.85

d2(N)

1

0.35

0.23

0.18

0.17

0.18

0.21

0.26

s2(N)

1

0.32

0.2

0.15

0.15

0.18

0.23

0.31

По формуле (2.1.3) вычисляем коэффициенты Ку(fв) усиления фильтров с N от 0 до 6 на частоте fв (см. таблицу 2.1.1). При мощности гармоники Wu = 1 амплитудное значение гармоники на входе фильтра равно U = = 1.41. Мощности гармоник на выходе фильтров в зависимости от N:

Wu(N)= 0.5·[U· Ку(fв)]2.

Соответственно, при мощности входного шума Wq=1 мощности шумов на выходе фильтров будут численно равны коэффициентам усиления дисперсии шумов Wq(N) = Wq·Kq(N).

Рис. 2.1.5.

Максимум отношения

Кс/ш(N) = Wq(N)/Wu(N)

определяет оптимальный фильтр с максимальным увеличением отношения сигнал/шум, т.е., по существу, коэффициент усиления отношения сигнал/шум при выполнении фильтрации с учетом изменения амплитудных значений полезной части сигнала.

Рис. 2.1.6.

При Ку(fв) > 0.5 и Wu(N) = Wq(N) = 1 численные значения величины d2(N) = 1/ Кс/ш(N) в первом приближении могут служить оценкой s2(N) квадрата среднего квадратического отклонения выходных сигналов от "чистой" гармоники fв, заданной на входе. Свидетельством этому служат последние строки таблицы 2.1.1, где приведены результаты математического моделирования фильтрации по данным условиям на выборке 10000 точек. На рис. 2.1.6 приведены результаты сопоставления расчетных d2(N) и модельных s2(N) значений данных коэффициентов. Эффект фильтрации можно видеть на рис. 2.1.7, где приведен пример сигналов моделирования на ограниченном отрезке данных.

Рис. 2.1.7. Сигналы на входе и выходе фильтра МНК 1-го порядка.

Фильтры МНК 2-го порядка (МНК-2) рассчитываются и анализируются аналогично. Рассмотрим квадратный многочлен вида y(t)=A+B·t+C·t2. Для упрощения анализа ограничимся симметричным сглаживающим НЦФ с интервалом дискретизации данных Dt=1.

Минимум суммы квадратов остаточных ошибок:

   s(A,B,C) = [sn-(A+B·n+C·n2)]2.                               (2.1.4)

Система уравнений после дифференцирования выражения (2.1.4) по А, В,С и приравнивания полученных выражений нулю:

A1 + Bn + Сn2 =sn.

An + Bn2 + Сn3 =n·sn.

An2 + Bn3 + Сn4 =n2·sn.

При вычислении значения квадратного многочлена только для центральной точки (t=0) необходимости в значениях коэффициентов В и С не имеется. Решая систему уравнений относительно А, получаем:

    n4sn -n2n2sn

        A = -----------------------                                         (2.1.5)

          1n4 - [n2]2

При развертывании выражения (2.1.5) для 5-ти точечного НЦФ:

     yo = (17sn - 5n2sn) /35 = (-3·s-2+12·s-1+17·so+12·s1-3·s2) /35.        (2.1.6)

Импульсная реакция:  hn = {(-3, 12, 17, 12, -3)/35}.

Передаточная функция фильтра:

  H(z)= (-3z-2+12z-1+17+12z1-3z2)/35.                                 (2.1.7)

Рис. 2.1.8. Сглаживающие фильтры МНК.

Аналогичным образом выражение (2.1.5) позволяет получить импульсную реакцию для 7, 9, 11 и т.д. точек фильтра:

3hn = {(-2,3,6,7,6,3,-2)/21}.

4hn = {(-21,14,39,54,59,54,39,14,-21)/231}.

5hn={(-36,9,44,69,84,89,84,69,44,9,-21)/459}.

Подставляя значение z = exp(-jw) в (2.1.7) или непосредственно в (2.1.6) сигнал sn = exp(jwn) и объединяя комплексно сопряженные члены, получаем частотную характеристику 5-ти точечного сглаживающего фильтра МНК второго порядка:

H(w) = (17+24 cos(w)-6 cos(2w))/35.

Вывод  формул передаточных функций для 7, 9, 11-ти точечных фильтров МНК предлагается для самостоятельной работы.

Рис. 2.1.9.

Вид частотных характеристик фильтров при N=3 и N=5 приводится на рис. 2.1.8. При сравнении характеристик с характеристиками фильтров МНК-1 можно видеть, что повышение степени полинома расширяет низкочастотную полосу пропускания фильтра и увеличивает крутизну ее среза. За счет расширения полосы пропускания главного частотного диапазона при тех же значениях N коэффициенты усиления дисперсии шумов фильтров МНК-2 выше, чем фильтров 1-го порядка, что можно видеть на рис. 2.1.9.

Рис. 2.1.10.

Методика выбора окна фильтра под частотные характеристики входных сигналов не отличается от фильтров МНК 1-го порядка. На рис. 2.1.10 приведены значения d2(N) и s2(N) фильтров МНК-2 в сопоставлении со значениями фильтров МНК-1 для частоты fв = 0.08 Гц при Dt=1. Из сопоставления видно, что по своим характеристикам подавления шумов фильтры МНК-2 примерно соответствуют фильтрам МНК-1 при в 2 раза большей ширине окна. Об этом же свидетельствует и пример моделирования фильтрации, приведенный на рис. 2.1.11.

Рис. 2.1.11.

Модификация фильтров. Фильтры МНК второго порядка (равно как и другие фильтры подобного назначения) также можно модифицировать по условию H(w) → 0 при w  p. Один из простейших методов модификации заключается в следующем. В выражение передаточной функции (со всеми коэффициентами фильтра, вида (2.1.7)) подставляем z = exp(-jw), заменяем значения концевых коэффициентов фильтра на параметры, принимаем w = p, и, приравняв полученное выражение нулю, находим новые значения концевых коэффициентов, после чего сумму всех коэффициентов нормируем к 1 при w = 0.

 Пример модификации фильтра МНК 2-го порядка.

 Передаточная функция:  выражение (2.1.7).   Частотная характеристика (нормировку можно снять):

     H(w) = -3exp(2jw)+12exp(jw)+17+12exp(-jw)-3exp(-2jw).

 Замена концевых коэффициентов {значение 3} на параметр b и упрощение:

    H(w) = 17+24 cos(w)+2b cos(2w).

 При w = p:  H(p) = 17-24+2b = 0.  Отсюда:  b = 3.5

 Новая частотная характеристика (с приведением коэффициентов к целым числам):

     H(w) = 68+96 cos(w)+14 cos(2w).    Сумма коэффициентов при = 0:  H(0) = 68+96+14 = 178.

 Нормированная частотная характеристика:    H(w) = (68+96 cos(w)+14 cos(2w))/178.

 Коэффициенты фильтра:  hn = {(7,48,68,48,7)/178}.

 Пример- задание:    Модифицировать 7, 9 и 11-ти точечные сглаживающие фильтры МНК 2-го порядка.

 Контроль: 7hn = {(1,6,12,14,12,6,1)/52}.  9hn = {(-1,28,78,108,118,108,78,28,-1)/548}.

     11h n = {(-11,18,88,138,168,178,168,138,88,18,-11)/980}.

Сравнительные графики частотных характеристик  модифицированных фильтров МНК второго порядка приведены на рисунке 2.1.8.

Фильтры МНК третьего порядка по своим частотным характеристикам эквивалентны фильтрам второго порядка. 

Фильтры МНК 4-го порядка. Расчет по аналогичной методике сглаживающих фильтров МНК 4-ой степени дает следующие результаты:

h0-3 = (131,75,-30,5)/231,

h0-4 = (179,135,30,-55,15)/429,

h0-5  = (143,120,60,-10,-45,18)/429,

h0-6 = (677,600,390,110,-135,-198,110)/2431.

На рис. 2.1.12 приведено сопоставление частотных характеристик одноразмерных фильтров МНК 1-го, 2-го и 4-го порядка.

В целом, по сглаживающим фильтрам МНК можно сделать следующие выводы:

1. Повышение порядка фильтра увеличивает степень касания частотной характеристикой уровня коэффициента передачи Н=1 на частоте w = 0 и расширяет полосу пропускания фильтра.

Рис. 2.1.12. Сглаживающие фильтры МНК.

2. Увеличение количества членов фильтра приводит к сужению полосы пропускания и увеличивает крутизну ее среза.

3. Модификация фильтров уменьшает осцилляции передаточной функции в полосе подавления сигналов.

Совместное изменение этих параметров позволяет подбирать для сглаживания данных такой фильтр МНК, частотная характеристика которого наилучшим образом удовлетворяет частотному спектру сигналов при минимальном количестве коэффициентов фильтра.

2.2. Разностные операторы /л24/.

Рассмотрим примеры частотного подхода при анализе разностных операторов.

Разностный оператор 1-го порядка имеет вид:

Dsk = sk+1-sk.

Последовательное n-кратное применение оператора записывается в виде оператора n-го порядка:

 Dn(sk) = D[Dn-1(sk)] = Dsk*Dn-1(sk)                                   (2.2.1)

k

sk

D(sk)

D2(sk)

D3(sk)

D4(sk)

D5(sk)

D6(sk)

-7

-6

-5

-4

-3

-2

-1

0

1

0

0

0

0

0

0

0

1

0

0

0

0

0

0

0

1

-1

0

0

0

0

0

0

1

-2

1

0

0

0

0

0

1

-3

3

-1

0

0

0

0

1

-4

6

-4

1

0

0

0

1

-5

10

-10

5

-1

0

0

1

-6

15

-20

15

-6

1

0

Кq

2

6

20

70

252

924

Слева приводится таблица выходных значений импульсной реакции разностных операторов на единичный импульсный сигнал Кронекера. Как видно из таблицы, ряды последовательных разностей содержат знакопеременные биномиальные коэффициенты. В представленной форме разностные операторы являются каузальными фазосдвигающими (односторонними), но нетрудно заметить, что операторы четных степеней могут быть переведены в симметричную форму сдвигом вперед на половину окна оператора.

В последней строке таблицы приводятся коэффициенты усиления дисперсии шумов, значение которых резко нарастает по мере увеличения порядка оператора. Это позволяет использовать разностные операторы с порядком выше 1 для определения местоположения статистически распределенных шумов в массивах данных. Особенно наглядно эту возможность можно видеть на частотных характеристиках операторов.

Подставляя сигнал s(k) = exp(jwk) в (2.2.1) и упрощая, получаем:

     Dns(k) = (jn) exp(jwn/2) [2 sin(w/2)]n  exp(jwk).                   (2.2.2)

Так как первые два множителя в выражении (2.2.2) равны 1, зависимость коэффициента передачи разностного оператора от частоты определяется вторым сомножителем (2 sin(w/2))n и представлена на рисунке 2.2.1.

Рис. 2.2.1. Разностные фильтры.

Как следует из рисунка, разностные операторы подавляют постоянную составляющую сигнала и его гармоники в первой трети интервала Найквиста и увеличивают высокочастотные составляющие сигнала в остальной части интервала тем больше, чем больше порядок оператора. Как правило, эту часть главного интервала спектра сигналов занимают высокочастотные статистические шумы.

Шумы при анализе данных также могут представлять собой определенную информацию, например, по стабильности условий измерений и по влиянию на измерения внешних дестабилизирующих факторов. На рис. 2.2.2 приведен пример выделения интервалов интенсивных шумов в данных акустического каротажа, что может свидетельствовать о сильной трещиноватости пород на этих интервалах. Такая информация относится уже не шумовой, а к весьма полезной информации при поисках и разведке нефти, газа и воды.

Рис. 2.2.2.

Восстановление данных. Разностные операторы имеют одну особенность: оператор n+1 порядка аннулирует полином степени n, т.е. свертка оператора n+1 порядка с полиномом n-ой степени дает нулевые значения:  Dn+1 * Pn(k) = 0. Эту особенность можно использовать для создания очень простых и достаточно надежных операторов восстановления в массивах пропущенных и утраченных значений или для замены аннулированных при обработке величин (например, явных выбросов).

 Пример.    P2(k) = xk = 1+2k-k2,   k = 0,1,2,...  xk = 1,2,1,-2,-7,-14,-23,-34,...   yk = xk*D3=0,0,0,0,...

Если считать, что отрезок данных, содержащий пропуск, является многочленом некоторой степени, то свертка данных с разностным оператором следующего порядка должна быть равна нулю. Так, при аппроксимации данных многочленом третьей степени для любой точки массива должно выполняться равенство:

D4·(sk) = sk-2-4sk-1+6sk-4sk+1+sk+2 = 0.

Интерполяционный фильтр восстановления утраченной центральной точки данных:

         sk = (-sk-2+4sk-1+4sk+1-sk+2)/6.                                     (2.2.3)

Соответственно, оператор фильтра восстановления данных h(n) = (-1,4,0,4,-1)/6. Коэффициент усиления шумов s2 = 17/18 = 0.944.

 Пример.   Фактический отрезок массива данных:  xk = {3,6,8,8,7,5,3,1}.

 Допустим, что на отрезке был зарегистрирован явный выброс:  xk = {3,6,8,208,7,5,3,1}.

 Отсчет с выбросом аннулирован.  Замена отсчета: x3 = (-x1+4x2+4x4-x5)/6= (-6+32+28-5)/6 8.17.

 В массиве утрачен 5-й отсчет.  Восстановление: x4 = (-x2+4x3+4x5-x6)/6 = (-8+32+20-3)/6 6.83.

Принимая в (2.2.3) k = 0 и подставляя сигнал sk = exp(jwk), получаем частотную характеристику, в данном случае - интерполяционного фильтра 4-го порядка:

H(w) = (4 cos w - cos 2w)/3.

Рис. 2.2.3. Разностные фильтры.

Вид частотной характеристики для фильтров восстановления пропущенных данных 4-го и 6-го порядков приведен на рис. 2.2.3. Графики наглядно показывают, что применение разностных интерполяционных фильтров восстановления данных возможно только для сигналов, высокочастотные и шумовые составляющие которых минимум в три раза меньше частоты Найквиста. Интерполяционные фильтры выше 4-го порядка применять не рекомендуется, т.к. они имеют коэффициент усиления шумов более 1.

На рис. 2.2.4 – 2.2.6 приведены примеры восстановления утраченных данных во входных сигналах оператором 3-го порядка и спектры сигналов в сопоставлении с передаточной функцией оператора восстановления данных. В сигналах утрачен каждый 10-ый отсчет (например, при передаче данных) при сохранении тактовой частоты нумерации данных. Учитывая, что все значения входных сигналов положительны, индикатором пропуска данных для работы оператора служат нулевые значения. В любых других случаях для оператора восстановления данных необходимо предусматривать специальный маркер (например, заменять аннулированные данные или выбросы определенным большим или малым значением за пределами значений  отсчетов).

  

                Рис. 2.2.4. Восстановление незашумленных данных.                                      Рис.2.2.5. Спектры.

Рис. 2.2.6. Восстановление зашумленных данных.

Как следует из рис. 2.2.5, спектр полезного сигнала полностью находится в зоне единичного коэффициента частотной характеристики оператора и восстановление данных выполняется практически без погрешности (рис. 2.2.4). При наложении на сигнал статистически распределенных шумов (рис. 2.2.6) погрешность восстановления данных увеличивается, но для информационной части полного сигнала она, как и во входных данных, она не превышает среднеквадратического значения (стандарта) флюктуаций шума. Об этом свидетельствует рис. 2.2.7, полученный для сигналов на рис. 2.2.6 по данным математического моделирования при разных значениях стандарта шума (выборки по 10 точкам восстановления).

Рис. 2.2.7. Погрешности восстановления сигналов.

Аппроксимация производных - вторая большая область применения разностных операторов. Оценки первой, второй и третьей производной можно производить по простейшим формулам дифференцирования:

(sn)' = (sn+1-sn-1)/2Dt.                       h1 = {0.5, 0, -0.5}.                 (2.2.4)

(sn)'' = (sn+1-2sn+sn-1)/Dt.                 h2 = {1, -2, 1}.

(sn)''' = (-sn+2+sn+1-sn-1+sn-2)/2Dt.    h3 = {-0.5, 0.5, 0, -0.5, 0.5}.

Рис. 2.2.8.

Оператор первой производной является нечетной функцией и имеет мнимый спектр. Если принять s(t) = exp(jwt), то истинное значение первой производной должно быть равно: s'(t) = jw exp(jwt). Передаточная функция H(w) = jw. Оценка первой производной в точке n = 0 по разностному оператору при Dt = 1:  s'(0) = (exp(jw)-exp(-jw))/2 = j sin w = H1(w). Отношение расчетного значения к истинному на той же точке:  K1(w) = sin(w)/w. Графики функций в правой половине главного диапазона приведены на рис. 2.2.8.

Как следует из приведенных выражений и графиков, значение К(w) равно 1 только на частоте w = 0. На всех других частотах в интервале Найквиста формула дает заниженные значения производных. Однако при обработке практических данных последний фактор может играть и положительную роль, если сигнал низкочастотный (не более 1/3 главного диапазона) и зарегистрирован на уровне высокочастотных шумов. Любое дифференцирование поднимает в спектре сигнала долю его высокочастотных составляющих. Коэффициент усиления дисперсии шумов разностным оператором дифференцирования непосредственно по его спектру в главном диапазоне:

Kq = (1/p)(sin w)2 dw = 0.5

При точном дифференцировании по всему главному диапазону:

Kq = (1/p)w2 dw = 3.29

Следовательно, разностный оператор имеет практически в шесть раз меньший коэффициент усиления дисперсии шумов, чем полный по главному диапазону точный оператор дифференцирования.

На рис. 2.2.9 показан пример дифференцирования гармоники с частотой 0.1 частоты Найквиста (показана пунктиром) и этой же гармоники с наложенными шумами (сплошная тонкая кривая).

Рис. 2.2.9. Пример дифференцирования (входные сигналы – вверху, выходные – внизу).

Рис. 2.2.10. Частотные функции 2-ой производной.

Оператор второй производной относится к типу четных функций. Частотная функция оператора: H2(w) = -2(1-cos w). Собственное значение операции H(w) = -w2. Отношение фактического значения к собственному

K2(w) = [sin(w/2)/(w/2)]2

и также равно 1 только на частоте w = 0. На всех других частотах в интервале Найквиста формула дает заниженные значения производных, хотя и меньшие по относительным значениям, чем оператор первой производной. Частотные графики функций приведены на рис. 2.2.10. Коэффициент усиления дисперсии шумов оператором второй производной равен 6 при собственном значении дифференцирования, равном 19.5. Эти значения показывают, что операция двойного дифференцирования может применяться только для данных, достаточно хорошо очищенных от шумов, с основной энергией сигнала в первой трети интервала Найквиста.

В принципе, вторую производную можно получать и последовательным двойным дифференцированием данных оператором первой производной. Однако для таких простых операторов эти две операции не тождественны. Оператор последовательного двойного дифференцирования можно получить сверткой оператора первой производной с самим собой:

2h1 = h1* h1 = {0.25, 0, -0.5, 0, 0.25},

и имеет коэффициент усиления дисперсии шумов всего 0.375. Частотная характеристика оператора:

2H1(w) = 0.5[1-cos(2w)].

Графики 2H1(w) и коэффициента соответствия 2K1(w) приведены пунктиром на рис. 2.2.10. Из их сопоставления с графиками второй производной можно видеть, что последовательное двойное дифференцирование возможно только для данных, спектральный состав которых занимает не более пятой начальной части главного диапазона.

Рис. 2.2.11. Вторая производная гармоники

с частотой w=0.2p при Dt=1 (пунктир – двойное

последовательное дифференцирование)

Пример применения двух операторов второй производной приведен на рис. 2.2.11.

Попутно заметим, что частота Найквиста главного диапазона обратно пропорциональна интервалу Dt дискретизации данных (wN = /Dt), а, следовательно, интервал дискретизации данных для корректного использования простых операторов дифференцирования должен быть в 3-5 раз меньше оптимального для сигналов с известными предельными частотами спектрального состава.

Частотные функции для третьей производной предлагается получить самостоятельно.

(!!!КР1- Разработка точных простых операторов дифференцирования и методики их расчета)

(!!!КР2- Разработка точных простых операторов вычисления второй производной сигналов и методики их расчета.)

(!!!КР3- Анализ операции вычисления третьей производной данных и повышение точности оператора)

2.3. Интегрирование данных /л24/

Интегрирование сигналов реализуется рекурсивными цифровыми фильтрами. Рассмотрим примеры анализа интегрирующих операторов.

Алгоритм интегрирования по формуле трапеций при нулевых начальных условиях:

    yk+1 = yk+(sk+1+sk)/2.                                    (2.3.1)

Принимая sk = exp(jwt) и yk = H(w)exp(jwt), подставляем сигналы в (2.3.1) при tk = kDt, Dt = 1 и решаем относительно H(w). Получаем:

H(w) = (exp(jw)+1)/[2(exp(jw)-1)].

H(w) = cos(w/2)/[2j sin(w/2)].

Истинное значение интеграла равно (1/jw)exp(jwt). Отсюда:

K(w) = H(w)exp(jwt)/[(1/jw)exp(jwt)].

      K(w) = cos(w/2)[(w/2)/sin(w/2)].                               (2.3.2)

Интегрирование по формуле прямоугольников (интерполяционное среднеточечное). Оператор:

                                           yk+1 = yk+sk+1/2.                                               (2.3.3)

После аналогичных подстановок сигнала и преобразований получаем:

K(w) = (w/2)/sin(w/2).   

При численном интегрировании по формуле Симпсона уравнение фильтра имеет вид:

          yk+1 = yk-1+(sk+1+4sk+sk-1)/3.                                   (2.3.4)

Частотный анализ фильтра проведите самостоятельно. Контроль:

K(w) = (2+cos w)/[3 sin(w)/w].

Рис. 2.3.1. Коэффициенты соответствия.

Графики функций К(w) приведены на рисунке 2.3.1. При интегрировании происходит накопление результатов по всему предыдущему циклу суммирования и в этих условиях значение коэффициента K(w) является более представительным и информационным, чем передаточная функция оператора для одной текущей точки.

Наиболее простые формулы цифрового интегрирования, трапеций и прямоугольников, ведут себя различным образом в главном частотном диапазоне. Формула прямоугольников завышает результаты на высоких частотах, а формула трапеций - занижает. Эти особенности легко объяснимы. Для одиночной гармоники площадь трапеции по двум последовательным отсчетам всегда меньше, чем площадь с выпуклой дугой гармоники между этими отсчетами, и разница тем больше, чем больше частота. В пределе, для гармоники с  частотой Найквиста, отсчеты соответствуют знакочередующемуся ряду (типа 1, -1, 1, -1, ... или любые другие значения в зависимости от амплитуды и начального фазового угла) и при нулевых начальных условиях суммирование двух последовательных отсчетов в формуле (3.2.1) будет давать 0 и накопления результатов не происходит. При интегрировании по площади прямоугольников с отчетом высоты по центральной точке между двумя отсчетами всегда ведет к завышению площади прямоугольника относительно площади, ограниченной выпуклой дугой гармоники.

Формула Симпсона отличается от формул трапеций и прямоугольников более высокой степенью касания единичного значения, что обеспечивает более высокую точность интегрирования в первой половине главного диапазона. Однако на высоких частотах погрешность начинает резко нарастать вплоть до выхода на бесконечность на конце диапазона (полюс в знаменателе передаточной функции рекурсивного фильтра на частоте Найквиста).

Эти особенности интегрирования следует учитывать при обработке данных сложного спектрального состава.

(!!!КР4- Разработка более точного оператора интегрирования и методики его расчета)

2.4. Расчет фильтра по частотной характеристике.

В качестве примера проведем расчет простого симметричного сглаживающего НЦФ исходя непосредственно из требуемой формы частотной характеристики. Расчет выполним для фильтра с окном в пять точек:

   yk = ask-2+bsk-1+csk+bsk+1+ask+2.                                (2.4.1)

Полагаем sk = exp(jwk), при этом yk = H(w)exp(jwk). Подставляем значения входного и выходного сигнала в уравнение фильтра, сокращаем левую и правую части на общий член exp(jwk) и, объединяя комплексно сопряженные члены в правой части, получаем уравнение передаточной функции:

Рис. 2.4.1. Частотные характеристики НЦФ.

H(w) = 2a cos(2w)+2b cos(w)+ c.

Сокращаем количество параметров функции заданием граничных условий по частоте. Как правило, имеет смысл принять:  H(0) = 1, H(p) = 0. Отсюда:  

H(0) = 2a+2b+c = 1,  

H(p) = 2a-2b+c = 0.  

B = 1/4,  c = 1/2-2a.

При этом функция H(w) превращается в однопараметровую:

H(w) = 2a(cos(2w)-1)+(cos(w)+1)/2.

По полученному выражению рекомендуется построить семейство кривых в параметрической зависимости от значений 'а' и выбрать фильтр, удовлетворяющий заданию. Пример семейства частотных характеристик приведен на рисунке 2.4.1.

Можно наложить еще одно дополнительное условие и определить все коэффициенты фильтра непосредственно. Так, например, если к двум граничным условиям задать третье условие сбалансированности: H(w=p/2) = 0.5, то из трех полученных уравнений сразу же получим все три коэффициента фильтра: a = 0, b = 1/4, c = 1/2 (фильтр сокращается до трех точек).

В принципе, таким методом можно задать любую произвольную форму частотной характеристики симметричного НЦФ с произвольным количеством N точек дискретизации, что определит полное уравнение (2.4.1) с окном 2N+1 точка и соответствующую передаточную функцию фильтра, по которой можно составить и решить N+1 уравнение для определения коэффициентов фильтра.


Тема 3:
 ВЕСОВЫЕ ФУНКЦИИ.

Свобода и ограничение есть два аспекта необходимости.

Антуан де Сент-Экзюпери.(Писатель и летчик Франции, ХХ в.)

Берешь топор, обрубаешь себе палец, и начинаешь вибрировать. Берешь сигнал, обрубаешь ему хвост, он тоже начинает вибрировать. А весовая функция, это обезболивающий укол. Вибрацию снимает, но палец не восстанавливает.

Валерий Самойлин.(Геофизик и альпинист России, ХХ в.)

Содержание: 3.1. Явление Гиббса. Параметры эффекта. Последствия для практики. 3.2. Весовые функции. Нейтрализация явления Гиббса. Весовые функции. Литература.

3.1. Явление Гиббса /л24/.

Большинство методов анализа и обработки данных представляют собой или имеют в своем составе операцию свертки множества данных s(k) с функцией оператора свертки h(n). Как множество данных s(k), так и оператор h(n), выполняющий определенную задачу обработки данных и реализующий определенную частотную передаточную функцию системы (фильтра), могут быть бесконечно большими. Практика цифровой обработки может иметь дело только с ограниченными множествами данных (k = 0,1,2,…,K) и коэффициентов оператора (n = 0,1,2,…,N или n = -N,…,1,0,1,…,N  для двусторонних операторов). В общем случае, эти ограниченные множества "вырезаются" из бесконечных множеств s(k) и h(n), что может весьма существенно сказаться на характеристиках функций.

Чаще всего с изменением частотных характеристик функций приходится сталкиваться при усечении операторов фильтров. На примере усечения симметричных операторов и рассмотрим характер происходящих изменений.

При расчетах фильтров, как правило, задается определенная передаточная характеристика H(w) фильтра и по ней производится расчет оператора фильтра h(n), количество членов которого может оказаться очень большим даже только по значимым значениям. Усечение может рассматриваться, как результат умножения функции оператора фильтра на селектирующее окно длиной 2N+1. В простейшем случае это окно представляет собой П-образную селектирующую функцию, которую называют также естественным временным окном:

   hn = h(n)·ПN(n), ПN(n) = 1 при |n|  N,

      ПN(n) = 0 при |n| > N.

Функция h(n) оператора фильтра, в пределе бесконечная, обуславливает определенную частотную передаточную характеристику фильтра H(w). Полному оператору h(n) соответствует исходная частотная характеристика H(w):

   H(w) =h(n) exp(-jwn).                          (3.1.1)

Сущность явления Гиббса. Функции во временном окне селекции ПN(n) в частотном пространстве соответствует спектральная функция, которая в определенной степени должна отличаться от функции H(w). Очевидно, что при усечении оператора h(n), а значит и ряда Фурье (3.1.1), до конечного числа членов N мы будем иметь усеченный ряд Фурье:

   HN(w) =h(n) exp(-jwn),                           (3.1.2)

при этом сходимость суммы остающихся членов ряда HN(w) к исходной передаточной функции H(w) ухудшается и происходит отклонение частотной характеристики фильтра от первоначальной в тем большей степени, чем меньше значение N.  Особенно ярко это проявляется на крутых перепадах (разрывах, скачках) в передаточных функциях:

- крутизна перепадов "размывается", т.к. она не может быть больше, чем крутизна  (в нулевой точке) последней сохраненной гармоники ряда (3.1.2);

- по обе стороны "размытых" перепадов появляются выбросы и затухающие осцилляции с частотой, равной частоте последнего сохраненного или первого отброшенного члена ряда (3.1.1).

Эти эффекты при усечении рядов Фурье получили название явления Гиббса. Рассмотрим явление Гиббса более подробно на примере разложения в ряд Фурье частотной функции единичного скачка G(w), которая является Фурье-образом какой-то дискретной временной функции bn. Уравнение функции единичного скачка:

    G(w) = -0.5 при -p w < 0,                          (3.1.3)

    = 0.5 при  0  w p.

Функция (3.1.3) имеет разрыв величиной 1 в точке w = 0 и, в силу дискретности временной функции и периодичности ее спектра, в точках p, 2p и т.д. Поскольку функция G(w) является нечетной, ее ряд Фурье не содержит косинусных членов и коэффициенты ряда определяются выражением:

bn = G(w) sin(nw) dw = sin(nw) dw.

   bn = 2/(n·p), n- нечетное,

   bn = 0,  n- четное.

Рис. 3.1.1. Значения коэффициентов bn.

 Как видно на рис. 3.1.1, ряд коэффициентов bn затухает очень медленно. Соответственно, медленно будет затухать и ряд Фурье функции G(w):

G(w) = (2/p)[sin w+ (1/3)·sin 3w+ (1/5)·sin 5w+....].

   G(w) = sin[(2n+1)w]/(2n+1).                        (3.1.4)

Рис. 3.1.2. Явление Гиббса.

Если мы будем ограничивать количество коэффициентов bn, т.е. ограничивать значение N ряда Фурье функции G(w), то суммирование в (3.1.4) будет осуществляться не до ∞, а до значения N. Графики частичных сумм ряда (3.1.4) в сопоставлении с исходной функцией приведены на рис. 3.1.2. Они наглядно показывают сущность явления Гиббса.

При усечении рядов Фурье определенное искажение функции, разложенной в ряд Фурье, существует всегда. Но при малой доле энергии  отсекаемой части сигнала этот эффект может быть и мало заметен. На скачках и разрывах функций он проявляется наиболее ярко.

Параметры эффекта. Ряд (3.1.4) при усечении можно записать в следующем виде:

GN(w) = [cos(2n+1)w dw] = [cos(2n+1)w] dw.

Сумма косинусного ряда равна sin[2(N+1)w]/(2sin w). Отсюда:

   GN(w) = .                                  (3.1.5)

Для определения местоположения максимумов и минимумов осцилляций функции (3.1.5) приравняем к нулю ее первую производную (подинтегральную функцию), при этом:

wk = kp/(2(N+1)),  k = 1,2,...

Соответственно, амплитудные значения первых (максимальных) осцилляций функции приходится на точки wk=1 = p/(2(N+1)), вторых (противоположных по полярности) - на точки wk=2 = p/(N+1). Период пульсаций равен 2wk=1 = p/(N+1) = Dw, т.е. интервалу дискретизации спектра при равном количестве отсчетов оператора фильтра и его спектра. Функция пульсаций (при ее выделении) является нечетной относительно скачка. Соответственно, при скачке функции G(w) на произвольной частоте главного частотного диапазона значения wk являются значениями Dwk относительно частоты скачка. Амплитудные значения функции в точках w1 и w2 (при подстановках w1 и w2 верхним пределом в (3.1.5)) практически не зависят от количества членов ряда N и равны:

GN(w1)  0.5+0.09,       GN(w2) 0.5-0.05.

Амплитуда последующих осцилляций постепенно затухает.

Таким образом, для усеченных рядов Фурье предельные значения максимальных выбросов по обе стороны от скачка и следующих за ними обратных выбросов при единичной амплитуде разрыва функции достигают соответственно 9% и 5% значения амплитуды скачка. Кроме того, сам скачок функции из собственно скачка преобразуется в переходную зону, длина которой между точками максимальных выбросов по обе стороны скачка равна p/(N+1), а по уровню исходных значений функции на скачке (в данном случае от -0.5 до 0.5) порядка (2/3)p/(N+1). Это явление типично для всех функций с разрывом.

Можно рассмотреть это явление и с других позиций. Как известно, произведение функций отображается в частотном представлении сверткой их фурье-образов. Отсюда:

       hn = h(n)·ПN(n)  H(w) * ПN(w) = HN(w).             (3.1.6)

Рис. 3.1.3. Свертывающие весовые функции.

Правая часть выражения (3.1.6) и отражает математическую сущность явления Гиббса. Ограничение массива функции определенным количеством членов (умножением на П-окно, прямоугольную селектирующую функцию) отображается сверткой частотной характеристики функции с частотной характеристикой селектирующей функции (которую часто называют свертывающей функцией). Частотная характеристика прямоугольной функции хорошо известна, как функция отсчетов sinc(x)/x, x = w(2N+1)/2, и для П-импульса длиной 2N+1 приведена на рис. 3.1.3 (для ряда значений N). Чем больше N, тем уже центральный пик функции и, соответственно, будет меньше  ширина переходной зоны, которая формируется на разрыве вместо скачка функции. Амплитуда самих осцилляций (по номеру от центрального пика) остается без изменений. Свертка этой частотной функции (Фурье-образа селектирующей функции) с частотной характеристикой усекаемых функций и порождает явление Гиббса на резких скачках частотных характеристик.

Последствия для практики. При расчетах фильтров и усечении размеров их операторов явление Гиббса является весьма нежелательным, т.к. приводит к искажению формы передаточных характеристик фильтров. В качестве примера рассмотрим явление Гиббса применительно к фильтру низких частот.

Попытаемся реализовать передаточную функцию фильтра следующего вида:

      H(f) = 1,   при -0.2  f  0.2,

     = 0,   при -0.2 > f > 0.2,

в главном частотном диапазоне от -0.5 до 0.5. Функция четная, коэффициенты ряда Фурье представлены только косинусными членами:

an = 4cos(2pfn) df = 2 sin(0.4pn)/(pn).

Передаточная функция:

     H(f) = 0.4 + 2sin(0.4pn) cos(2pfn)/(pn).                    (3.1.7)

Результат усечения ряда Фурье (3.1.7) до N = 7 приведен на рис. 3.1.4.

Рис. 3.1.4. Передаточные функции ФНЧ

Как видно на рисунке, явление Гиббса существенно искажает передаточную функцию фильтра. Однако при реализации фильтров ограничение длины операторов фильтров является правилом их конструирования исходя из чисто практических соображений реализации.

Явление Гиббса имеет место при усечении любых числовых массивов. При обработке геофизических данных операция усечения числовых массивов, как одномерных, так и многомерных, относится к числу распространенных. Усекаются корреляционные функции, и соответственно свертываются с частотным образом весового окна вычисляемые спектры мощности. Вырезаются из профилей и площадей участки съемки с аномальными данными для их более детальной обработки и интерпретации, и т.п. Во всех этих случаях мы можем столкнуться как с явлением Гиббса, так и с другими последствиями свертки функций в частотной области, в частности с цикличностью свертки, с определенным сглаживанием спектров усекаемых данных, которое может быть и нежелательным (снижение разрешающей способности), и полезным (повышение устойчивости спектров). В самих усекаемых данных мы не видим этих явлений, т.к. они проявляется в изменении их частотного образа, но при обработке данных, основной целью которой, как правило, и является изменение частотных соотношений в сигналах, последствия этих явлений могут сказаться самым неожиданным образом.

На рис. 3.1.5 показан другой пример искажений сигнала при усечении. Исходный аналоговый сигнал был вырезан из массива данных на интервале k = {0..60}, дискретизирован и переведен в цифровой форме в спектральную область для обработки. Дискретизация сигнала вызвала периодизацию его спектра, а дискретизация спектра вызвала периодизацию его динамического представления. Но на точках k=0 и k=60 в периодическом повторении исходного сигнала при усечении образовался скачок функции с бесконечным частотным спектром, а главный диапазон спектра дискретизированного сигнала ограничен интервалом его дискретизации (wN=1/2Dt). Следовательно, спектр сигнала является искаженным за счет наложения спектров боковых периодов, а при восстановлении аналогового сигнала по спектру главного диапазона он восстанавливается из усеченного спектра. Это приводит к появлению на скачке функции периодического повторения динамического представления сигнала явления Гиббса на обоих его концах, что и можно видеть на рис. 3.1.5 (сплошная тонкая кривая).

Рис. 3.1.5.

Практически это означает, что при частотной обработке вырезанного сигнала будет обрабатываться не спектр исходного сигнала, а спектр, которому соответствует сигнал, восстанавливаемый по данному спектру с наложенным явлением Гиббса.

3.2. Весовые функции /л16/.

Естественным методом нейтрализации нежелательных эффектов усечения сигналов во временной области (и любой другой области аргументов) является изменение окна селекции сигнала таким образом, чтобы частотная характеристика окна селекции при свертке как можно меньше искажала спектр сигнала. Что последнее возможно, показывает, например, даже такая простая модификация прямоугольной функции, как уменьшение в два раза значений ее крайних членов. Фурье-образ модифицированной П-функции уже рассматривался нами в составе сглаживающих фильтров МНК 1-го порядка и отличается от обычной П-функции с тем же окном выходом в ноль на частоте Найквиста и несколько меньшей амплитудой осцилляций при небольшом расширении главного максимума. В силу тождественности всех свойств прямого и обратного преобразований Фурье все ниже рассматриваемое действительно и для нейтрализации явлений Гиббса во временной области при усечениях спектров.

Нейтрализация явления Гиббса в частотной области. Рассмотрение продолжим с формулы (3.1.2) при усечении произвольного оператора фильтра h(n) прямоугольным селектирующим окном ПN(n). Период осцилляций суммы усеченного ряда Фурье (3.1.2) равен периоду последнего сохраненного либо первого отброшенного члена ряда. С учетом этого фактора осцилляции частотной характеристики могут быть существенно сглажены путем усреднения по длине периода осцилляций в единицах частоты, т.е. при нормированной свертке с Пr(w) - импульсом, длина которого равна периоду осцилляций r = 2p/(N+1). Эта свертка отобразится во временной области умножением коэффициентов фильтра h(n) на множители, которые являются коэффициентами преобразования Фурье частотной П-образной сглаживающей функции Пr(w):

H'N(w) = HN(w) * Пr(w) hnsN(n) = h(n)ПN(n)sN(n),

   p(n) = ПN(n)sN(n) = sinс(pn/(N+1)),   |n|  N.                (3.2.1)

Описанная операция носит название сглаживания Ланцоша. Произведение ПN(n)sN(n) sN(n) представляет собой новое весовое окно селекции p(n) взамен прямоугольного окна. Функцию sN(n) обычно называют временной весовой функцией (окном). Вид и частотная характеристика весового окна Ланцоша в сопоставлении с прямоугольным окном приведены на рис. 3.2.1.

Рис. 3.2.1. Весовая функция Ланцоша.

Как видно на рисунке, частотная характеристика весовой функции Ланцоша по сравнению с П-образной функцией имеет почти в 4 раза меньшую амплитуду осцилляций, но при этом ширина главного максимума увеличилась примерно на 1/4. Отметим, однако, что если амплитуда осцилляций (в единицах амплитуды главного максимума) определяется выбранным типом весовой функции, то ширина главного максимума, которой определяется ширина переходной зоны (вместо скачка функции) зависит от размеров весового окна и соответственно может изменяться под поставленные условия (уменьшаться увеличением размера 2N+1 весового окна).

Весовые функции. В настоящее время известны десятки различных по эффективности весовых функций. В идеальном случае хотелось бы иметь весовую свертывающую функцию с минимальной амплитудой осцилляций, высокую и узкую в главном максимуме, и при этом с минимальными размерами весового окна.

В таблицах 3.2.1 и 3.2.2 приведены формулы и основные спектральные характеристики наиболее распространенных и часто используемых весовых окон. Носители весовых функций, в принципе, являются неограниченными и при использовании в качестве весовых окон действуют только в пределах окна и обнуляются за его пределами (как и в (3.2.1)), что выполняется без дальнейших пояснений. Для упрощения записи формулы приводятся в аналитической, а не в дискретной форме, с временным окном 2t, симметричным относительно нуля (0t). При переходе к дискретной форме окно 2t заменяется окном 2N+1, а значения t - номерами отсчетов n (t = nDt). Следует заметить, что большинство весовых функций на границах окна (n = N) принимают нулевые или близкие к нулевым значения, т.е. фактическое окно усечения данных занижается на 2 точки. Последнее исключается, если принять 2t = (2N+3)Dt.

Таблица 3.2.1.

Основные весовые функции

Временное окно

Весовая функция

Фурье-образ

Естественное (П)

П(t) = 1, |t|t; П(t) = 0, |t|>t

П(w) = 2t sinc[wt]

Бартлетта (D)

b(t) = 1-|t|/t

B(w) = t sinc2(wt/2).

Хеннинга, Ганна

p(t) = 0.5[1+cos(pt/t)]

0.5П(w)+0.25П(w+p/t)+0.25П(w-p/t)

Хемминга

p(t) = 0.54+0.46·cos(pt/t)

0.54П(w)+0.23П(w+p/t)+0.23П(w-p/t)

Карре (2-е окно)

p(t) = b(t)·sinc(pt/t)

t·B(w)*П(w), П(w) = 1 при |w|<p/t

Лапласа-Гаусса

p(t) = exp[-b2(t/t)2/2]

[(t/b) exp(-t2w2/(2b2))] * П(w)

Кайзера-Бесселя

 

p(t) =

Jo[x] =[(x/2)k/k!]2

Вычисляется преобразованием Фурье.

Jo[x] - модифицированная функция

          Бесселя нулевого порядка

Таблица 3.2.2.

Характеристики спектров весовых функций

Параметры

Ед.

изм.

П-

окно

Барт-

летт

Лан-цош

Хен-

нинг

Хем-минг

Кар-

ре

Лап-лас

Кай-зер

Амплитуда:

 Главный пик

 1-й выброс(-)

 2-й выброс(+)

Ширина Гл.пика

Положения:

    1-й нуль

    1-й выброс

    2-й нуль

    2-й выброс

t

%Гл.п.

- “ -

wt/2p

wt/2p

wt/2p

wt/2p

wt/2p

2

0.217

0.128

0.60

0.50

0.72

1.00

1.22

1

-

0.047

0.89

1.00

-

-

1.44

1.18

0.048

0.020

0.87

0.82

1.00

1.29

1.50

1

0.027

0.0084

1.00

1.00

1.19

1.50

1.72

1.08

0.0062

0.0016

0.91

1.00

1.09

1.30

1.41

0.77

-

-

1.12

-

-

-

-

0.83

0.0016

0.0014

1.12

1.74

1.91

2.10

2.34

0.82

.00045

.00028

1.15

1.52

1.59

1.74

1.88

Рис. 3.2.2. Примеры весовых функций.

Сравнительный вид весовых функций приведен на рис. 3.2.2. Расчет функций проведен с исключением нулевых значений на границах весового окна.

Спектральные окна Бартлетта и Карре не имеют отрицательных выбросов и применяются, в основном, для усечения корреляционных функций. Функция Карре не имеет нулей и представляет собой положительно убывающую функцию. Функции Хеннинга и Хемминга примерно одного класса, функция Хемминга является улучшенным вариантом функции Хеннинга. Частотные образы функций Бартлетта и Хемминга приведены на рис. 3.2.3.

Рис. 3.2.3. Частотные функции весовых окон.

Весовые окна Лапласа и Кайзера - усеченные функции соответственно Гаусса и Бесселя. Степень усечения зависит от параметра b. Характеристики функций, приведенные в таблице 3.2.2, действительны при b=3 для окна Лапласа и  b=9 для окна Кайзера. При уменьшении значения b крутизна главного максимума сглаживающих функций увеличивается (ширина пика уменьшается), но платой за это является увеличение амплитуды осцилляций.

Рис. 3.2.4. Частотные функции весовых окон.

Функции Лапласа и Кайзера являются универсальными функциями. По-существу, их можно отнести к числу двупараметровых: размером окна 2t (числом N) может устанавливаться ширина главного максимума, а значением коэффициента b - относительная величина осцилляций на частотной характеристике весовых функций, причем вплоть до осцилляций П-окна при b=0. Это обусловило их широкое использование, особенно при синтезе операторов фильтров.

Попутно заметим, что достаточно гладкие частотные характеристики весовых функций позволяют использовать их в качестве сглаживающих (низкочастотных НЦФ).

(!!!КР5- Разработка методики расчета специальных весовых функций типа П-окна с гауссовской концовкой)

(!!!КР6-Использование весовых функций в качестве сглаживающих)


Тема 4:
 НЕРЕКУРСИВНЫЕ ЧАСТОТНЫЕ ФИЛЬТРЫ.

Недостаточно овладеть премудростью, нужно уметь пользоваться ею.

Цицерон. О высшем благе и высшем зле.

 (Римский сенатор и философ)

Мало пользы от теории бокса, пока сам не научишься махать кулаками.

Евгений Буцко. Назидания идиотам.

 (Ленинградский инженер и геофизик)

Содержание: 4.1. Общие сведения. Типы фильтров. Методика расчетов. 4.2. Идеальные частотные фильтры. Импульсная реакция фильтров. 4.3. Конечные приближения идеальных фильтров. Применение весовых функций. Весовая функция Кайзера. 4.4. Дифференцирующие цифровые фильтры.   4.4. Гладкие частотные фильтры.  Литература.

4.1. Общие сведения.

К наиболее известным типам нерекурсивных цифровых фильтров (НЦФ) относятся частотные фильтры, алгоритм которых для симметричных НЦФ, не изменяющих фазу сигналов,  имеет вид:

yk  =hn  sk-n .

Рис. 4.1.1. Типы частотных фильтров.

Типы фильтров. Выделяют три основных группы частотных фильтров: ФНЧ - фильтры низких частот (пропускание низких, подавление высоких частот во входном сигнале), ФВЧ - фильтры высоких частот (пропускание высоких, подавление низких частот) и ПФ - полосовые фильтры (пропускание определенных частот с подавлением остальных частот сигнала). Среди последних в отдельную группу иногда выделяют РФ - режекторные фильтры, понимая под ними фильтры с подавлением определенных частот (узкой полосы частот) во входном сигнале, и СФ – селекторные фильтры, обратные РФ. Схематические частотные характеристики фильтров приведены на рисунке 4.1.1. Между частотными интервалами пропускания и подавления сигнала существует зона, которая называется переходной.

Практика проектирования нерекурсивных цифровых фильтров базируется, в основном, на синтезе фильтров низких частот. Все другие виды фильтров могут быть получены из фильтров низких частот соответствующим преобразованием. Так, например, фильтр высоких частот может быть получен инверсией фильтра низких частот  -  вычислением разности между исходным сигналом и результатом его фильтрации низкочастотным НЦФ:

y(k) = s(k) h(n) s(k-n).

Отсюда, условие инверсии симметричного низкочастотного фильтра в высокочастотный:

  hв(0) = 1- hн(0),      hв(n) = -hн(n)   при n0.                       (4.1.1)

Применяется также способ получения фильтров высоких частот из низкочастотных фильтров путем реверса частоты в передаточной функции низкочастотного фильтра, т.е. заменой переменной w на переменную w' = p-w (при Dt = 1). Для симметричных фильтров, содержащих в передаточной функции только косинусные члены аргумента w, в результате такой операции будем иметь:  

cos n(p-w) = cos np cos nw = (-1)n cos nw.

Последнее означает смену знака всех нечетных гармоник передаточной характеристики фильтра и, соответственно, всех нечетных членов фильтра.

Полосовой фильтр может реализоваться последовательным применением ФНЧ и ФВЧ с соответствующим перекрытием частот пропускания. В математическом представлении это означает последовательную свертку массива данных с массивами коэффициентов hн - низкочастотного, и hв - высокочастотного фильтров:

vk = hн(n) * s(k-n),      yk = hв(n) * vk = hн(n) * hв(n) * s(k-n).

Так как операция свертки коммутативна, то вместо отдельных массивов коэффициентов ФНЧ и ФВЧ их сверткой может быть определен непосредственно массив коэффициентов полосового фильтра: hn = hн(n) * hв(n).

Полосовой режекторный фильтр также может быть получен методом инверсии полосового фильтра. Одночастотные режекторные фильтры обычно выполняются на основе простых рекурсивных цифровых фильтров, более эффективных для данных целей.

Методика расчетов НЦФ в самом общем виде включает:

1. Задание идеальной частотной передаточной функции фильтра.

2. Расчет функции отклика идеального фильтра (обратное преобразование Фурье передаточной функции фильтра).

3. Ограничение функции отклика до определенного количества членов, при этом на передаточной характеристике фильтра возникает явление Гиббса.

4. Для нейтрализации явления Гиббса производится выбор весовой функции и расчет ее коэффициентов, на которые умножаются коэффициенты функции отклика фильтра. Результатом данной операции являются значения коэффициентов оператора фильтра (импульсный отклик фильтра). По существу, операции 3 и 4 представляют собой усечение ряда Фурье динамического (временного) представления передаточной функции фильтра определенной весовой функцией.

5. С использованием полученных значений коэффициентов оператора фильтра производится построение его частотной характеристики и проверяется ее соответствие поставленной задаче.

4.2. Идеальные частотные фильтры.

Идеальным полосовым фильтром называется фильтр, имеющий единичную амплитудно-частотную характеристику в полосе от определенной нижней частоты wн до определенной верхней частоты wв и нулевой коэффициент передачи за пределами этой полосы (для цифровых фильтров - в главном частотном диапазоне).

Импульсная реакция фильтра (коэффициенты оператора) находится преобразованием Фурье заданной передаточной функции H(w). В общем случае:

h(nDt) = (1/2p)H(w) exp(jwnDt) dw.

Для получения вещественной функции импульсного отклика фильтра действительная часть передаточной функции должна быть четной, а мнимая - нечетной. Цифровые фильтры задаются в главном частотном диапазоне, границы которого (частота Найквиста wN) определяются интервалом дискретизации данных (wN = p/Dt), подлежащих фильтрации, и соответственно определяют интервал дискретизации оператора фильтра (Dt = p/wN). Для фильтров с нулевым фазовым сдвигом мнимая часть передаточной функции должна быть равна нулю, при этом оператор фильтра определяется косинусным преобразованием Фурье:

  h(nDt)=  (1/p)H(w) cos(npw/wN) dw,  n = 0,1,2,...          (4.2.1)

Для идеального полосового фильтра H(w)=1 в полосе частот от wн до wв и интеграл (4.2.1) вычисляется в этих пределах. Идеальные фильтры низких и высоких частот можно считать частными случаями идеальных полосовых фильтров с полосой пропускания от 0 до wв для низкочастотного и от wн до wN для высокочастотного фильтра.

При интервале дискретизации данных Dt, условно принимаемым за 1, главный частотный диапазон передаточных функций ограничивается значением частоты Найквиста от -p до p. Если на практике интервал дискретизации данных в физических единицах отличается от 1, то это сказывается только на изменении масштаба частотной шкалы передаточных функций.

 Пример 1.  Dt = 0.1 сек.  fN = 1/2Dt = 5 Гц.  wN = p/Dt = 10 p.

 Пример 2.  Dx = 10 метров.  fN = 0.05 м-1.  wN= 0.1 p.

Во всех дальнейших выражениях значение Dt, если это специально не оговорено, будем принимать равным 1. 

При H(w)=A=1  в полосе пропускания wн-wв, и H(w)=0 за ее пределами, для идеальных симметричных полосовых НЦФ из (4.2.1) в общем виде получаем:

        h(n) = (А/p) [wв sinc(nwв) - wн sinc(nwн)],   (4.2.2)

ho = (wв - wн)/p,    h(n) = (sin nwв - sin nwн)/(np).

где sinc(nw) = sin(nw)/(nw) - функция интегрального синуса (функция отсчетов), бесконечная по координате w.

                 Рис. 4.2.1. Входные сигналы.                             Рис. 4.2.2. Спектр сигнала и границы фильтра.

Рис. 4.2.3. Оператор фильтра.

 На рис. 4.2.1 приведен пример сигнала однотональной балансной амплитудной модуляции (чистого – вверху, и с наложенными шумами внизу, мощность шумов равна мощности сигнала). Если информация заключена в частоте и амплитуде модулирующего сигнала, то полосовой фильтр выделения сигнала из шумов, спектр которого для одной модулирующей частоты приведен на рис. 4.2.2, в идеальном случае должен иметь плоскую частотную характеристику в границах возможных вариаций модулирующей частоты (от wн до wв).  

На рис. 4.2.3 приведен оператор полосового фильтра, вычисленный по (4.2.2) для приведенных выше условий с ограничением по n до N=100. Как видно из рисунка, оператор затухает достаточно медленно и явно усечен, что должно сказаться на форме частотной характеристики фильтра. Все дальнейшие вычисления будут проводиться на продолжении данного примера.

4.3. Конечные приближения идеальных фильтров /л24/.

Оператор идеального частотного НЦФ, как это следует из выражения (4.2.2), представляет собой бесконечную затухающую числовую последовательность, реализующую заданную передаточную функцию:

    H(w) =h(n) cos nw.    (4.3.1)

На практике бесконечный ряд (4.3.1) всегда приходится ограничивать определенным числом членов его конечного приближения

    H'(w) =h(n) cos nw,

при этом передаточная функция осложняется явлением Гиббса и появляется переходная зона между полосами пропускания и подавления сигнала (рис. 4.3.1, пунктирная кривая при N=100). Явление Гиббса формирует первые выбросы передаточной функции на расстоянии p/(2(N+1)) от скачков (разрывов первого рода). Если ширину переходной зоны Dp в первом приближении принять по расстоянию между первыми выбросами по обе стороны от скачка функции H(w), то ее значение будет ориентировочно равно p/(N+1) = Dp. 

Рис. 4.3.1. Передаточные функции полосового фильтра.

Применение весовых функций. Если уровень пульсаций передаточной функции, определяемый явлением Гиббса, не удовлетворяет поставленным задачам фильтрации данных, рекомендуется использование сглаживающих весовых функций. С учетом того, что при применении весовых функций происходит расширение переходных зон примерно в два раза, значение ширины переходной зоны будет равным Dp = 2p/N. Отсюда можно определить минимальное число членов усеченного ряда:

     N = 2p/Dp.                                                    (4.3.2)

Для примера на рис. 4.3.1 значение N принято равным 200, при этом крутизна переходной зоны увеличилась (тонкая кривая H'(w), N=200), создавая запас на последующее сглаживание весовой функцией.

Выбор весовых функций целесообразно осуществлять по допустимой величине осцилляций усиления сигнала в полосе подавления, т.е. по относительному значению амплитуды первого выброса на передаточных характеристиках весовых функций. Для выбранной весовой функции (с учетом числа ее членов по (4.3.2)) производится расчет весовых коэффициентов pn, после чего устанавливаются окончательные значения оператора фильтра:

     hn = h(npn.                                                (4.3.3)

Подстановкой коэффициентов (4.3.3) в (4.3.1) рекомендуется произвести построение полученной передаточной характеристики фильтра и непосредственно по ней оценить пригодность фильтра для поставленных задач. Это наглядно видно на рис. 4.3.1, где для нашего примера была применена весовая функция Гаусса. Передаточная функция Hp(w) имеет практически такую же крутизну, как и функция H'(w) при N=100 и практически плоскую вершину в интервале спектра сигнала. Качество работы фильтра для сигнала, приведенного на рис. 4.2.1, можно видеть на рис. 4.3.2.

Рис. 4.3.2. Полосовая фильтрация (вверху – входной сигнал, внизу – выходной).

Весовая функция Кайзера. Наибольшее распространение при расчетах частотных НЦФ получила весовая функция Кайзера:

p(n) = .

Это объясняется тем, что параметры функции Кайзера могут устанавливаться непосредственно по техническим требованиям к передаточным функциям проектируемых фильтров – допустимой ширине переходной зоны Dp и значению коэффициента шума фильтра d (максимальным значениям осцилляций передаточной функции в единицах коэффициента передачи в полосе пропускания).

Кайзером установлено, что для заданного значения d произведение количества членов оператора НЦФ на ширину переходной зоны является величиной постоянной. Оно получило название D-фактора:

D = N·Dp/p.

С другой стороны, установлены следующие эмпирические соотношения между D-фактором и параметром b функции Кайзера:

         D = (А-7.95)/14.36 при А>21.

   = 0.9222  при А<21.

         b = 0.1102(A-8.7) при А>50.

   = 0   при А<21.

   = 0.5842(A-21)0.4 + 0.07886(A-21),    21<А<50.

где: А = -20 log d - затухание в децибелах.

Приведенные выражения позволяют по заданному значению коэффициента шума d определить параметр b функции Кайзера, а через D-фактор число членов фильтра:

N = pD/Dp.

При проектировании полосовых фильтров проверка передаточной функции полученного оператора НЦФ исходному заданию по значению коэффициента шума является обязательной. Это объясняется тем, что поскольку полоса пропускания полосового фильтра ограничена двумя скачками, на передаточной характеристике возникают два центра осцилляций, при этом наложение осцилляций может как уменьшить, так и увеличить амплитуду суммарных осцилляций. Если за счет наложения произойдет увеличение амплитуды осцилляций, то расчет НЦФ следует повторить с уменьшением исходного значения d.

 Пример расчета полосового фильтра. 

 Произвести расчет ПФ при следующих исходных параметрах: wн = 0.3p,   wв = 0.6p, Dp = 0.1p,  d=  0.02.

 1. А= -20 log d.  А= 34.    2. N= p (A-7.95)/(14.36 Dp).  N= 18.

 3. b= 0.5842(A-21)0.4 +0.07886(A-21).  b= 2.62. 4. hо= (wв-wн)/p.  hо= 0.3

 5. h(n)= (sin nwв-sin nwн)/(np).  h(n)= 0.04521, -0.24490, -0.09515,...., 0.02721.

 6. pn= Jo{b} / Jo{b}.  pn = 1.00, 0.997, 0.9882, .......

 7. Oператор фильтра: hn= h(n)pn,  n=0,1,2,...,N.  h-n=hn.  hn= 0.3000, 0.04508, -0.2420, ........

 8. Проверка по формуле: H(w) =hn cos nw,   0  w  p.

     Для оценки формы передаточной функции количество точек  спектра в интервале 0-p достаточно задать равным 2N, т.е. с шагом Dw  p/36.

(!!!КР7 - Разработка программы расчета сглаживающих НЦФ).

(!!!КР8 - Разработка программы расчета полосовых НЦФ).

4.4. Дифференцирующие цифровые фильтры.

Передаточная функция. Из выражения для производной

d(exp(jwt))/dt = jw exp(jwt)

следует, что при расчете фильтра производной массива данных необходимо аппроксимировать рядом Фурье передаточную функцию вида H(w) = jw. Поскольку коэффициенты такого фильтра будут обладать нечетной симметрией (h-n = -hn) и выполняется равенство

hn [exp(jwn)-exp(-jwn)] = 2j hn sin nw,

то передаточная характеристика фильтра имеет вид:

H(w) = 2j(h1 sin w + h2 sin 2w + ... + hN sin Nw),

т.е. является мнимой нечетной, a сам фильтр является линейной комбинацией разностей симметрично расположенных относительно sk значений функции. Уравнение фильтрации:

yn = hn(sk+n - sk-n).

Если дифференцированию подлежит низкочастотный сигнал, а высокие частоты в массиве данных представлены помехами, то для аппроксимации в пределах частотного диапазона 0-wN задается передаточная функция фильтра вида:

Hн(w) = w,  w wв,     Hн(w) = 0,  wв< w wN.

Оператор дифференцирующего фильтра:

       h(n) = (1/p)Hн(w) sin(npw/wN) dw,  n = 0,1,2,...                (4.4.1)

Принимая, как обычно, wN = p (Dt = 1)  и решая (4.4.1) при Hн(w) = w, получаем:

          hn = (1/p)[sin(nwв)/n2 - wв cos(nwв)/n],                          (4.4.2)

hо = 0,   h-n = -hn.   

Проверка:  Hн(w) =hn sin nw = 2hn sin nw .                 (4.4.3)

Рис. 4.4.1. Коэффициенты оператора фильтра.

На рис. 4.4.1 приведен пример расчета коэффициентов дифференцирующего фильтра на интервал {0-0.5}p при Dt=1 (wв = p/2). Операторы дифференцирующих фильтров, как правило, затухают очень медленно и, соответственно, достаточно точная реализация функции (4.4.3) весьма затруднительна.

Рис. 4.4.2. Частотные функции фильтров.

Ряд (4.4.3) усекается до N членов и с помощью весовых функций производится нейтрализация явления Гиббса. Явление Гиббса для дифференцирующих фильтров имеет весьма существенное значение и может приводить к большим погрешностям при обработке информации, если не произвести его нейтрализацию. Примеры ограничения оператора, приведенного на рис. 4.4.1, и соответствующие передаточные функции Hн'(w) усеченных операторов показаны на рис. 4.4.2.

Для оценки возможных погрешностей дифференцирования усеченными операторами произведем расчет фильтра при wв = p/2. По формулам (4.4.2) определяем:  

h0-10 = 0, 0.3183, 0.25, -0.0354, -0.125, 0.0127, 0.0833, -0.0065, -0.0625, 0.0039, 0.05.

Произведем проверку работы фильтра на простом массиве данных sn = n, производная которого постоянна и равна 1. Для массива с постоянной производной фильтр может быть проверен в любой точке массива, в том числе и в точке n=0, для которой имеем:

у =hn  so-n = 2 n hn,

при этом получаем: у=0.5512 при N=5, у=1.53 при N=10.

Рис. 4.4.3. Погрешность дифференцирования.

Такое существенное расхождение с действительным значением производной объясняется тем, что при w=0 тангенс угла наклона реальных передаточных функций фильтра, как это видно на рисунке 4.4.2, весьма существенно отличается от тангенса угла наклона аппроксимируемой функции H(w)= w. На рис. 4.4.3 приведены частотные графики относительной погрешности дифференцирования s = Hн'(w)/Hн(w) с вычислением значений на нулевой частоте по пределам функций при N  . На рис. 4.4.4 приведен пример операции дифференцирования s*h гармоники s с частотой wo оператором с N=10 в сопоставлении с точным дифференцированием ds/dk.

Рис. 4.4.4. Пример операции дифференцирования.

Применим для нейтрализации явления Гиббса весовую функцию Хемминга. Результат нейтрализации для фильтра с N=10 приведен на рис. 4.4.5. Повторим проверочный расчет дифференцирования на массиве sn = n и получим результат у=1.041, т.е. погрешность дифференцирования уменьшается порядок.

Рис. 4.4.5. Дифференцирование с применением весовой функции.

Аналогично производится расчет и полосовых дифференцирующих фильтров с соответствующим изменением пределов интегрирования в (4.4.1) от wн до wв. При этом получаем:

hn = (wнcos nwн-wвcos nwв)/(np) + (sin nwв-sin nwн)/(n2p).

(!!!КР9- Разработка программы расчета НЦФ дифференцирования)  

(!!!КР10- Оценка возможностей усечения операторов НЦФ, умноженных на весовые функции).

4.5. Гладкие частотные фильтры /л24/.

В некоторых случаях (при последовательном соединении фильтров, при выделении сигналов на уровне сильных помех и т.п.) осцилляции на передаточных характеристиках фильтров являются весьма нежелательными даже при их малой остаточной величине.

Принцип синтеза фильтров. Очевидно, что фильтры с гладкой передаточной характеристикой можно получить только в том случае, если возможно разложение передаточной функции в конечный ряд Фурье.

Допустим, мы имеем симметричный НЦФ с передаточной функцией:

          H(w) = hо+ 2hn cos nw.                                    (4.5.1)

Как известно, cos nw равен полиному по cos w степени n, при этом выражение (4.5.1) можно записать в виде:

         H(w) =gn (cos w)n =gn xn,                           (4.5.2)

где переменная х=cos w изменяется от -1 до 1 (поскольку w изменяется от 0 до p). Преобразование переменной представляет собой нелинейное растяжение оси абсцисс с поворотом на 180o (по переменной х передаточные функции ФНЧ похожи на ФВЧ и наоборот) с выражением функции через степенной полином. Последнее примечательно тем, что синтез гладких функций на базе степенных полиномов затруднений не представляет.

Так, например, для конструирования ФНЧ в качестве исходной может быть принята степенная функция вида:

    g(x)= (1+x)z (1-x)r,                                        (4.5.3)

где z и r - параметры.

Рис. 4.5.1. Примеры синтеза гладких фильтров.

Функция (4.5.3) имеет нули порядка z и r в точках соответственно х = -1 и х = 1 (рис. 4.5.1), причем значения z и r характеризуют степень касания функцией оси абсцисс (чем больше порядок, тем медленнее функция "отрывается" от оси абсцисс).

Если функцию (4.5.3) проинтегрировать в пределах от -1 до х и пронормировать на значение интеграла от -1 до 1 , то будет получена гладкая передаточная характеристика низкочастотного фильтра (рисунке 4.5.1):

H(x)=g(x)dx /g(x)dx.                                               (4.5.4)

Рис. 4.5.2. Схема возврата к ряду Фурье.

Функция H(x) имеет перегиб в точке (z-r)/(z+r) и переходную зону, крутизна которой тем больше, чем больше значения z и r. Подстановкой x=cos w осуществляется возврат к частотной переменной с сохранением монотонности функции.

В заключение, для определения коэффициентов фильтра hn требуется осуществить обратное преобразование от степенной формы (4.5.2) к ряду Фурье (4.5.1). Выполнение данной операции достаточно просто производится рекурсивным способом, показанным на рис. 4.5.2. Подробное обоснование рекурсии приведено в /л24/.

 Пример расчета гладкого фильтра.

 Произвести расчет ФНЧ с гладкой частотной характериcтикой с перегибом характеристики в точке p/3.

 За исходную функцию принять функцию (4.5.3).

 1. x= cos(p/3)= 0.5= (z-r)/(z+r). Принято: z=3, r=1. Исходный многочлен: g(x) = (1-x)(1+x)3 = 1+2x-2x3-x4.

 2. h(x)=  g(x)dx = C+x+x2-0.5 x4-0.2 x5.      При х = -1,  h(-1) = 0,  откуда С=0.3.  При х=1,  h(1)=1.6.

 Отсюда:  H(x)= (3+10x+10x2-5x4-2x5)/16.      gn = {3/16, 10/16, 10/16, 0, -5/16, -2/16}.

 3. Применяя рекурсивное преобразование, получаем коэффициенты ФНЧ: hn= {(98, 70, 20, -5, -5, -1)/256}.

Для расчетов гладких фильтров высоких частот в выражении (4.5.4) достаточно поменять местами пределы интегрирования. Гладкие полосовые фильтры получаются комбинацией ФНЧ и ФВЧ с перекрытием частот пропускания.

(!!!КР11- Разработка программы расчета гладких полосовых фильтров)


Тема 5:
 РЕКУРСИВНЫЕ ФИЛЬТРЫ

Рекурсия – свойство живой природы. И амеба, и человек принимают решения на основании текущей ситуации и прошлого опыта. Всевышний может подтвердить, что это было самое удачное решение при сотворении Мира.

Писецкий. Введение в специальность.  

 (Уральский геофизик)

Творца и отца  Вселенной и найти то трудно, а найдя нельзя показать его толпе.

Платон. Тимей.

(Греческий философ)

Содержание: 5.1. Принципы рекурсивной фильтрации. Конструкция РЦФ. Каскадная форма. Параллельная форма. Устранение сдвига фазы. 5.2. Режекторные и селекторные фильтры. Комплексная z-плоскость. Режекторный фильтр постоянной составляющей сигнала. Режекторный фильтр произвольной частоты. Селекторный фильтр. 5.3. Билинейное z-преобразование. Принцип преобразования. Деформация частотной шкалы. 5.4. Типы рекурсивных частотных фильтров. Аппроксимационная задача. Передаточная функция. Виды фильтров. Литература.

5.1. Принципы рекурсивной фильтрации.

Высококачественные частотные нерекурсивные цифровые фильтры (НЦФ) имеют, как правило, большую ширину окна (многочленный оператор фильтра). Чем меньше допустимая ширина переходной зоны частотной характеристики фильтра между полосами пропускания и подавления, тем больше окно фильтра. Альтернативное решение - применение рекурсивных цифровых фильтров (РЦФ), для которых количество коэффициентов фильтра может быть сокращено по сравнению с НЦФ.

Конструкция РЦФ отображается в z-образе передаточной функции фильтра в виде отношения двух многочленов:

   H(z) = H0+H1z+H2z2+...= B(z)/[1+A(z)],                            (5.1.1)

где: B(z) = B0+B1z+B2z2+ ... +BNzN,    A(z) = A1z+A2z2+ ... +AMzM.

Естественно, что переход на РЦФ имеет смысл только в том случае, если степень многочленов A(z) и B(z) во много раз меньше степени многочлена H(z) прямого z-преобразования импульсной реакции фильтра. При z-образе входных данных Х(z), на выходе РЦФ имеем:

Y(z) = H(z)Х(z) = X(z)B(z)/[1+A(z)],

Y(z)[1+A(z)] = Y(z)+Y(z)A(z) = X(z)B(z),

    Y(z) = X(z)B(z)-Y(z)A(z).    (5.1.2)

При обратном z-преобразовании выражения (5.1.2) получаем уравнение рекурсивной цифровой фильтрации:

         yk =bn xk-nam yk-m.                                        (5.1.3)

 Рис. 5.1.1. Схема РЦФ.

Рекурсивная фильтрация требует задания начальных условий как по xk, так и по yk при k<0. Схема рекурсивной фильтрации приведена на рис. 5.1.1.

Как следует из выражения (5.1.3), при вычислении значения уk текущей точки используются предыдущие вычисленные значения уk-m, (m>0), что и определяет принцип рекурсии - фильтрации с обратной связью. Такая фильтрация обеспечивает определенную "память" по значениям предыдущих отсчетов, которая, в пределе, может быть бесконечной. С учетом этого фактора рекурсивные фильтры получили название фильтров с бесконечной импульсной характеристикой (БИХ-фильтров), в отличие от нерекурсивных фильтров, всегда имеющих конечную импульсную характеристику (КИХ-фильтры).

Другой особенностью РЦФ является их односторонность и физическая реализуемость в реальном масштабе времени. При машинной обработке данных многочлен B(z) передаточной функции фильтра может реализоваться и в двухстороннем варианте.

Одно из важнейших свойств рекурсивных фильтров - возможность получения узких переходных зон при конструировании частотных фильтров, так как функция H(z) фильтра может резко изменяться при приближении к нулю многочлена в знаменателе (5.1.1).

Рекурсивная фильтрация требует более высокой точности вычислений по сравнению с нерекурсивной, т.к. использование предыдущих выходных отсчетов для текущих вычислений может приводить к накапливанию ошибок.

Практическая реализация РЦФ осуществляется в двух вариантах.

Рис. 5.1.2. Каскадная форма.

Каскадная форма. Находятся корни многочленов А(z),B(z) и производится разложение H(z):

H(z) = ,              (5.1.4)

где G - масштабный множитель. Это позволяет применять каскадное построение фильтров, показанное на рис. 5.1.2, в котором:

H(z) = G H1(z) H2(z) ..... HN(z),

Hn(z) = Bn(z)/An(z).

Функции Аn(z) и Bn(z) обычно представляются в виде биквадратных блоков (фильтров второго порядка):

Bn(z) = bn.0 + bn.1 z + bn.2 z2,  

An(z) = 1 + an.1 z + an.2 z2.

Рис. 5.1.3. Параллельная форма.

Параллельная форма. Функция H(z) разлагается на элементарные дроби:

H(z) = Ho(z)Bn(z) / [1+An(z)],

что дает параллельную форму фильтра, показанную на рис. 5.1.3. Параллельная конструкция фильтра применяется много реже каскадной, хотя это может объясняться и тем, что в аналоговых фильтрах, исторически предшествовавших цифровым фильтрам, теоретическая база анализа и синтеза каскадных рекурсивных фильтров получила весьма детальное развитие.

Устранение сдвига фазы. Рекурсивные фильтры являются фазосдвигающими фильтрами. Если требуется обеспечить нулевой фазовый сдвиг, то операция фильтрации производится дважды, в прямом и обратном направлении числовой последовательности массива данных, при этом амплитудно-частотная характеристика (АЧХ) фильтрации будет равна |H(w)|2 фильтра, что необходимо учитывать при конструировании фильтра.

5.2. Режекторные и селекторные фильтры.

Режекторный фильтр (фильтр-пробка) подавляет определенную частоту во входном сигнале. Он может быть спроектирован непосредственно по z-диаграмме.

Рис. 5.2.1. Синтез фильтров.

Комплексная z-плоскость. Простейший фильтр типа НЦФ имеет один нуль на единичной окружности в z-плоскости в точке с частотой, которую необходимо подавить. Так, например, если из входного сигнала требуется исключить постоянную составляющую (нулевая частота), то импульсная реакция фильтра НЦФ имеет вид:

 H(z) = 1-z.                           (5.2.1)

Нуль функции (5.2.1) равен zn1=1. Как можно видеть на рис. 5.2.1, коэффициент передачи сигнала H(w) на любой частоте wi от 0 до wN=p/Dt - частоты Найквиста, определяемый выражением (5.2.1), будет равен длине вектора Vn1, проведенного из нуля функции H(z) - точка n1 на действительной оси, до соответствующей частоты wi - точки z(wi) на единичной окружности. На частоте wi = 0 длина этого вектора равна нулю. Амплитудно-частотная характеристика фильтра, приведенная на рисунке 5.2.2 для передаточной функции (5.2.1) пунктиром, далека от идеальной для фильтр-пробки.

Рис. 5.2.2. АЧХ фильтров.

Режекторный фильтр постоянной составляющей сигнала. Сконструируем простейший РЦФ, добавив к оператору (5.2.1) один полюс вне единичной окружности на малом расстоянии от нуля:

          Hп(z) = G(1-z)/(1-az),  zp= 1/a.      (5.2.2)

          Допустим, что полюс помещен в точке zp1= 1.01, при этом а=0,99. Масштабный коэффициент G получим нормировкой H(z) к 1 на частоте Найквиста. Для приведенных условий G=0.995. Отсюда,  при Dt=1:

Hп(z) = 0,995(1-z)/(1-0.99z),

yk = 0.995(xk-xk-1)+ 0.99yk-1.

Отображение нуля n1 и полюса р1 на z-плоскости и АЧХ фильтра для исключения постоянной составляющей приведены на рис.5.2.2. Коэффициент передачи сигнала на произвольной частоте wi равен отношению длин векторов Vn1(z) и Vp1(z) соответственно из нуля и полюса до точки z(wi) на единичной окружности и близок к единице для всех частот, за исключением нулевой:

|Hп(z)| = G Vn1(z)/Vp1(z).

Рис. 5.2.0.

Фазочастотная характеристика фильтра приведена на рис. 5.2.0 и определяется разностью фазовых углов векторов Vn1(z) и Vp1(z):

jп(w) = jn1-jp1.

Режекторный фильтр произвольной частоты. При проектировании на подавление любой другой частоты wv нули и полюсы располагаются на соответствующем радиусе z-плоскости. Радиальный угол направления на нуль и полюс определяются выражением:

        jv = p·wv/wN.                                             (5.22.3)

Наличие двух знаков в выражении (5.2.3) отражает тот факт, что для получения вещественной функции фильтра нули и полюсы должны быть комплексно-сопряженными парами (их произведение дает вещественную функцию), т.е.:

     Hv(z) = G(z-zn)(z-zn*)/[(z-zp)(z-zp*)].                             (5.2.4)

Нули фильтра располагаются на единичной окружности:

   zn = cos jv + j sin jv = Re zn + j Im zn.                             (5.2.5)

Полюсы - на полярном радиусе R:

         zp = R·cos jv + j sin jv = Re zp + j Im zp.                         (5.2.6)

Пример положения нулей (n2 и n2*) и полюсов (р2 и р2*) приведен на рис.5.2.1. Подставляя (5.2.5-5.2.6) в (5.2.4), получаем:

       Hv(z) =,                                       (5.2.7)

G = [1+(1+2Re zp)/R2] / (2+2Re zn).                                   (5.2.8)

При приведении уравнения (5.2.7) в типовую форму:

         Hv(z) =,                                            (5.2.7')

   b0 = 1,    b1 = -2·Re zn,    b2 = 1.                                         (5.2.9)

   a1 = - (2·Re zp)/R2,     a2 = 1/R2.

Соответственно, алгоритм вычислений:

yk = G·(xk+b1·xk-1+xk-2) – a1·yk-1a2·yk-2.                           (5.2.10)

В качестве примера проведем расчет режекторного фильтра на сетевую частоту питания приборов fs = 50 Гц, которая очень часто попадает в измеренные данные. При шаге дискретизации данных Dt = 0.001 сек радиальный угол на нули и полюса фильтра в z-плоскости:

fN = 1/2Dt = 500 Гц,       j = p·fs/fN = 0.1π.

Радиус полюса фильтра примем равным R = 1.01. Значения нуля и полюса:

zn = cos j + j sin j = 0.951 + 0.309 j,        zp = R·cos jv + j sin jv = 0.961 + 0.312 j.

Рис. 5.2.3.

Значение масштабного множителя G по (5.2.8):

G = 0.99.

Значения коэффициентов передаточной функции:

b1 = -2·Re zn = -1.902,

     a1 = - (2·Re zp)/R2 = -1.883,      a2 = 1/R2 = 0.98.

 При подстановке коэффициентов в уравнение (5.2.7') и замене z = exp(-) может быть получена непосредственно частотная передаточная функция фильтра, которая приведена на рис. 5.2.3:

           0.99[1-1.902·exp(-jω)+exp(-2jω)]

H(w) = ---------------------------------------------------------

          1-1.883·exp(-jω)+0.98·exp(-2jω)

 Алгоритм фильтра:

yk = 0.99·(xk - 1.902·xk-1 + xk-2) + 1.883·yk-1 – 0.98·yk-2.

 На рис. 5.2.4 приведен модельный входной сигнал фильтра, состоящий из суммы двух равных по амплитуде гармоник с частотой 50 и 53 Гц, и сигнал на выходе фильтра (смещен вверх). Справа на рисунке приведены спектры входного и выходного сигналов. Спектр выходного сигнала зарегистрирован после интервала установления реакции фильтра, который хорошо заметен на начальной части графика выходного сигнала. После установления сигнал на выходе фильтра практически полностью освобожден от гармоники 50 Гц.

Рис. 5.2.4.

Рис. 5.2.5.

При R → 1 ширина полосы подавления фильтра становится все более узкой, но при этом увеличивается длительность импульсной реакции фильтра и, соответственно, время установления фильтра при изменении спектра входного сигнала. В первом приближении значимая часть импульсной реакции режекторных фильтров равна (4÷5)/(R-1). Пример импульсной реакции для фильтра, вычисленного выше, приведен на рис. 5.2.5. Отклик фильтра получен при подаче на вход РЦФ импульса Кронекера. Для наглядности реакции на графике не показан начальный пик отклика (отсчет на нулевой точке), амплитуда которого равна значению G.

Селекторный фильтр. Если в уравнении (5.2.4) опустить нули, то получим селекторный фильтр, выделяющий сигналы одной частоты ωs – частоты селекции, с передаточной функцией:

Hs(z) = G/[(z-zp)(z-zp*)],                                       (5.2.11)

      Hs(z) =,                                            (5.2.11')

Рис. 5.2.6.

Характер передаточной функции (5.2.11) можно представить непосредственно по z-плоскости (рис. 5.2.1). При расположении полюсов фильтра за пределами единичного круга (например, в точках р2 и р2*) значение коэффициента передачи фильтра на произвольной частоте ω на единичной окружности будет обратно пропорционально величине векторов из этих точек окружности на полюса фильтра. При изменении ω от нуля до  ±π (движение по единичной окружности на z-плоскости по или против часовой стрелки) один из векторов (на полюс противоположной полуплоскости) изменяется в достаточно небольших пределах (не превышая значения 2), в то время как второй из векторов (на полюс в своей полуплоскости) будут сначала уменьшаться, достигает минимума при расположении ω на полярном радиусе полюса (на частоте селекции ωs), а затем снова начинает увеличиваться.  Соответственно, значение Hs(ω) максимально на частоте селекции  ±ωs и при R → 1 может быть очень высоким. Пример передаточной функции (при G1=1) приведен на рис. 5.2.6. При необходимости фильтр может быть пронормирован к 1 на частоте селекции определением значения G1 по условию Hs(ω) = 1 при ω = ωs, т.е.:

G1 = 1+a1 z(s)+a2 z(s)2.

Рис. 5.2.7.

Фильтр (5.2.11) в принципе не может иметь нулевого коэффициента передачи на других частотах главного диапазона. Если последнее является обязательным, то фильтр выполняется методом обращения режекторного фильтра Hv(z):

     Hs(z) = 1-Hv(z). 

Hs(z) = .       (5.2.12)

с0 = 1-G,   c1 = a1-Gb1,    c2 = a2-G.

 Пример передаточной функции фильтра приведен на рис. 5.2.7. Пример применения фильтра для выделения гармонического сигнала на уровне шумов, мощность которых в три раза больше мощности сигнала, приведен на рис. 5.2.8.

Рис. 5.2.8. Фильтрация сигнала селекторным РЦФ.

(!!!KP30- Исследование возможности дополнения интегрирующих фильтров Симпсона и прямоугольников режекторными фильтрами на частоту Найквиста).

 (!!!KP12- Разработка программы расчета ФЧХ режекторных и селекторных РЦФ и сдвига фазы выходных сигналов).

(!!!KP13- Исследование характеристик и разработка программы проектирования полосовых РЦФ на базе последовательных селекторных РЦФ).

(!!!KP14- Исследование характеристик и разработка программы проектирования гладких полосовых РЦФ на базе многократного селекторного РЦФ).

5.3. Билинейное z-преобразование.

Проектирование рекурсивных фильтров непосредственно в z-области возможно только для фильтров простого типа с ограниченным количеством полюсов и нулей (особых точек). В общем случае, процесс проектирования рекурсивного частотного фильтра обычно заключается в задании необходимой передаточной характеристики фильтра в частотной области и ее аппроксимации с определенной точностью какой-либо непрерывной передаточной функцией, с последующим z-преобразованием для перехода в z-область. Первые две операции хорошо отработаны в теории аналоговой фильтрации сигналов, что позволяет использовать для проектирования цифровых фильтров большой справочный материал по аналоговым фильтрам. Последняя операция является специфичной для цифровых фильтров.

Для алгебраического преобразования непрерывной передаточной функции в многочлен по z используется билинейное преобразование, известное в теории комплексных переменных под названием дробно-линейного преобразования.

Принцип преобразования. При стандартном z-преобразовании передаточной функции используется замена переменной вида:

     z = exp(-pDt),                                              (5.3.1)

где Dt - шаг дискретизации данных, p – комплексная переменная, р = s+jw.

Уравнение (5.3.1) можно записать в виде ln z = -pDt и разложить ln z в ряд:

ln z = -2[(1-z)/(1+z)+(1-z)3/(3(1-z)3)+ ....],     z > 0.

Первый член этого разложения и представляет собой билинейное z- преобразование:

         p = (2/Dt)(1-z)/(1+z).                                        (5.3.2)

По сути, оно представляет собой отображение точек комплексной p-плоскости в точки комплексной z-плоскости, и наоборот. В общем виде:

            p = g(1-z)/(1+z),                                             (5.3.3)

            z = (g-p)/(g+p).                                              (5.3.4)

Значение множителя g не меняет формы преобразования, в связи с чем обычно принимают g = 1. Подставим p = jw в (5.3.4) и выразим z в показательной форме:

z = r exp(jj(w)),  r = |z| = 1.

j(w) = 2 arctg(w/g),

Рис. 5.3.1.

При изменении w от - до фазовый угол j(w) монотонно изменяется от -p до p (см. рис. 5.3.1), т.е. мнимая ось p-плоскости (p = jw, - < w < ) отображается в единичную окружность z-плоскости. В частности:

w = 0,  z = exp(j0) = 1,

w =,  z = exp(jp) = -1

Деформация частотной шкалы. Реальное отображение передаточных функций фильтров является непрерывным (в силу своей физической сущности) и для упрощения дальнейших расчетов обычно задается в аналитической форме в комплексной р-плоскости по частотному аргументу ω от - до +. При билинейном z-преобразовании происходит нелинейное искажение шкалы частот: полный частотный диапазон от - до непрерывных функций в р-плоскости сжимается до главного частотного диапазона от -p/Dt до p/Dt дискретных функций в z-плоскости. При задании уравнений непрерывных передаточных функций в частотной области это должно сопровождаться соответствующей обратной деформацией частотной шкалы, которая будет скомпенсирована при билинейном z-преобразовании. Подставляя в (5.3.2) z = exp(-jwDt) и умножая числитель и знаменатель правой части полученного уравнения на exp(jwDt/2), получим:

p = (2/Dt)[exp(jwDt/2)-exp(-jwDt/2)] / [exp(jwDt/2)+exp(-jwDt/2)],

    p = (2/Dt) th(jwDt/2).                                             (5.3.5)

Обозначим шкалу частот в р-области через индекс wд (деформированная) и, полагая p = jwд , с учетом тождества th(x) = - jtg(jx), получаем:

  wд = (2/Dt) tg(wDt/2) = g tg(wDt/2),  -p/Dt<w<p/Dt.                (5.3.6)

Рис. 5.3.2. Деформация частоты.

Выражение (5.3.6) позволяет осуществлять переход от фактических частот w главного частотного диапазона, которым должен соответствовать оператор РЦФ, к деформированным частотам wд комплексной p-плоскости, на которой можно задавать требуемую форму передаточной функции проектируемого фильтра, при этом аппроксимация передаточных функций, учитывая область существования w от - до , может производиться многочленами и рациональными функциями. Связь частот приведена на рис. 5.3.2 (в начальной части p пространства деформированных частот).

5.4. Типы рекурсивных частотных фильтров.

Рекурсивные цифровые фильтры, как и нерекурсивные, не могут обеспечить реализацию идеальной частотной характеристики со скачкообразными переходами от полосы пропускания к полосе подавления. Поэтому на этапе решения аппроксимационной задачи необходимо определить передаточную функцию H(w) фильтра, которая обеспечивает воспроизведение необходимой амплитудно-частотной характеристики (АЧХ) с требуемой точностью. Требования к фазочастотной характеристике (ФЧХ) частотных фильтров, как правило, не задаются, т. к. это приводит к резкому усложнению решения задачи. Специальные требования к форме ФЧХ обычно реализуются после расчета фильтров с заданной АЧХ путем контроля полученной при этом ФЧХ и разработкой, при необходимости, дополнительных корректоров ФЧХ.

Синтез рекурсивных фильтров, как и НЦФ, выполняется на базе фильтров низких частот (ФНЧ). Другие типы фильтров (ФВЧ - высоких частот, ПФ - полосовые, РФ - режекторные) образуются на основе ФНЧ путем частотного преобразования.

Рис. 5.4.1. Частотная характеристика ФНЧ.

Аппроксимационная задача низкочастотного фильтра. В качестве основных исходных данных для решения аппроксимационных задач принимаются граничные частоты wp - полосы пропускания, и ws – начала полосы подавления сигнала. Как правило, задаются также допуски Аp - на максимальное значение неравномерности в полосе пропускания, и Аs – на максимальное отклонение АЧХ от нуля в полосе подавления (уровень шума фильтра). Разность между граничными частотами wp и ws будет определять ширину переходной зоны. Типичный пример задания формы АЧХ приведен на рис. 5.4.1. В допустимой зоне передаточной функции условно показана возможная форма АЧХ, удовлетворяющая заданным условиям.

Кроме основных частотных параметров могут задаваться и требования к форме АЧХ (монотонность в полосе пропускания или подавления, характер пульсаций и т.п.), которые определяют выбор функции аппроксимации.

Передаточная функция. При решении аппроксимационной задачи амплитудно-частотная характеристика фильтра обычно задается в действительной аналитической форме - виде квадрата передаточной функции, нормированной по амплитуде и граничной частоте передачи:

   |H(W)|2 = H(WH*(W) = 1/(1+An(W)),                              (5.4.1)

где Аn(W) - многочлен n-го порядка, W - нормированная частота (например, W = w/wp). Вид многочлена Аn(W) выбирается таким образом, чтобы выполнялось условие: Аn(W) << 1 при 0<W<1, что обеспечивает |H(W)|2  1, и An(W) >> 1 при W>1, соответственно |H(W)|2  0. Крутизна переходных зон фильтра устанавливается величиной порядка фильтра (чем больше значение n, тем больше крутизна переходных зон).

По знаменателю правой части выражения (5.4.1) достаточно просто могут быть определены комплексные полюса передаточной функции в p-области преобразования Лапласа и соответствующим комбинированием и объединением комплексно-сопряженных полюсов получены передаточные функции в виде биквадратных блоков при четном порядке, и с одним линейным блоком при нечетном порядке:

   H(p) = GВn(p),   n-четное,                                           (5.4.2)

   H(p) = Вn(р),  n-нечетное,                            (5.4.3)

где Вn(р) выражается в форме:

   Вn(p) = 1/[(p-pn)(p-pn*)] = 1/(p2-2 anp+bn).                    (5.4.4)

Рис. 5.4.2. АЧХ фильтра Баттеруорта.

Виды фильтров. В настоящее время существует достаточно большое количество видов рекурсивных частотных фильтров и их различных модификаций. Наиболее известный из них - фильтр Баттеруорта (рис.5.4.2). Он имеет монотонную гладкую АЧХ во всем частотном диапазоне. При том же порядке многочленов фильтров (равном количестве полюсов) большую крутизну обеспечивают фильтры Чебышева – прямой и инверсный, однако при этом в полосе пропускания (для инверсного – в полосе подавления) у фильтров Чебышева появляются равноволновые пульсации (с одинаковой амплитудой пульсаций). Еще более крутые срезы характеристик (при равноволновых пульсациях как в полосах пропускания, так и в полосе подавления) реализуются с использованием эллиптических функций.


Тема 6:
 РЕКУРСИВНЫЕ ЧАСТОТНЫЕ ФИЛЬТРЫ

Благословен Господь, кто содеял все нужное нетрудным, а все трудное ненужным.

Григорий Сковорода. (Украинский философ, ХШ век)

Рекурсивные фильтры нужны при обработке данных. Однако считать их трудно и муторно. Отсюда следует, что Всевышний фильтров не создавал и за последствия их применения ответственности не несет.

Отец Дионисий (в миру В.Лебедев). (Геофизик-пенсионер, XXI в.)

Содержание: 6.1. Низкочастотный фильтр Баттеруорта. Передаточная функция. Крутизна среза. Порядок фильтра. Преобразование Лапласа. Билинейное преобразование. 6.2. Высокочастотный фильтр Баттеруорта. Синтез фильтров методом частотного преобразования. 6.3. Полосовой фильтр Баттеруорта. 6.4. Фильтры Чебышева. Фильтры первого рода. Фильтры второго рода. 6.4. Дополнительные сведения. Литература.

6.1. Низкочастотный фильтр Баттеруорта /л12,л24/.

Рис. 6.1.1. АЧХ фильтра Баттеруорта.

Передаточная  функция. Гладкий вид амплитудно-частотной характеристики фильтра Баттеруорта  (рис. 6.1.1) задают квадратом передаточной функции вида:

|H(W)|2 = H(W)H*(W) = 1/(1+W2N).

где W =  w/wc - нормированная частота, wc - частота среза АЧХ фильтра, на которой |H(w)|2 = 1/2 (соответственно H(w) = 0.707), N - порядок фильтра, определяющий крутизну среза АЧХ. При W → 0 коэффициент передачи фильтра стремится к 1. Учитывая, что результаты вычислений будут относиться к цифровым фильтрам и при z-преобразовании с переходом в главный частотный диапазон произойдет искажение частот, до начала расчетов фактические значения задаваемых частотных характеристик (значения wc, wp и ws) следует перевести в значения деформированных частот по выражению:

wд = (2/Dt) tg(wDt/2) = g tg(wDt/2),  -p/Dt<w<p/Dt.                 (6.1.1)

Крутизна среза. Наклон частотной характеристики фильтра при переходе от области пропускания к области подавления можно характеризовать коэффициентом крутизны среза фильтра K в децибелах на октаву:

    K = 20 log|H(w2)/H(w1)|,                                         (6.1.2)

где w1 и w2 - частоты с интервалом в одну октаву, т.е. w2 = 2w1.

Длительность импульсной реакции фильтра в пределах ее значимой части также зависит от крутизны среза: чем больше крутизна, тем больше длительность импульсного отклика фильтра.

Порядок фильтра. Принимая w1=Wс, w2=Ws и подставляя в (6.1.2) значения H(W) с приведенными данными, получим приближенное выражение для определения порядка фильтра по заданному значению К:

 N =  K/6.                                                    (6.1.6')

Так, для гарантированного ослабления сигнала в полосе подавления в 100 раз (40 децибел) порядок фильтра N = 7. В среднем, при изменении N на единицу коэффициент подавления сигнала изменяется на 6 децибел.

Исходные требования к передаточной функции фильтра обычно задаются в виде значений wp, ws и коэффициентов неравномерности (пульсаций) Ap и As (см. рис. 6.1.1). Для определения частоты среза wc по уровню 0.707 и порядка фильтра введем параметр d, связанный с коэффициентом Ар следующим соотношением:

(1-Ар)2 = 1/(1+d2).

    d = [1/(1-Ар)]·.                                   (6.1.3)

Для учета деформации частотной шкалы в процессе билинейного преобразования при переходе в дальнейшем к полиномам по Z, выполняем расчет деформированных частот wdp и wds по формулам:

 wdp= 2·tg(wp·Dt/2)/Dt,                                 (6.1.4)

wds= 2·tg(ws·Dt/2)/Dt.

При нормированной частоте W =  w/wdc, где wdc соответственно также деформированная частота, на границах переходной зоны выполняются равенства:

    1/(1+d2) = 1/[1+(wdp/wdc)2N],                                (6.1.5)

As2 = 1/[1+(wds/wdc)2N].

 Отсюда:

d2 = (wdp/wdc)2N,        1/As2 - 1 = (wds/wdc)2N.

Решая эти два уравнения совместно, находим:

         N = ln [d/] / ln(wdp/wds),                          (6.1.6)

     wdc =  wdp/d1/N.                                           (6.1.7)

 Пример расчета фильтра низких частот Баттеруорта.

 Начиная с этого параграфа, будем сопровождать рассмотрение теории последовательным расчетом конкретного фильтра низких частот с применением приводимых формул. Для расчета примем следующие исходные параметры фильтра:

  - Шаг дискретизации данных Dt = 0.0005 сек.

                                                Частота Найквиста fN = 1/2Dt = 1000 Гц,    ωN = 6.283·103 рад.

  - Граничная частота полосы пропускания:   fp = 300 Гц,   wp = 1.885·103 рад.

  - Граничная частота полосы подавления:   fs = 500 Гц,   ws = 3.142·103 рад.

  - Коэффициенты неравномерности:    Ар = Аs = 0.1.

Рис. 6.1.2.

Расчет дополнительных параметров:

 1. Значение d по формуле (6.1.3) или по ее эквиваленту

d = Ap/(1-Ap):    d= 0.484.

 2. Деформированные частоты по формуле (6.1.4):

wdp = 2.038·103 рад.

wds = 4·103 рад.

 3. Порядок фильтра по формуле (6.1.6):  N = 4.483.   

     Для пояснения дальнейшего порядка расчетов при четном и нечетном порядке фильтра, принимаем  N1=4, N2=5.

 4. Частота среза фильтра по формуле (6.1.7):

wdc(N1) = 2.443·103 рад (389 Гц),      

wdc(N2) = 2.356·103 рад (375 Гц).   

 5. По формуле H(w) = , w = ω/ωdc, для контроля строим графики передаточных функций (рис.6.1.2).

Функция |H(W)|2 – представляет собой энергетический спектр сигнала (спектральную плотность мощности) и не имеет фазовой характеристики, т.е. является четной вещественной, образованной из двух комплексно сопряженных функций H(W) и H*(W), при этом порядок фильтра N определяет число полюсов функции H(W) и комплексно сопряженных с ними полюсов функции H*(W).

Преобразование Лапласа. Переводим функцию |H(W)|2 на координатную ось пространства преобразования Лапласа при p = jW, для чего достаточно подставить W = p/j:

    |H(р)|2 = 1/[1+(p/j)2N].                                             (6.1.8)

Полюсы функции находятся в точках нулевых значений знаменателя:

    1+(p/j)2N = 0,   p = j.                                (6.1.9)

Отсюда следует, что полюсы располагаются на единичной окружности в p-плоскости, а их местоположение определяется корнями уравнения (6.1.9). В полярных координатах:

pn = j exp(jp(2n-1)/2N),      n = 1,2, ... ,2N.                   (6.1.10)

pn =  j cos[p(2n-1)/2N] - sin[p(2k-1)/2N].                   (6.1.10')

Рис. 6.1.2.

 Продолжение примера расчета фильтра. 

 6. Вычисляем значения полюсов фильтра по формуле (6.1.10). Значения полюсов и их расположение на р-плоскости приведены на рис. 6.1.2. Положение первого полюса отмечено. Нумерация полюсов идет против часовой стрелки.

Как следует из формулы (6.1.10) и наглядно видно на рис. 6.1.2, все полюса с n N являются комплексно сопряженными с полюсами n<N. Устойчивую минимально-фазовую передаточную функцию фильтра образуют полюса левой половины р-плоскости:

H(p) = G/B(p),          (6.1.11)

где G - масштабный множитель, B(p) - полином Баттеруорта:

    B(p) = B1(p) B2(p) ... BN(p),       (6.1.12)

    Bn(p) = p-pn.                    (6.1.13)

Практическая реализация фильтра Баттеруорта при четном значении N производится в виде последовательной каскадной схемы биквадратными блоками, т.е. составными фильтрами второго порядка. Для этого множители B(p) в (6.1.12) объединяются попарно с обоих концов ряда по n (от 1 до N) по комплексно сопряженным полюсам, при этом для каждой пары получаем вещественные квадратичные множители:

Вm(p) = Bn(p)·BN+1-n(p) =

= [p+j exp(jp(2n-1)/2N)][p+j exp(jp(2(N+1)-2n-1)/2N)] =

= [p+j exp(jp(2n-1)/2N)][p-j exp(jp(2n-1)/2N)] =

     = p2+2p sin(p(2m-1)/2N)+1,  n = 1,2, ..., N/2;  m = n.         (6.1.14)

Общее количество секций фильтра M=N/2. При нечетном N к членам (6.1.14) добавляется один линейный множитель с вещественным полюсом p(N+1)/2 = -1, пример положения которого на р-плоскости можно видеть на рисунке 6.1.2 для N=5:

         В(N+1)/2(p)= p+1.                                                 (6.1.15)

Машинное время фильтрации на один оператор фильтра первого или второго порядка практически не отличаются, поэтому использование операторов первого порядка можно не рекомендовать и при установлении порядка фильтра по формуле (6.1.6) округлять расчетное значение N в сторону большего четного числа, что создает определенный запас по крутизне среза частотной характеристики.

Таким образом, передаточная функция ФНЧ Баттеруорта в p-области при четном N:

       H(p) = G1/Bm(p) = G 1/(p2+amp+1),                          (6.1.16)

        am = 2 sin(p(2m-1)/2N),  m = 1,2, ... ,N/2.                           (6.1.17)

При нечетном N:

        H(p) = (G/p+1)1/(p2+amp+1),                                   (6.1.16')

 Продолжение примера расчета фильтра. 

 7. Вычисляем значения коэффициентов am  по формуле (6.1.17):

     - N=4:  a1 = 0.765,    a2 = 1.848.

     - N=5:  a1 = 0.618,    a2 = 1.618.   

Билинейное преобразование. Для перевода передаточной функции фильтра в z-область производится билинейное преобразование, для чего в выражение (6.1.16) подставляется параметр р:

 p = g·(1-z)/(1+z).                                                 (6.1.18)

С учетом автоматического возврата к нормальной (недеформированной) шкале частот в главном частотном диапазоне z-преобразования значение коэффициента g:

    g = 2/(Dt·ωdc).                                            (6.1.19)

После перехода в z-область и приведения уравнения передаточной функции в типовую форму, для четного N получаем передаточную функцию из М=N/2 биквадратных блоков:

   H(z) = GGm (1+z)2 /(1-bm z+cm z2).                            (6.1.20)

   Gm = 1/(g2 + amg + 1).                                                       (6.1.21)

    bm = 2·Gm (g2 - 1).                                                   (6.1.22)

     cm = Gm (g2 - amg + 1).                               (6.1.23)

При любом нечетном N добавляется один постоянный линейный блок первого порядка, который можно считать нулевым блоком фильтра (m=0):

  H(z) = GGm (1+z)2 /(1-bm z+cm z2),           (6.1.24)

при этом, естественно, в выражении (6.1.24) используются значения коэффициентов Gm, bm и cm, вычисленные по (6.1.21-6.1.23) для данного нечетного значения N.

При z=exp(-jw) главный диапазон функций H(z) от -p до p. Для получения передаточной функции в шкале физических частот достаточно вместо z в выражения (6.1.20, 6.1.24) подставить значение z=exp(-jwDt), где Dt – физический интервал дискретизации данных, и проверить соответствие расчетной передаточной функции заданным условиям.

Рис. 6.1.3.

Рис. 6.1.4.

 Продолжение примера расчета фильтра. 

 8. Вычисляем значения коэффициентов Gm, bm и cm:

     - N=4:  g = 1.637,   G1 = 0.203,   G2 = 0.149,   b1 = 0.681,   b2 = 0.501,   c1 = 0.492,   c2 = 0.098.

     - N=5:  g = 1.698,   G1 = 0.203,   G2 = 0.151,   b1 = 0.763,   b2 = 0.568,   c1 = 0.574,   c2 = 0.171.

 9. Подставляем вычисленные коэффициенты в выражения (6.1.20, 6.1.24) и вычисляем значения передаточных функций при z = exp(-jwDt). Графики полученных функций приведены на рис. 6.1.3. На рис. 6.1.4 приведена фазочастотная характеристика фильтра (сплошная кривая) и групповое время задержки (пунктир) при N=4. Нелинейность ГВЗ в полосе пропускания, в принципе, не так велика, но начинает увеличиваться при увеличении порядка фильтра.

Во временной области фильтрация выполняется последовательной сверткой входного сигнала с операторами ячеек фильтра:

yk = xk * {h0(i)} * h1(i) ** hМ(i),    i = 0,1,2.

Уравнение рекурсивной фильтрации для m-го оператора фильтра:

   yk = Gm (xk+2xk-1+xk-2) + bm yk-1 - cm yk-2.                     (6.1.25)

Уравнение рекурсивной фильтрации для дополнительного h0(i) линейного оператора фильтра при нечетном N:

   y0 = (xk+xk-1)/(g+1) + yk-1·(g-1)/(g+1)                              (6.1.26)

 Продолжение примера расчета фильтра. 

Рис. 6.1.5.

 10. Каждый оператор фильтра имеет определенную передаточную функцию, что можно видеть на рис. 6.1.5. Порядок последовательной свертки сигнала с операторами фильтра значения не имеет.

 11. Для оценки длительности импульсной реакции фильтра подаем на вход фильтра импульс Кронекера на отсчете k = 3 и начинаем фильтрацию со второго отсчета (что обеспечивает начальные условия фильтрации на точках k=0 и k=1). Сигналы на выходе первой и второй секции фильтра приведены на рис. 6.1.6.

Каждая секция фильтра дает определенный сдвиг фазы сигнала, но их значение для секций не является одинаковым и устранение сдвига фазы сверткой сигнала с последовательным изменением направления свертки по секциям результата, как правило, не дает.

Рис. 6.1.6.

 12. Коэффициент усиления дисперсии шумов (сумма квадратов значений импульсного отклика) равен 0.341 при N=5, и 0.278 при N=4.

Значение множителя G в общем случае находится нормировкой к 1 коэффициента передачи фильтра при w = 0. Для ФНЧ и ФВЧ при использовании вышеприведенных формул значение G равно 1. Значения коэффициентов Gm во всех секциях фильтра также обычно выводят за знак произведения и объединяют с коэффициентом G.

(!!!КР14- Исследование возможностей устранения сдвига фазы сигналов при использовании фильтров Баттеруорта).

6.2. Высокочастотный фильтр Баттеруорта /л12/.

Синтез фильтров методом частотного преобразования. Высокочастотные и полосовые фильтры конструируются путем частотной трансформации передаточных функций фильтров низких частот. Если обозначить аргумент передаточных функций ФНЧ через p=jW, a функций ФВЧ и ПФ через s=jw, то всегда можно найти такую функцию частотного преобразования p=F(s), которая превращает один тип фильтров в другой. Для преобразования ФНЧ → ФВЧ функция частотного преобразования имеет вид:

     p = 1/s,                                                (6.2.1)

В этом нетрудно убедиться сравнением двух видов преобразования. Как известно, передаточная функция ФВЧ может быть получена из ФНЧ разностью между широкополосным фильтром (H(w)=1) и ФНЧ. Применяя этот метод для функции Баттеруорта, получаем:

|H(w)|2 = 1-|H(W)|2 = 1- 1/(1+W2N) = W2N/(1+W2N).                     (6.2.2)

С другой стороны, при W = p/j:  |H(p)|2 = 1/(1-p2N). Выполняя подстановку (6.2.1) в это выражение, получаем:

|H(s)|2 = s2N/(s2N-1).

Возвратимся из последнего выражения к аргументу w с учетом принятого равенства s=jw:

|H(s)|2 = (jw)2N/((jw)2N-1) =(w)2N/(1+(w)2N),

что полностью повторяет (6.2.2) при w=W.

Подставляя p=1/s непосредственно в выражение H(p) (6.1.16) для четного значения N, получаем:

    H(s) = Gs2/(s2+am s+1).                                     (6.2.3)

 Для нечетного N:

       H(s) = [G·s/(s+1)]s2/(s2+am s+1).                              (6.2.4)

После билинейного z-преобразования выражения с подстановкой s=g(1-z)/(1+z) для четного и нечетного значений N соответственно:

    H(z) = Gg2·Gm·(1-z)2/(1-bm z+cm z2).                        (6.2.5)

H(z) = Gg2·Gm·(1-z)2/(1-bm z+cm z2).             (6.2.6)

    Gm = 1/(g2 + amg + 1).                                             (6.2.7)

    bm = 2·Gm (g2 - 1).

    cm = Gm (g2 - amg + 1).

Значения коэффициентов Gm, bm, cm остаются без изменения (сравнить с (6.1.21-6.1.23)). При задании частотных параметров ФВЧ в том же виде, что и для ФНЧ, формула расчетов N и wdc получается аналогично ФНЧ, при этом в знаменателе выражения (6.1.6) отношение wdp/wds заменяется на wds/wdp:

         N = ln [d/] / ln(wds/wdp),                           (6.2.8)

а в (6.1.7) деление членов правой части меняется на умножение:

     wdc =  wdp·d1/N.                                            (6.2.9)

Уравнение рекурсивной фильтрации для m-го оператора фильтра:

   yk = g2·Gm (xk-2xk-1+xk-2) + bm yk-1 - cm yk-2.                 (6.2.10)

Уравнение рекурсивной фильтрации для дополнительного h0(i) линейного оператора фильтра при нечетном N:

     y0 = g·(xk-xk-1)/(g+1) + yk-1·(g-1)/(g+1).                        (6.2.11)

 Пример расчета фильтра высоких частот Баттеруорта.

 Техническое задание:  

  - Шаг дискретизации данных Dt = 0.0005 сек.

                                                Частота Найквиста fN = 1/2Dt = 1000 Гц,    ωN = 6.283·103 рад.

  - Граничная частота полосы пропускания:   fp = 700 Гц,   wp = 4.398·103 рад.

  - Граничная частота полосы подавления:   fs = 500 Гц,   ws = 3.142·103 рад.

  - Коэффициенты неравномерности:    Ар = Аs = 0.1.

Рис. 6.2.1.

Расчет дополнительных параметров:

 1. d = Ap/(1-Ap):    d= 0.484.

 2. Деформированные частоты по формуле (6.1.4):

wdp = 7.85·103 рад.    wds = 4·103 рад.

 3. Порядок фильтра по формуле (6.2.8):  N = 4.483.   

Для расчетов принимаем N=4.

 4. Частота среза фильтра по формуле (6.2.9):

wdc  = 6.549·103 рад (1042 Гц),      

 5. Строим график функции H(w) = , w = ω/ωdc, (рис.6.2.1).

 6. Полюса pn фильтра полностью повторяют полюса ФНЧ (рис. 6.1.2), а, соответственно, повторяются и значения коэффициентов am.

 7. g = 0.611,   G1 = 0.543,   G2 = 0.4,   b1 = - 0.681,   b2 = - 0.501,   c1 = 0.492,   c2 = 0.098.

Рис. 6.2.2.

     При сравнении коэффициентов bm, cm и коэффициентов в числителе передаточных функций ФВЧ с соответствующими коэффициентами ФНЧ предыдущего примера можно заметить, что в данном фильтре относительно ФНЧ произошла только смена знаков коэффициентов при нечетных степенях z. Это объясняется тем, что заданные в данном примере параметры ФВЧ по частоте соответствуют частотному реверсу ФНЧ:  w' = p-w, что приводит к частотному реверсу передаточной функции низкочастотного фильтра и превращению его в высокочастотный фильтр. Этот способ обращения ФНЧ также может использоваться для расчетов ФВЧ.

 8. Импульсная реакция фильтра, вычисленная по (6.2.10) при подаче на вход фильтра импульса Кронекера приведена на рис. 6.2.2.

6.3. Полосовой фильтр Баттеруорта /л12/.

Как известно, полосовой фильтр можно получить непосредственной комбинацией низкочастотного и высокочастотного фильтра при перекрытии полосы пропускания фильтров. Аналогичный эффект достигается и частотным преобразованием ФНЧ, которое в этом случае имеет вид:

     p = s+1/s.                                                     (6.3.1)

Подставив в (6.3.1) значения p = jW и s = jw, получим:

W = [w2-1]/w,

              w2-Ww-1 = 0.                                                 (6.3.2)

Корни уравнения (6.3.2):

       (w)1,2 = W/2 .                                     (6.3.3)

Расщепление спектра. При W=0 имеем w =1, т.е. центр полосы пропускания ФНЧ (от -Wс до +Wс) расщепляется на два (как и положено, для полосовых фильтров) и смещается в точки w =1. Подставив в (6.3.3) граничную частоту Wс=1 нормированного ФНЧ, определяем граничные частоты нормированного полосового фильтра в виде пары сопряженных частот:

w1 = 0.618,     w2 = 1.618

Рис. 6.3.1. Расщепление полосы.

Сущность произведенного преобразования наглядно видна на рис. 6.3.1. Ширина полосы пропускания нормированного ПФ равна 1.

Полученное преобразование можно распространить на полосовой фильтр с ненормированными частотами wн и wв.

Введем понятие геометрической средней частоты фильтра wо:

                 wо= .                 (6.3.4)

Ширина полосы пропускания ПФ связана (см. рис.6.3.1) с граничной частотой ФНЧ соотношением:

Dw = wв-wн = wс = wн.

В долях средней геометрической частоты:

      Wн = (wв-wн)/wо = Wс.                                          (6.3.5)

Заменяя в (6.3.4-6.3.5) значение wв на произвольную частоту w и подставляя в (6.3.5) значение ωн = ω·ωо2  из (6.3.4), получаем произвольную частоту W:

         W = (w-wн)/wо = w/wo-wo/w.                                     (6.3.6)

Отсюда, в выражении (6.1.1) вместо нормированной частоты W = w/wс можно применить функцию частоты полосового фильтра w(w):

w(w) = (w2-wо2)/[w(wв-wн)],

или, подставляя (6.3.4) вместо ωо:

        w(w) = (w2-wнwв)/[w(wв-wн)].                                 (6.3.7)

Тем самым передаточная функция ФНЧ выражается в единицах, которые позволяют после применения преобразования (6.3.1) использовать для задания необходимые граничные частоты wн и wв полосового фильтра.

 Пример расчета полосового фильтра Баттеруорта.

 Техническое задание:  

  - Шаг дискретизации данных Dt = 0.0005 сек.

Частота Найквиста fN =  1/2Dt = 1000 Гц,    ωN = 6.283·103 рад.

  - Нижняя граничная частота полосы пропускания:  fн = 340 Гц,   wн = 2.136·103 рад.

  - Верхняя граничная частота полосы пропускания:  fв = 470 Гц,   wв = 2.953·103 рад.

  - Крутизна срезов в децибелах на октаву:    Кр = 45.

 Расчет параметров:

Рис. 6.3.2.

 1. Порядок фильтра по формуле (6.1.6'):  

N = Кр/6 = 45/6 = 7.5.

Для расчетов принимаем N=8.

 2. Строим график функции H(w) =  с использованием выражения (6.3.7). Передаточная характеристика фильтра приведена на рис. 6.3.2.

 3. Деформированные частоты по формуле (6.1.4):

wdн = 2.366·103 рад.    wdв = 3.64·103 рад.    wdo = 2.934·103.

Полосовой фильтр на s-плоскости. С учетом деформации частот, принимаем p = jw = j(w2-wdнwdв)/[w(wdв-wdн)],  s= jω и заменяем ω = s/j в выражении р:

р = (s2+wdнwdв)/[s(wdв-wdн)],

    s2-p(wdв-wdн)s+wdнwdв = 0.                                 (6.3.8)

Koрни уравнения (6.3.8) определяют местоположение полюсов ПФ:

        s = s* = p(wdв-wdн)/2 .                 (6.3.9)

Уравнение (6.3.9) показывает расщепление каждого p-полюса, определяемых выражением (6.1.14), на два комплексно сопряженных полюса s-плоскости, произведение которых будет давать вещественные биквадратные блоки в s-плоскости. При этом следует учесть то обстоятельство, что устойчивому рекурсивному фильтру на z-плоскости должны  соответствовать полюса только одной (левой) половины p,s - плоскостей.

Передаточная функция. При применении преобразования (6.3.1) к передаточной функции в полиномиальной форме (6.1.11), получаем:

  H(p) = G1/(p-pm) Gs/(s2-pm s+1) =  H(s),                   (6.3.10)

 Выражение (6.3.10) не требует нахождения полюсов, т.к. они уже известны и определяются выражением (6.3.9). С учетом этого функция H(s) может быть записана с объединением в биквадратные блоки комплексно сопряженных полюсов с вещественными коэффициентами:

H(s) = Gs/[(s-sm)(s-s*m)] = Gs/(s2+am s+gm),                (6.3.11)

где значения аm и gm могут быть определены непосредственно по полюсам (6.3.9):

    am = -2 Re sm,       gm = (Re sm)2 + (Im sm)2 = |sm|2.                 (6.3.12)

         Рис. 6.3.3.                      Рис. 6.3.4.

 Продолжение расчета фильтра Баттеруорта.

 4. Полюса фильтра на единичной окружности

     в р-плоскости:

pn = j·exp[j·p(2n-1)/2N],     n = 1,2,…,N.

     Положение полюсов приведено на рис. 6.3.3.

 5. Полюса в левой половине s-плоскости, n = 1,2,…,2N

     (приведены на рис. 6.3.4):

.

 6. По полученным значениям полюсов вычисляем коэффициенты am и gm (6.3.12), m = n.

     am = 196.8, 300.4, 581.2, 834.5, 930.5, 1188, 1196, 1304.

     gm = 5.64·106, 1.314·107, 5.997·106, 1.236·107, 6.742·106, 1.1·107, 7.895·106, 9.39·106.  

По приведенному примеру можно заметить, что при использовании ненормированных частот w, достаточно существенных по своей величине, значения s-полюсов и, соответственно, величины коэффициентов аm и gm имеют большие порядки, что нежелательно для дальнейших расчетов и может приводить к появлению погрешностей при ограничении разрядности. Для исключения этого фактора значения полюсов sn рекомендуется пронормировать на среднюю геометрическую частоту:

sn = sn/wo.

 Продолжение расчета фильтра Баттеруорта.

 6'. Значения коэффициентов am и gm (6.3.12), вычисленные по нормированным значениям sn.

     am = 0.067, 0.102, 0.198, 0.284, 0.317, 0.405, 0.407, 0.444.

     gm = 0.655, 1.527, 0.697, 1.436, 0.783, 1.277, 0.917, 1.091.  

Коэффициент g билинейного преобразования для ненормированных значений w и полюсов sn имеет классическую форму: g = 2/Dt. Соответственно, для нормированных значений: g = 2/(Dt·wo).  После билинейного z-преобразования выражения (6.3.11), получаем:

       H(z) = GGm (1-z2)/(1-bm z+cm z2).                                   (6.3.13)

Gm = 1/(g+am+gmg-1.                                               (6.3.14)

    bm = 2Gm(g-gmg-1).                                                  (6.3.15)

    cm = Gm(g-am+gmg-1.                                               (6.3.16)

 Продолжение расчета фильтра Баттеруорта (по нормированным полюсам sn).

 7. Значения коэффициента g:   g = 1.363.

 8. Значения коэффициентов Gm по (6.3.14):

     Gm = 0.523, 0.387, 0.483, 0.37, 0.444, 0.37, 0.409, 0.384.

 9. Значения коэффициентов bm по (6.3.15):

     bm = 0.924, 0.188, 0.823, 0.23, 0.7, 0.315, 0.565, 0.432.

 10. Значения коэффициентов cm по (6.3.16):

     cm = 0.93, 0.921, 0.809, 0.789, 0.719, 0.701, 0.666, 0.659.

 11. Общий нормировочный множитель G:   G = 1.264·10-3.

 12. Заключительная передаточная функция:

      При построении графика данной функции можно убедиться, что она полностью соответствует рисунку 6.3.2.

 13. Уравнение одной секции фильтра:

ym,k = Gm·(ym-1,k - ym-1,k-2) + bm ym,k-1 cm ym,k-2 .

Разные значения множителей Gm в секциях фильтра обычно опускаются и нормировкой H(z) к 1 на геометрической средней частоте фильтра определяют общий множитель G, что ускоряет вычисления:

G = 1/H(exp(-jDtwo)).                                            (6.3.17)

При очень малой величине порядка значения G для исключения и накопления аппаратных ошибок вычислений можно применять и другой метод: устанавливать для всех секций постоянное значение Gm = const, такое, при котором G = 1.

Если применить обратное частотное преобразование  p = s(wв-wн)/(s2+wв wн), то в результате будет получен полосовой заградительный фильтр.

(!!!КР18- Разработка программы расчетов ПФ Баттеруорта по методике, аналогичной методике расчетов НЦФ).

6.4. Фильтры Чебышева /л12/.

Фильтры первого рода. Фильтры Чебышева с пульсациями передаточной функции в полосе пропускания и гладким затуханием в полосе подавления называют фильтрами Чебышева первого рода, в отличие от инверсных фильтров Чебышева (второго рода). Аппроксимационная формула фильтров Чебышева первого рода определяется выражением:

    |H(W)|2 = 1/ [1+dN2 TN2(W)],                                  (6.4.1)

где ТN(W) - многочлен Чебышева N-го порядка:

    Tn(W) = cos(n arccos(W)),  W1.                       (6.4.2)

     = ch(n arcch(W)),    W>1.     n = 1,2,...

Критерий приближения Чебышева, который широко используется не только в теории фильтров - минимум максимальной ошибки приближения (минимаксное приближение). В соответствии с этим приближением параметры передаточной функции подбираются таким образом, чтобы в полосе передачи АЧХ наблюдались равноволновые пульсации коэффициента передачи, которые являются "платой" за повышение крутизны среза фильтра.

Полиномы Чебышева вычисляются по рекуррентной формуле:

    Tn(W) = 2W Tn-1(W) - Tn-2(W),                                (6.4.3)   

    T1(W) = W,   To(W) = 1.

Для ФНЧ при W = w/wp имеет место Тn(1) = 1, |H(W)|2 = 1/(1+d2) и значением d задается коэффициент пульсаций в полосе передачи. При задании полосы по уровню Аp значение d рассчитывается аналогично фильтру Баттеруорта.

Соответственно, при задании Аs на границе полосы подавления, имеем:

    1/(1+d2 TN2(ws/wp)) = As2.                                     (6.4.4)

         N = arcch[/d] / arcch(ws/wp).                              (6.4.5)

Дальнейшие расчеты идентичны расчетам фильтров Баттеруорта, равно как и частотные преобразования фильтров ФНЧ в ФВЧ и ПФ.

(!!!КР16- Разработка программы расчетов фильтров Чебышева 1-го рода)

Фильтры второго рода. Для фильтров Чебышева второго рода, с гладкой передаточной характеристикой в зоне пропускания и равноволновыми пульсациями в зоне подавления, используется функция:

   |H(W)|2 = 1/[1+d2(TN2(Ws)/TN2(Ws/W))],                           (6.4.6)

где W = w/wp, Ws = ws/wp. Условие задания параметра d остается без изменений. На границе полосы подавления при w = ws: 1+d2TN2(ws/wp) = 1/As2, откуда значение N также определяется аналогично фильтру первого рода. Дальнейший порядок расчетов фильтров Чебышева второго рода не отличается от фильтров первого рода.

(!!!КР17- Разработка программы расчетов фильтров Чебышева 2-го рода)

6.4. Дополнительные сведения.

При использовании РЦФ очень часто упускается вопрос длительности фактического затухания переходного процесса. Между тем, для эффективного запуска РЦФ необходим поток входных данных xn и множество начальных значений уn. Если начальные значений уn неизвестны и принимаются равными нулю, начальный переходной процесс включения неизбежен. При этом существует четкая тенденция - чем больше крутизна фильтра, тем дольше затухает переходной процесс. Поэтому РЦФ применяют, в основном, при обработке достаточно протяженных массивов. При обработке коротких массивов, длина которых соизмерима с длительностью переходного процесса РЦФ, необходим предварительный подбор начальных значений уn. Проводится он, как правило, чисто эмпирически, с использованием различных наборов начальных данных.

Второй фактор, который следует учитывать - сдвиг фазы. Если при обработке данных сдвиг фазы входных сигналов недопустим, то следует применять либо дополнительный компенсирующий фильтр, восстанавливающий фазу обработанных сигналов, либо применять последовательную двойную фильтрацию однотипным рекурсивным фильтром с прямым и обратным проходом обрабатываемых данных.

(!!!КР15 - Разработка программы расчетов рекурсивных частотных фильтров с полиномами на базе экспоненциальных функций).


Тема 7:
 ДЕКОНВОЛЮЦИЯ СИГНАЛОВ

Если дом красив, то мы понимаем, что он был выстроен для хозяев, а не для мышей.

Хрисипп (греческий философ).

Деконволюция сходна с археологией. Задача – восстановить дом из развалин. Обнадеживает, если все обломки на месте. Но если остался только песок, и для мышей дома не получится.

Григорий Старцев (Геофизик).

Содержание: 7.1. Понятие деконволюции. Определение деконволюции. Особенности деконволюции. Устойчивость фильтров деконволюции. 7.2. Инверсия импульсного отклика фильтра. 7.3. Оптимальные фильтры деконволюции. Принцип оптимизации. Уравнение оптимальной инверсии. Уравнение Левинсона. 7.4. Рекурсивная деконволюция. 7.5. Фильтры неполной деконволюции. Литература.

7.1. Понятие деконволюции.

Деконволюция или обратная свертка в геофизике используется очень широко. Она применяется для сжатия сигналов с целью повышения временного или пространственного разрешения результатов измерений. В грави- и магниторазведке с использованием деконволюции производятся перерасчеты аномальных полей вниз. В ядерной геофизике методы деконволюции являются основными при количественной интерпретации результатов измерений, чему способствует принцип суперпозиции ядерно-физических полей.

Определение деконволюции. Если для прямой свертки сигнала x(k) c импульсным откликом h(n) линейной системы (фильтра) мы имеем уравнение:

y(k) = h(n) * x(k) H(z)X(z) = Y(z),

то, в принципе, возможна постановка и обратной задачи, задачи деконволюции - определение сигнала на входе линейной системы по значениям выходного сигнала:

  X(z) = Y(z)/H(z) = Y(z)H-1(z)  y(k) * h-1(n) = x(k),                 (7.1.1)

где индексом "-1" символически обозначен оператор обратного фильтра, инверсный прямому. Очевидно:

   H(z)H-1(z) = 1  h(n) * h-1(n) = do(n),                              (7.1.2)

    H-1(z) = 1/H(z)  h-1(n).                                         (7.1.3)

где do(n) - импульс Кронекера (do(n) = 1 при n = 0,  do(n) = 0 при n ≠ 0).

Пример инверсии оператора через спектральное представление приведен на рис. 7.1.1 (исходный оператор hn  спектральная плотность H(ω) инверсная спектральная плотность H-1(ω) инверсный оператор h-1n на начальном интервале отсчетов).

Рис. 7.1.1.

Особенности деконволюции. Выражение (7.1.3) позволяет сделать некоторые выводы об особенностях выполнения деконволюции.

При ограниченной импульсной реакции h(n) инверсный оператор h-1(n) в общем случае не ограничен. Так, например, если импульсная реакция представлена нормированным диполем h(n) = {1,a}  (1+az) = h(z), то имеем:

H-1(z) = 1/(1+az) = 1-az+a2z2-a3z3+ ....

h-1(n) = {1, -a, a2, -a3,....}.

Это действительно практически для любых операторов фильтров, энергия которых на каких-либо ограниченных участках главного частотного диапазона близка к нулевой. При инверсии спектральной функции таких операторов на этих участках возникают резкие энергетические пики, которые при обратном преобразовании Фурье дает медленно затухающие функции операторов. Пример такого явления приведен на рис. 7.1.2.

Рис. 7.1.2.

Отсюда следует, что для точного выполнения деконволюции необходимо располагать бесконечно длинным инверсным оператором фильтра. Заметим также, что инверсия операторов обычно всегда связана с усилением высоких частот, что приводит к резкому повышению коэффициента усиления дисперсии помех инверсных фильтром.   Практически, деконволюция выполняется, если инверсный оператор достаточно быстро затухает и может быть ограничен. Но использование усеченных операторов приводит к появлению определенной погрешности деконволюции, величину которой следует контролировать.

Устойчивость фильтров деконволюции. Функция H(z) в выражении (7.1.3) имеет особые точки - нули функции, которые становятся полюсами функции H-1(z) = 1/H(z) и определяют устойчивость инверсного фильтра. Для того чтобы фильтр деконволюции был устойчивым, ряд 1/H(z) должен сходиться, т.е. полюса функции должны находиться вне единичного круга на z-плоскости.      

Многочлен H(z) порядка N может быть разложен на N простых сомножителей - двучленов (диполей):

    H(z) = (а-z)(b-z)(c-z)....,                                        (7.1.4)

где а, b, с,.. - корни полинома. Обращение передаточной функции:

         H-1(z) =                                           (7.1.5)

Если каждый из диполей функции (7.1.4) является минимально-фазовым диракоидом, т.е. корни диполей находится вне единичного круга на z-плоскости и модули нулевых членов диполей всегда больше следующих за ними первых членов (в данном случае: |а|>1, |b|>1, |с|>1), то и функция H(z) в целом также является минимально-фазовым диракоидом. При этом максимум энергии импульсного отклика сосредоточен в его начальной части и последовательность отсчетов представляет собой затухающий ряд. Соответственно, и функция 1/H(z) также будет представлять собой сходящийся ряд, и инверсный фильтр будет устойчив. Так, например, фильтр, реализующий передаточную функцию (7.1.5), в самой общей форме может быть выполнен в виде включенных последовательно фильтров, каждый из которых имеет передаточную функцию следующего типа (для первого фильтра):

H1-1(z) = 1/(a-z) = (1+z/a+z2/a2+...)/a.

 Пример 1 проверки устойчивости инверсного фильтра.

 Оператор фильтра hn = {0.131, 0.229, 0.268, 0.211, 0.111, 0.039, 0.009, 0.001}, N = 7.  Оценить возможность инверсии оператора.

 1. Переводим значения оператора в полином по zn:     H(z) = Sn hn zn.

Рис. 7.1.3.

 2.  Находим  модули корней полинома:  zn = {1.896, 1.896, 1.896, 2.87, 2.87, 1.253, 1.253}.

  Модули всех корней больше 1, следовательно, полюсы инверсного полинома будут находиться за пределами единичной окружности на z-плоскости, и инверсный оператор устойчив. Форма исходного оператора и положение полюсов инверсного оператора на z-плоскости приведены на рис. 7.1.3. Попутно отметим, что чем дальше от единичной окружности ближайшие к ней полюса, тем быстрее затухает инверсный оператор фильтра.

 Пример 2 проверки устойчивости инверсного фильтра.

Рис. 7.1.4.

 Оператор фильтра hn практически тот же самый, но сдвинут вправо на один отсчет и, соответственно, дополнен новым нулевым отсчетом h0 = 0.048.

 Находим  новые модули корней полинома:  zn = {1.271, 1.271, 1.271, 1.924, 1.924, 0.84, 0.84}.

 Форма исходного оператора и положение полюсов приведены на рис. 7.1.4. Два полюса находятся внутри единичного круга, а, следовательно, инверсный оператор не будет устойчивым (будет незатухающим расходящимся рядом).  

Обращение недиракоидных функций. Если H(z) - реверсоид, т.е. корни составляющих его диполей находятся внутри и на единичном круге в z-плоскости, то устойчивое обращение H(z) является антиимпульсом (с отрицательными степенями z) и для его использования необходимо располагать "будущими" значениями входного сигнала.

 Пример. 

 Передаточная функция фильтра: H(z) = 1-2z.   Инверсная функция H-1(z) = 1/(1-2z). Частотные спектры функций приведены на рис. 7.1.5.

Рис. 7.1.5.

 Полюс функции zp = 1/2 и находится внутри единичного круга на z-плоскости.

 Перепишем выражение для инверсного фильтра в следующем виде:

H-1(z) = -(1/2z) [1+1/2z+1/(2z)2+...].

 Это выражение является разложением в ряд по степеням 1/z и сходится к кругу радиусом 1/2 при z → . Коэффициенты при степенях 1/z являются, соответственно, коэффициентами инверсного фильтра с координатами (-n), т.е. фильтр оперирует с "будущими" отсчетами входного сигнала (см. рис. 7.1.5).

Если диполи функции (7.1.4) представляют собой и диракоиды, и реверсоиды, то обращение будет центроидом и определяется полным рядом Лорана:

H-1(z) = ...+h-2z-2+h-1z-1+h0+ h1z1+h2z2+ ...,

т.е. оператор инверсного фильтра является двусторонним и не обязательно симметричным, как мы обычно рассматривали ранее двусторонние операторы.

7.2. Инверсия импульсного отклика фильтра.

Вычисление коэффициентов инверсного фильтра по значениям каузального (одностороннего) оператора h(n) может быть проведено на основе выражения (7.1.2):

    h-1(k)h(n-k) = do(n),                                       (7.2.1)

для чего достаточно развернуть его в систему n-уравнений при n = 0,1,2…, k  ≤ n

n = 0:   h-1(0)h(0) = 1,                                     h-1(0) = 1/h(0).

n = 1:   h-1(0)h(1)+h-1(1)h(0) = 0,                    h-1(1) = h-1(0)h(1) / h(0).

n = 2:   h-1(0)h(2)+h-1(1)h(1)+h-1(2)h(0) = 0,   h-1(2) = (h-1(0)h(2)+h-1(1)h(1))/h(0),   и т.д.

Продолжая последовательно, можно вычислить любое количество значений коэффициентов инверсного фильтра. Рекуррентная формула вычислений:

   h-1(n) = -[h-1(k)h(n-k)] / h(0).                                  (7.2.2)

Если фильтр деконволюции устойчив и ряд h-1(n) сходится, то появляется возможность разумного ограничения количества членов ряда с определенной ошибкой восстановления исходного сигнала. Метрика приближения Е (квадратичная норма разности) определяется выражением:

Е2 =[do(n) - h(n) * h-1(n)]2.                                         (7.2.3)

Ошибка восстановления исходного сигнала проявляется со сдвигом на длину прямого оператора фильтра.

 Пример инверсии оператора фильтра. 

Рис. 7.2.1.

 Оператор фильтра

    hn = {0.219, 0.29, 0.257, 0.153, 0.061, 0.016, 0.003}.

 1. Полином по zn:     H(z) = Sn hn zn.

 2. Модули корней полинома:  

     zn = {2.054, 2.054, 2.485, 2.485, 1.699, 1.699}.

     Модули корней больше 1, инверсный фильтр должен быть устойчивым и, судя по значениям корней (достаточно существенно отличающимся от 1), быстро затухающим.

 3. Двенадцать первых значений инверсного оператора при вычислении по (7.2.2):

   h-1(n) = {4.56, -6.033, 2.632, 0.417, -0.698, -0.062, 0.267, -0.024, -0.11, 0.051, 0.018, -0.019, 0.004}.

     Значения прямого и инверсного оператора фильтра приведены на рис. 7.2.1.

 4. Значения свертки прямого оператора с инверсным при разной длине N инверсного фильтра и метрика приближения:

   N=4, sn={1, 0, 0, 0, 0, 0.014, -0.04, -0.056, -0.028, -0.01, -0.002, 0, 0, …}.  E=0.077.

   N=6, sn={1, 0, 0, 0, 0, 0, 0, 0.005, 0.031, 0.027, 0.013, 0.004, 0.001, 0, 0, …}. E=0.044.

   N=8, sn={1, 0, 0, 0, 0, 0, 0, 0, 0, -0.011, -0.019, -0.014, -0.006, 0.002, <0.001, 0, 0, …}. E=0.027.

   N=10, sn={1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0.004, 0.006, 0.004, 0.002, <0.001, 0, 0, …}. E=0.0086.

На рис. 7.2.2 приведены абсолютные значения ошибки деконволюции при разной длине N.

        Рис. 7.2.2.

7.3. Оптимальные фильтры деконволюции /л12,л22/.

Можно рассчитать оптимальные фильтры деконволюции, метрика приближения которых много меньше, чем у усеченных фильтров деконволюции. Для получения общего уравнения оптимальной деконволюции будем считать, что число коэффициентов оператора hn равно M+1, a число коэффициентов инверсного оператора hn-1 равно N+1.

Принцип оптимизации. Выходная функция приближения при использовании уравнения свертки (7.1.2) с ограничением числа членов оператора фильтра:

       F = Е2 = [do(k)-xk]2.      xk =hn-1 hk-n.                      (7.3.1)

Чтобы определить минимум функции, приравняем нулю  частные производные от Е по неизвестным коэффициентам фильтра:

    dF/dhj-1 = -2hk-j [do(k) -hn-1 hk-n] = 0.                       (7.3.2)

        hk-j hn-1 hk-n = hk-j do(k) = h-j.                      (7.3.3)

  hn-1 hk-n hk-j  = hn-1 aj-n = h-j,    j = 0,1,2, ..., N,        (7.3.4)

где aj-n - функция автоковариации импульсной реакции h(n). Учитывая также, что hn = 0 при n<0 и аj = a-j (функция автоковариации является четной функцией), окончательное решение определяется следующей системой линейных уравнений:

   (7.3.5)

a0 h0-1 + a1 h1-1 + a2 h2-1 + a3 h3-1 + ...  + aN hN-1 = h0

a1 h0-1 + a0 h1-1 + a1 h2-1 + a2 h3-1 + ...  + aN-1 hN-1 = 0

a2 h0-1 + a1 h1-1 + a0 h2-1 + a1 h3-1 + ...  + aN-2 hN-1 = 0

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

aN h0-1 + aN-1 h1-1 + aN-2 h2-1 +  aN-3 h3-1 +... +a0 hN-1 = 0

 Пример расчета оптимального фильтра деконволюции.  

 Повторим инверсию оператора, приведенного в последнем примере (рис. 7.2.1 и 7.2.2), при N=6.

 1. Значения оптимального инверсного оператора в сопоставлении с усеченным:

   h-1(n) = {4.56, -6.033, 2.632, 0.417, -0.698, -0.062, 0.267} – прямой расчет по (7.2.2).

   h-1(n) = {4.557, -6.026, 2.633, 0.397, -0.693, -0.009, 0.145} – расчет по (7.3.5).

 2. Значения свертки инверсных операторов с прямыми и метрики приближения:

Рис. 7.3.1.

   Оператор по (7.2.2) – рис. 7.3.1(А):  sn= {1, 0, 0, 0, 0, 0, 0, 0.005, 0.031, 0.027, 0.013, 0.004, 0.001, 0, 0,…}. E=0.044.

   Оператор по (7.3.5) – рис. 7.3.1(В):  sn= {0.999, <0.001, 0.002, -0.003, -0.003, 0.013, -0.008, -0.012, 0.011, 0.013, 0.007, 0.002, <0.001, 0, 0, …}. E=0.027.

   Метрика приближения оптимального оператора в 1.6 раза меньше усеченного.

   Как видно на рис. 7.3.1, оптимизация инверсного оператора заключается в центрировании ошибок приближения и тем самым уменьшении максимально возможных ошибок.

Уравнение оптимальной инверсии. Оптимальный инверсный фильтр может быть получен непосредственно с использованием z-образов импульсной реакции и автоковариационной функции прямого фильтра. Если для прямого фильтра мы имеем передаточную функцию H(z), то z-образ автоковариационной функции фильтра (как z-отображение спектральной плотности мощности) представляет собой произведение:

          A(z) = H(z)H*(z),                                               (7.3.6)

где H*(z)- функция, комплексно сопряженная с H(z). Заменяя H(z) для функции диракоидного типа выражением H(z) = 1/H-1(z), получаем:

        А(z)H-1(z) = H*(z).                                              (7.3.7)

Запишем последнее равенство в развернутом виде:

(а-Nz-N+ ... +a-1z-1+a0+a1z1+ ... +aNzN)(h0-1+h1-1z1+h2-1z2+ ... +hN-1zN) =

         = h0*+h1*z-1+h2*z-2+ ... +hN*zN.                                             (7.3.8)

В выражении (7.3.8) сумма коэффициентов при одинаковых степенях z в левой части равенства должна быть равна коэффициенту при соответствующей степени z в правой части равенства, что позволяет составить следующую систему из N уравнений для коэффициентов при степенях z0, z1, z2, ... , zN:

  (7.3.9)

a0 h0-1 + a-1 h1-1 + a-2 h2-1 + a-3 h3-1 + ...  + a-N hN-1 = h0*

a1 h0-1 + a0 h1-1 + a-1 h2-1 + a-2 h3-1 + ...  + a-N-1 hN-1 = 0

a2 h0-1 + a1 h1-1 + a0 h2-1 + a5 h3-1 + ...  + a-N-2 hN-1 = 0

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

aN h0-1 + aN-1 h1-1 + aN-2 h2-1 +  aN-3 h3-1 +... +a0 h-N -1 = 0

В случае вещественных фильтров, когда аi = a-i и h0* = h0, уравнение (7.3.9) идентично уравнению (7.3.5).

Уравнение Левинсона. Практический способ расчета оптимальных инверсных фильтров по уравнению (7.3.9) предложен в 1947 году Н.Левинсоном.

Перепишем уравнение (7.3.9) в матричной форме:

                            (7.3.10)

Так как коэффициенты инверсного фильтра достаточно определить с точностью до произвольного масштабного множителя, приведем ho-1 к 1, a функцию автоковариации переведем в функцию коэффициентов корреляции делением обеих частей уравнения на аo. Обозначая Аi = аi/ao, Wi = hi-1/ho-1 и V =  ho*/(ho-1ao) =  hoho*/ao , получаем:

                                (7.3.11)

где для значений W и V введен индекс j номеров предстоящих итераций по циклу вычисления коэффициентов фильтра.

При нулевой итерации (N=0, j=0) имеем только одно уравнение:

         .                                            (7.3.12)

Благодаря проведенной нормировке решения уравнения (7.3.12) не требуется:

А0= 1, V0= 1, W00= 1.

Составим уравнение для двучленного фильтра (N=1, j=1):

                                            (7.3.13)

Перепишем уравнение (7.3.12) в прямой форме:

           А0 W00 = V0.                                                    (7.3.14)

Запишем вспомогательную систему, для чего к уравнению (7.3.14) добавим вторую строку с новой постоянной Еj:

A0 W00 + A1·0 = V0,

A1 W00 + A0 ·0 = E1.

В матричной форме:

                                           (7.3.15)

Реверсируем уравнение (7.3.15):

                                           (7.3.16)

Вычтем (7.3.16) из (7.3.15) с неопределенным множителем Rj:

                      (7.3.17)

Из верхней строки уравнения (7.3.16) можно получить значение Е1:

     Е1= A1W00.                                                  (7.3.18)

Уравнение (7.3.13) можно  сделать  равнозначным  уравнению (7.3.17), если правую часть нижней строки уравнения (7.3.17) приравнять правой части нижней строки уравнения (7.3.13):

E1 - R1V0 = 0

     R1 = E1/V0.                                                   (7.3.19)

При этом из правых частей верхних строк уравнений (7.3.13,7.3.17) будем иметь:

            V1 = V0 - R1E1.                                                 (7.3.20)

Приравнивая друг другу левые части уравнений (7.3.13,7.3.17), получаем:

W01 = W00 - R1·0 = W00 = 1.

    W11 = 0 - R1W00 = -R1W00.                                      (7.3.21)

Этим заканчивается первая итерация. Аналогично, для второй итерации:

                                            (7.3.22)

                                            (7.3.23)

                                            (7.3.24)

                       (7.3.25)

Из верхней строки уравнения (7.3.24):

Е2 = A1W11+A2W01.

Из правых частей нижней и верхней строк уравнений (7.3.22,7.3.25):

R2 = E2/V1,

V2 = V1 - R2E2.

Новые коэффициенты из левых частей уравнений (7.3.22,7.3.25):

W02 = W01 - R2  0= 1,

W12 = W11 - R2W11,

W22 = 0 - R2W01.

Анализ расчетов позволяет вывести следующие рекуррентные формулы:

      Ej =AiWj-i,j ,   j = 1,2,...,M.                                (7.3.26)

Rj = Ej/Vj-1, 

Vj = Vj-1 - RjEj,

Wi,j = Wi,j-1 - RjWj-1,j-1,  i = 0,1,.., j.

Подпрограммы решения уравнений для ЭВМ приведены в литературе /12,22/.

7.4. Рекурсивная деконволюция /л22/.

Запишем уравнение (7.1.3) для инверсного фильтра в развернутой форме:

    H-1(z) = 1/(h0+h1z+h2z2+ ...).                                  (7.4.1)

Так как для минимально-фазового оператора всегда выполняется условие h0 0, приведем (7.4.1) к виду:

       H-1(z) = (1/h0)/(1+h1z/h0+h2z2/h0+...) = G/(1+q1z+q2z2+ ...),            (7.4.2)

где: G = 1/h0, q1 = h1/h0, q2 = h2/h0 и т.д. Но уравнение (7.4.2) есть не что иное, как уравнение передаточной функции рекурсивного фильтра, где цепь обратной связи образована коэффициентами нормированного оператора h(n). Алгоритм вычислений:

yk = G·xk –qn·yk-n.

Выражение (7.4.2) уникально по своим возможностям. В принципе, оно может реализовать оператор инверсной фильтрации с бесконечным импульсным откликом. На практике оно может использоваться вместо медленно затухающих инверсных операторов, модуль одного из полюсов которого очень близок к 1 (менее 1.1) при высоких требованиях к метрике приближения.

 Пример рекурсивной деконволюции.  

Рис.7.4.1.

 Оператор фильтра hn = {0.41, 0.791, 0.401, -0.193, -0.367, -0.166, 0.032, 0.068, 0.027, -0.001},  N=9.

 1. Модуль одного из корней фильтра равен 1.032, что приводит к очень слабому затуханию инверсного оператора. Метрика приближения даже при N=100 для усеченного оператора составляет 0.3. Форма операторов приведена на рис. 7.4.1.

Рис.7.4.2.

 2. При использовании оптимального инверсного оператора с N=100 значение погрешности приближения уменьшается более чем в 20 раз, что позволяет уменьшить длину оператора до N=35 при погрешности приближения порядка 0.1 (рис 7.4.2(А)), при этом абсолютные значения погрешностей приближения не превышают 0.03 (рис. 7.4.2(В)).

 3. Расчет коэффициентов фильтра рекурсивной деконволюции:

   - G = 1/ho = 2.441

   - gn = hn·G.   gn = {1.932, 0.978, -0.472, -0.896, -0.405, 0.077, 0.165, 0.065, -0.003},  n=1,2,3,…,9.

Рис. 7.4.3.

   На рис. 7.4.3 приведены результаты рекурсивной деконволюции оператора hn. Как и следовало ожидать, деконволюция абсолютно точно, с нулевой метрикой, восстанавливает импульс Кронекера, хотя собственный импульсный отклик рекурсивного оператора повторяет оператор h-1n при его вычислении по формуле (7.2.2) и длительность его значимой части близка к 200. Естественно, что коэффициент усиления дисперсии шумов при данной операции вычисляется по значениям импульсного отклика и весьма существенен, как и для всех инверсных операторов.

7.5. Фильтры неполной деконволюции.

Рассмотренные выше методы относятся к расчету так называемых идеальных инверсных фильтров, т.е. фильтров полной прямой инверсии системных операторов. Однако использование идеальных инверсных фильтров на практике не всегда возможно, т.к. регистрируемые данные обычно осложнены влиянием помех (шумов), а инверсные фильтры обычно имеют коэффициент усиления шумов значительно больше 1. В этом случае задача точной деконволюции (восстановления истинной первоначальной формы сигнала), как правило, не ставится, и инверсные фильтры считаются оптимальными с точки зрения максимального приближения к форме полезного сигнала с определенным допустимым коэффициентом усиления дисперсии помех. Такие фильтры называются фильтрами неполной (частичной, ограниченной) деконволюции. При проектировании фильтров неполной деконволюции учитываются статистические характеристики помех во входном сигнале и их соотношение со статистическими характеристиками самого входного сигнала. Передаточная функция фильтра неполной деконволюции с учетом помех во входном сигнале определяется выражением:

    H-1(z) = H*(z)/[|H(z)|2+g2],                                     (7.5.1)

где g2 = k·sh2 - дисперсия шумов в единицах дисперсии оператора hn, sh2 – дисперсия значений оператора hn, (при условии суммы значений оператора, равной 1), k - отношение дисперсии шумов к дисперсии оператора hn. Коэффициент g2 играет роль регуляризирующего фактора при выполнении операции деконволюции информации.

Рис. 7.5.1.

На рис. 7.5.1 пример формы оператора hn и спектральных функций (7.5.1) при разных значениях параметра g. При g = 0 выражение (7.5.1) обращается в идеальный инверсный фильтр 1/H(z). Во втором крайнем случае, при g2>>|H(z)|2, фильтр (7.5.1) переходит в фильтр, согласованный с сигналом по частотному спектру: H-1(z) = H*(z)/g2, который только максимизирует отношение сигнал/помеха.

На рис. 7.5.2 приведена форма инверсных операторов, соответствующая их частотным характеристикам на рис. 7.5.1(В), и результаты свертки инверсных операторов с прямым (для лучшего просмотра графики прямой оператор при свертке сдвинут вправо на 2 значения Dt). При g=0 коэффициент усиления дисперсии шумов равен 11, при g=0.4sh2 равен 4.6. Однако снижение усиления дисперсии шумов сопровождается увеличением погрешности приближения, что можно видеть на рис. 7.5.2(В), при этом уменьшается амплитуда восстановления импульса Кронекера и появляются осцилляции после импульса. Но при наличии шумов и правильном выборе параметра g общее отношение амплитудных значений сигнал/ шум для оператора по (7.5.1) больше, чем для прямой инверсии по (7.1.3), что объясняется более существенным уменьшением коэффициента усиления дисперсии шумов при увеличении параметра g, чем увеличением погрешности приближения.

Рис. 7.5.2.

Операторы оптимальных фильтров также могут вычисляться с учетом помех. Если сигнал s(k) и помеха статистически независимы, то функция автоковариации сигнала на входе фильтра:

     аi = asi + bi,                                                   (7.5.2)

где asi и bi - функции автоковариации сигнала и помех. При помехе типа белого шума функция автоковариации помех представляет собой весовую дельта-функцию в точке 0:

      bi = c2di,                                                      (7.5.3)

где с2- дисперсия помех. С учетом этого фактора расчет оптимальных инверсных фильтров может проводиться по вышеприведенным формулам (7.3.5, 7.3.9) с изменением значения коэффициента аo:

     ao= ao + c2.                                                   (7.5.4)

Рис. 7.5.3.

На рис. 7.5.3(А) приведены примеры операторов оптимальных инверсных фильтров, вычисленные по прямому оператору, приведенному на рис. 7.5.1(А). Значения коэффициента с2 заданы в долях дисперсии прямого оператора. Ввод коэффициента с2 в функцию автоковариации резко уменьшает значения коэффициентов инверсного оператора и, соответственно, уменьшает коэффициент усиления дисперсии помех. Для приведенного примера при исходном значении коэффициента усиления дисперсии шумов порядка 12 для с2=0, его значение уменьшается до 1.8 при с2=0.1s2 и становится меньше 1 при с2 > 0.3s2. Естественно, что общая погрешность приближения деконволюции при этом также существенно изменяется (см. рис. 7.5.3(В)), но амплитуда значения сигнала на месте импульса Кронекера (там, где он должен быть) изменяется много меньше, чем коэффициент усиления дисперсии шумов, а, следовательно, отношение сигнал/шум при введении коэффициента с2 существенно увеличивается.


Тема 8:
  ОСНОВЫ  ТЕОРИИ  ВЕРОЯТНОСТЕЙ СЛУЧАЙНЫХ СИГНАЛОВ

Таковы первичные законы, установленные природой.

Вергилий. Георгики. (Римский  поэт)

"Природа не злонамеренна, но коварна". Это не закон. Это только следствие теории вероятностей. И все же непонятно, почему единственная муха в ресторане падает именно в мой суп.

Владимир Бакаев. Наблюдения. (Уральский геофизик)

Содержание:  8.1. Основные понятия теории вероятностей. События и явления. Классификация случайных событий. Сумма событий. Произведение событий. Полная группа событий. Сложные события. 8.2. Вероятности случайных событий. Частотное определение. Определение на основе меры. Основные положения теории вероятностей. Сложение вероятностей. Условная вероятность. Умножение вероятностей. Независимость событий. Формула полной вероятности. Формула Байеса. 8.3. Случайные величины. Общие понятия. Вероятности случайных величин. Функции от случайной величины. Моменты распределения. Основные числовые характеристики случайных величин. Некоторые распределения случайных величин. Характеристическая функция.  8.4. Системы случайных величин. Функция распределения вероятностей системы. Плотность вероятностей системы. Условные законы распределения. Функции регрессии. Статистическая независимость случайных величин. Моменты систем случайных величин. Сумма и разность случайных величин. Литература.

8.1. Основные понятия теории вероятностей [л28,л29].

 Теория вероятностей - один из разделов математики, в котором изучаются закономерности случайных массовых событий, явлений и процессов независимо от их физической природы.

 События и явления. Все события и явления реального мира разделяются на закономерные (детерминированные) и случайные (вероятностные).

 Закономерные события происходят при создании определенных условий, подчиняются определенным физическим законам и на основании этих законов однозначно предсказываются и изменяются. Возникновение тока в электрической цепи при подключении ее к источнику напряжения - закономерное событие, а сила тока в цепи может определяться и изменяться на основании закона Ома. Закономерное явление - это система, совокупность или последовательность закономерных событий. Генерация импульсного потока - закономерное явление, т.к. и форма импульсов, и время их появления задаются определенными физическими процессами в электрической схеме генератора.

 Случайным событием называется такое событие, изменить или предсказать которое в процессе случайного явления невозможно. Случайное событие - это результат (исход) конкретной единичной реализации случайного явления. Так, выпадение чисел 1-6 при бросании игральной кости - случайное явление. Выпадение числа 6 в единичном испытании - случайное событие. Если оно может задаваться, то это уже не игральная кость, а инструмент шулера. Типовое обозначение случайных событий - крупными буквами алфавита (например, событие А - выпадение 1 при бросании кости, событие В - выпадение 2 и т.д.).

Случайность событий может быть обусловлена как собственной физической природой явлений, что характерно для большинства физических процессов в микромире (например, распад радиоактивных ядер), так и определенным вероятностным характером реализации явлений в силу их многофакторной и, как правило, нелинейной зависимости от внешних и внутренних условий, что характерно для процессов в макромире. Например, индивидуализация исхода  бросания игральной кости начинается с вариации некоторых начальных условий (положение в пространстве, скорость и направление движения, момент инерции, момент вращения и пр.) и продолжается на всем пути движения кости вплоть до остановки (трение о воздух, положение в момент удара о стол, поглощение энергии удара и пр.). Невозможность точного повторения всех условий опыта определяет случайность результата.

Нетрудно заметить, что понятие случайности явлений, а равно и границы между случайными и закономерными явлениями, довольно расплывчато и существенно зависит не только от природы самих явлений, но и от возможностей задания постоянных условий реализации явлений и фиксирования результатов. Падение напряжения на резисторе при задании через него тока - явление закономерное и значение напряжения может быть "предсказано" со сколь угодно высокой точностью при соответствующей точности задания сопротивления резистора и значения тока. Однако, как известно, если провести серию измерений этого напряжения прибором более высокой точности, то результаты измерений следует отнести к величинам случайным. Измеренные значения не будут выходить за пределы заданной точности, но и не будут повторяться в силу влияния самых различных дестабилизирующих факторов (температура, влажность, электромагнитные помехи и т.п.) как на сам измерительный прибор, так и на объект измерений. Более того, даже если мысленно идеализировать условия опыта и повысить точность задания параметров объекта, то и в этом случае мы выйдем на определенную случайность результатов измерений уже в силу дискретной природы самого электрического тока и флюктуаций движения электронов в резисторе.

С практической точки зрения явление или процесс считаются случайными, если в их формировании в той или иной форме присутствует неопределенность и невозможно с заданной  точностью предсказать результаты их конкретных реализаций, физического отображения и измерения в ходе контролируемых экспериментов или повторить в ходе многократных реализаций.

 Классификация случайных событий. Событие называют достоверным (и обозначают индексом ), если оно однозначно и предсказуемо. Выпадение суммы чисел больше 1 и меньше 13 при бросании двух костей - достоверное событие. Событие является невозможным (и обозначается индексом ), если в данном явлении оно полностью исключено. Сумма чисел, равная 1 или большая 12 при бросании двух костей - события невозможные. События равновозможны, если шансы на их появление равны. Появление чисел 1-6 для игральной кости равновозможно.

Два события называются совместными, если появление одного из них не влияет и не исключает появление другого. Совместные события могут реализоваться одновременно, как, например, появление какого-либо числа на одной кости ни коим образом не влияет на появление чисел на другой кости. События несовместны, если в одном явлении или при одном испытании они не могут реализоваться одновременно и появление одного из них исключает появление другого (попадание в цель и промах несовместны).

 Сумма событий представляет собой такое объединение событий в одно новое событие, сущность которого заключается в реализации хотя бы одного из объединяемых событий:  S = A+B+...+N.  Такая операция представляет собой аналог дизъюнкции - логического сложения (логическое "ИЛИ"), и может записываться в виде S = AB...N. Так, если события А,В,С - поражение цели соответственно при 1-ом, 2-ом и 3-ем выстреле, то событие S=A+B+C - поражение цели вообще, т.е. любым выстрелом, в том числе двукратное и трехкратное.  

 Произведение событий представляет собой совмещение событий в одном новом событии, в совместном появлении всех совмещаемых событий:  S = AB ... N.  Такая операция представляет собой аналог логической конъюнкции (логическое "И"), и может записываться в виде S = AB...N. Продолжая предыдущий пример, событие Z - трехкратное попадание в цель, определяется выражением: Z = ABC.

Попутно заметим, что для логических операций имеем: А+А=А и АА=А.  

 Полная группа событий. События какого-либо случайного явления образуют полную группу, если в результате единичной реализации явления обязательно произойдет хотя бы одно из них, т.е. выполняется условие: А+В+ ... +N = (сумма событий полной группы достоверное событие). Выпадение чисел 1-6 при бросании кости - полная группа событий.

Если полную группу образуют только два несовместных события, как выпадение герба или решки при бросании монеты, то такие события называются противоположными. При обозначении одного из таких событий определенным индексом, например - А, второе обычно обозначается тем же индексом с крышкой сверху: . Соответственно А+= . Произведение несовместных событий является событием невозможным. В частности,  А= .

 Сложные события. Различают элементарные (простые) и сложные события. Элементарные события не разделяются на составные события. Выпадение числа при бросании кости - элементарное событие. Сложные события составляются из двух или нескольких элементарных событий. Так, если в примере с тремя выстрелами в цель нас интересует событие D, заключающееся в попадании в цель не менее двух раз, то оно определяется следующим выражением:

D = AB+AC+BC+ABC

8.2. Вероятности случайных событий [л30,л28,л29].

Предсказание конкретной реализации случайных событий невозможно. Однако интуитивная ориентировка в случайных событиях известна каждому. Если при игре в кости дважды выпали две шестерки, то едва ли кто-нибудь в третий раз поставит на 12 очков.  Это определяется тем, что и случайные события подчиняются определенным вероятностным закономерностям и при повторениях испытаний предсказуемы "в среднем".

Понятие вероятности событий относится к фундаментальным понятиям теории вероятностей. Вероятность случайного события является количественной мерой степени объективной возможности появления этого события в единичном опыте (в единичной реализации случайного явления). На протяжении последних трех веков достаточно интенсивного развития теории вероятностей многие ученые делали попытки сформулировать это фундаментальное понятие на основе строгой логики. Приведем только два из них.

 Частотное определение. При N реализациях некоторого случайного явления случайное событие А наблюдалось n раз. Если случайные события в этом явлении взаимно независимы, несовместны и составляют полную группу, то вероятность события А определяется выражением:

      P(A) =                                             (8.2.1)

Так как диапазон значений n в данном выражении ограничен интервалом 0 n N, то отсюда следует, что значения вероятностей событий заключены в интервале от 0 до 1.

Пример.  В урне находятся 5 белых и 7 черных шаров. Какова вероятность извлечь из урны 3 белых шара?

Общее число возможных способов извлечь 3 шара из 12 равно числу сочетаний из 12 по 3:

N = 12!/(3!9!) = 220.

Число возможных сочетаний из 5 белых шаров по 3:    n = 5!/(3!2!) = 10.

Искомая вероятность:   P = n/N = 10/220.

При практических оценках вероятностей значение (n/N) называют относительной частотой (или частностью) данного события в данной серии наблюдений. Относительная частота событий при многократных наблюдениях является достаточно устойчивой величиной, флюктуирующей в окрестностях вероятности данных событий, причем величина флюктуаций тем меньше, чем больше количество наблюдений.

 Определение на основе меры. Введем пространство (множество) , элементы которого wi являются случайными элементарными событиями, т.е. W =wi. Определим в этом пространстве неотрицательную меру P(w), которую назовем вероятностью, со следующими свойствами:

1. P(W) = 1, т.е. вероятность появления события, принадлежащего к данному пространству (wi  W), равна 1 (условие нормировки меры).

2. Если подмножества элементарных событий А  W и В  W, каждое из которых принадлежит данному пространству W, не имеют общих элементов, то Р(А+В) = Р(А) + Р(В), т.е. вероятность того, что наблюдаемое событие принадлежит либо подмножеству А, либо подмножеству В,  равна сумме вероятностей наблюдать это событие отдельно в подмножествах А и В.

Рис. 8.2.1.

Для иллюстрации различных положений теории вероятностей удобно использовать условные графические отображения пространств случайных событий, пример которых приведен на рис. 8.2.1. Полное пространство W элементарных событий wi ограничивается произвольным контуром, площадь которого принимается равной 1 и равна вероятности появления событий wi в пространстве W, при этом полагается, что события wi равномерно заполняют пространство W. Группы событий w  A или w  В отображаются соответственно замкнутыми контурами внутри пространства W с площадями, равными вероятностям событий А и В.

 Основные положения теории вероятностей вытекают непосредственно из определения понятия вероятности.

1. Вероятность любого случайного события А является неотрицательной величиной, значение которой заключено в интервале от 0 до 1.

0 Р(А) 1.

2. Вероятность достоверного события равна 1.

     Р(W) = 1.                                                    (8.2.2)

В общем случае событие W представляет собой сумму полной группы возможных элементарных событий данного случайного явления: W =wi. Следовательно,  вероятность реализации хотя бы одного случайного события из полной группы возможных событий также равна 1, т.е. является событием достоверным.

Рис. 8.2.2.

Сумма противоположных событий тоже составляет полную группу событий и соответственно вероятность суммы противоположных событий равна 1 (рис. 8.2.2):

                 P(A+) = 1.                                       (8.2.3)

Примером может служить бросание горсти монет. Орел или решка для каждой монеты – противоположные события. Сумма событий для горсти в целом равна 1 независимо от соотношения выпавших орлов и решек.

3. Вероятность невозможного события равна 0.

        Р() = 0.                                                              (8.2.4)

Рис. 8.2.3.

Пусть Ф - пустое пространство (не содержащее событий). Тогда W+Ф = W и пространство W не содержит событий, общих с пространством Ф (рис. 8.2.3). Отсюда следует, что Р(W+Ф) = Р(W) + Р(Ф) = Р(W), что выполняется при Р(Ф) = 0. Другими словами, если одно из событий обязательно должно происходить, то вероятность отсутствия событий должна быть равна нулю. Но при этом W является достоверным событием, а Ф = (невозможное событие) и соответственно Р() = 0.

 Сложение вероятностей зависит от совместности и несовместности событий.

 Несовместные события. Вероятность суммы двух несовместных событий А и В равна сумме вероятностей этих событий. Это вытекает из того, что множество С = А+В включает подмножества А и В, не имеющие общих точек, и Р(А+В) = Р(А)+Р(В) по определению вероятности на основе меры. По частотному определению вероятности в силу несовместности событий имеем:

P(A+B) =  = += P(A) + P(B),

где n и m - число случаев появления событий А и В соответственно при N испытаниях.

Противоположные события также являются несовместными и образуют полную группу. Отсюда, с учетом (8.2.3):

      P() = 1 - Р(А).                                                  (8.2.5)

Рис. 8.2.4.

В общем случае для группы несовместных событий (рис. 8.2.4):

 P(A+B+...+N) = P(A) + P(B) + ... + P(N),                   (8.2.6)

если все подмножества принадлежат одному множеству событий и не имеют общих точек (попарно несовместны). А если эти подмножества образуют полную группу событий, то с учетом (8.2.2):

          P(A) + P(B) + ... + P(N) = 1.                              (8.2.7)

Рис. 8.2.5.

 Совместные события. Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления (рис. 8.2.5):

      P(A+B) = P(A) + P(B) - P(AB).                      (8.2.8)

Разобьем события А и В каждое на два множества, не имеющие общих точек: А', A'' и B', B''. Во множества А'' и B'' выделим события, появляющиеся одновременно, и объединим эти множества в одно множество С. Для этих множеств действительны выражения:

С = A''B'' А'' В'' АВ,     P(C) = P(A'') = P(B'') = P(AB).

P(A) = P(A')+P(A''),        P(A') = P(A)-P(A'') = P(A)-P(AB).

P(B) = P(B')+P(B''),        P(B') = P(B)-P(B'') = P(B)-P(AB).

 Множества A', B' и С не имеют общих точек и можно записать:

P(A+B) = P(A'+B'+C) = P(A') + P(B') + P(С).

 Подставляя в правую часть этого уравнения вышеприведенные выражения, приходим к выражению (8.2.8). Физическая сущность выражения достаточно очевидна: суммируются вероятности событий А и В и вычитаются вероятности совпадающих событий, которые при суммировании сосчитаны дважды.

Пример.  Вытащим одну карту из колоды (52 карты). Какова вероятность того, что карта окажется или тузом, или пиковой мастью?

Р = Р(туз) + Р(пики) - Р(туз пик) = (4/52) + (13/52) - (1/52) = 16/52.  

В общем случае, для m различных событий А1, А2, ..., Аm:

   P(A1+...+ Am) =P(Ai) -P(AiAj) +P(AiAjAk) -...+(-1)m+1P(A1A2 ... Am).    (8.2.9)

Рис. 8.2.6.

На рис. 8.2.6 на примере трех пространств можно видеть причины появления в выражении (8.2.9) дополнительных сумм вероятностей совпадающих пространств и их знакопеременности. При суммировании вероятностей пространств А,В и С, имеющих общее пространство АВС, его вероятность суммируется трижды, а при вычитании вероятностей перекрывающихся подпространств АВ, АС и ВС трижды вычитается (т.е. обнуляется), и восстанавливается дополнительным суммированием с вероятностью пространства АВС.

 Условная вероятность совместных событий. Предположим, что в пространстве событий с полным числом исходов N событие А может осуществляться n1 способами (вероятность P(A) = n1/N), событие В - n2 способами, а события А и В одновременно - n12 способами. При этом:

  P(AВ) = n12/N = (n1/N)(n12/n1) = P(A)(n12/n1).                            (8.2.10)

Второй сомножитель выражения (8.2.10) из общего числа случаев n1 события А определяет долю, когда одновременно происходит и событие В, т.е. вероятность события В при условии, что произошло событие А. Эта вероятность называется условной вероятностью события В по событию А и записывается в виде Р(В/А):

      Р(В/А) = Р(АВ)/Р(А).                                                  (8.2.11)

Пример.  Вытащим две карты из колоды (52 карты). Событие А - первая карта определенной масти. Событие В - вторая карта той же масти. Какова вероятность появления второй карты той же масти?

Р(А) = 13/52.  Карта не возвращается в колоду, следовательно, Р(В/А) = (13-1)/(52-1).  

В общем случае может определяться условная вероятность события В в предположении, что произошли события А1, А2 и др.: Р(В/А12,...).

Для условной вероятности событий B по событиям A применяется также обозначение РA(B).

Рис. 8.2.7.

 Умножение вероятностей совместных событий. Формула определения вероятности события АВ (А и В одновременно, рис. 8.2.7), которую обычно называют формулой умножения вероятностей, непосредственно следует из выражения (8.2.11):

 Р(АВ) = Р(А)Р(В/А) Р(В)Р(А/В).                 (8.2.12)

Пример.  Вытащим две карты из колоды (52 карты). Событие А - первая карта определенной масти. Событие В - вторая карта той же масти. Какова вероятность появления двух карт одной масти?

Р(А) = 13/52.  Р(В/А) = (13-1)/(52-1).  Р(АВ) = (1312)/(5251) 0.0588

В общем случае, вероятность умножения нескольких событий равна произведению вероятности одного из этих событий на условные вероятности других:

 P(A1A2...An) = P(A1)P(A2/A1)P(A3/A2A1) ... P(An/Ai).                (8.2.12')

 Независимость событий. Если появление событий А не изменяет вероятности появления событий В, равно как и появление событий В не изменяет вероятности событий А, то события А и В считаются независимыми. Для таких событий Р(А/В) = Р(А), Р(В/А) = Р(В) и Р(АВ) = Р(А)Р(В).

Пример.  Вытащим одну карту из колоды (52 карты). Пусть событие А - появление туза, событие В -появление пиковой масти.

Р(А) = 4/52.  Р(В) = 13/52.  Р(АВ) = 1/52.  Р(АВ) = Р(А)Р(В) = (4/52)(13/52) = 1/52.

События А и В независимы.

В общем случае, группы событий А, В, ... N считаются независимыми в совокупности в том и только в том случае, если выполняется равенство:

  P(AB ... N) = P(A)P(B) ... P(N).                                            (8.2.13)

Подмножества, образованные из независимых событий, также являются независимыми. Если условие (8.2.13) не выполняется, но выполняется для каждой пары событий из этой группы (АВ, АС, ВС и пр.), то такие события называются попарно независимыми.

 Формула полной вероятности. Систему событий А1, А2, ...,AN называют конечным разбиением (или просто разбиением), если они попарно несовместны, а их сумма образует полное пространство событий:

    А1 + А2 + ... + АN = W.                                         (2.2.14)

Если события Аi образуют разбиение пространства событий и все P(Ai) > 0, то для любого события В имеет место формула полной вероятности:

    P(B) =P(Ak)P(B/Ak),                                     (8.2.15)

что непосредственно следует из (8.2.14) для попарно несовместных событий:

B = BW = BA1+BA2+...BAN.

P(B) = P(BA1)+P(BA2)+... +P(BAN) = P(A1)P(B/A1)+P(A2)P(B/A2)+...+P(AN)P(B/AN).

Пример.  B урне находится N шаров, М белых и N-M черных. Событие А - первый вынутый шар белый, который в урну не возвращается. Какова вероятность события В, что второй вынутый шар будет белым?

Р(А) = M/N.  Р() = (N-M)/N.  Р(В/A) = (M-1)/(N-1).  Р(В/) = M/(N-1).

Отсюда:  Р(В) = Р(А)Р(В/А) + Р()Р(В/) = M/N, т.е. Р(В) = Р(А). Аналогично можно вычислить вероятность события С, что третий вынутый шар будет белым, и так далее, причем все вероятности вынуть белый шар на любой попытке равны M/N.

Этот результат давно известен и применяется, например, при жеребьевке, определяя независимость результатов жеребьевки от порядка ее участников при вынимании шаров.

 Формула Байеса (или формула гипотез). Если для пространства событий Ai выполнено условие (8.2.14) и для произвольного события В имеет место формула полной вероятности (8.2.15), то одновременно для любой комбинации событий В и Аk имеет место и формула умножения вероятностей (8.2.12)

Р(АkВ) = Р(Аk)Р(В/Аk) Р(В)Р(Аk/В),

из которой следует:

Р(Аk/В) = Р(Аk)Р(В/Аk) / Р(В).

Заменяя в этом уравнении выражение Р(В) формулой полной вероятности (8.2.15), получаем формулу Байеса:

         Р(Аk/В) = Р(Аk)Р(В/Аk) /P(Ak)P(B/Ak).                      (8.2.16)

Нетрудно видеть, что знаменатель функции является нормировочным коэффициентом приведения суммы вероятностей к 1:

Р(Аk/В) = Р(Аk)Р(В/Аk) /P(Ak)P(B/Ak) = 1

Смысл формулы Байеса заключается в следующем. Пусть Ak - возможные состояния (гипотезы) события А, для которых предполагается определенная плотность распределения вероятностей P(Ak). Событие В - результат некоторого единичного измерения (опыта), при этом известны условные вероятности P(B/Ak) реализации событий В по гипотезам Ak. Формула Байеса позволяет уточнить значения вероятностей реализации событий Ak по результатам испытания с реализацией события В. Другими словами, если P(Ak) - априорная плотность распределения вероятностей событий Ak, то P(Ak/B) - апостериорная плотность распределения вероятностей событий Ak, уточненная по результатам опыта, исходом которого явилось событие В.

Пример. В одном районе "дикого" туризма прогнозирование количества А несчастных случаев на следующие сутки проводилось по следующей методике (для наглядности рассмотрим пример на конкретных условных данных).

Априорные вероятности P(Аk) несчастных случаев на текущий день, вычисленные по предыдущему дню:   P(А1=0) = 0.2,  P(А2=1) = 0.4,  P(А3=2) = 0.3,  P(А4=3) = 0.1.

За текущий день зарегистрировано 0 несчастных случаев (В = 0).

Условные вероятности P(B/Ak) вычислялись по формуле плотности распределения вероятностей редких событий (формула Пуассона):  P(B/Ak) = (Ak)Bexp(-Ak) /B!

P(0/0) = 1,  P(0/1) = 0.368,  P(0/2) = 0.135,  P(0/3) = 0.05.

Нормировочный делитель формулы Байеса: P(Ak)P(B/Ak) = 0.393.

Апостериорные вероятности P'(Ak) = P(Ak/B) = P(Ak/0) несчастных событий на следующий день:

P'(А1=0) = 0.509,  P'(А2=1) = 0.375,  P'(А3=2) = 0.103,  P'(А4=3) = 0.013.

Проверка: P'(Ak) = 1.

8.3. Случайные  величины  [л30,л31,л2,л4,л15].

Общие понятия. Под случайной величиной в узком смысле данного термина можно понимать числовое отображение исхода случайного явления или опыта, если в основе его формирования лежат определенные физические процессы, вероятностные по свое природе. Так, например, число гамма-квантов, зарегистрированных радиометром за произвольный временной интервал от радиоактивной пробы, является случайной величиной как в силу вероятностной природы самого радиоактивного распада, так и в силу вероятностного характера их распространения, рассеяния и поглощения в окружающей среде и в детекторе радиометра.

       Рис. 8.3.1.

С общих позиций под случайной величиной и, соответственно, случайным сигналом ее отображения, понимают результаты фиксации такого явления (процесса), которые являются либо полностью непредсказуемыми, либо предсказуемы только "в среднем", с определенной средней квадратической погрешностью. Конкретный результат, зарегистрированный в определенном опыте, называют реализацией случайного явления. Отдельную реализацию случайного явления нельзя описать явной математической формулой, равно как и предсказать значения этой реализации в какие-либо моменты ее координатного распределения, т.к. она является одной из множества возможных. Множество реализаций, зарегистрированных в одних и тех же условиях для одного и того же объекта, называют ансамблем реализаций (или выборкой из генеральной совокупности - полного множества всех возможных значений). В качестве примера на рис. 8.3.1 приведено 3 реализации отсчетов радиометра, которые проводились в постоянных условиях по 20-ти секундным интервалам с односекундной экспозицией. Ансамбль реализаций позволяет характеризовать случайное явление определенными и достаточно устойчивыми статистическими данными.

Еще раз отметим, что отнесение тех или иных величин и отображающих их сигналов к случайным или неслучайным (детерминированным) в той или иной мере всегда относительно, особенно в геофизической практике. С одной стороны, ни в одной сколь угодно точно известной геологической обстановке нельзя исключить появления объекта или проявления какого-либо процесса, которые совершенно непредсказуемым образом могут повлиять на распределение информационного сигнала. С другой стороны можно отрицать и истинную случайность физических явлений и процессов, поскольку по мере накопления информации появляется возможность их описания все более точными математическими формулами детерминированного действия.

Множество возможных значений случайной величины принято называть пространством (множеством) состояний (генеральной совокупностью). Если пространство состояний образует континуум, то случайная величина является непрерывной. Если изменение состояний допускается для конечного (счетного) числа координат, то говорят о случайной непрерывной последовательности.

Случайную величину с конечным множеством состояний по непрерывной шкале координат называют дискретной, если она дискретна по множеству своих возможных значений. Если для случайного явления изменение состояний возможно только в конечном числе координат, то говорят о случайной дискретной последовательности. Для случайных явлений с дискретным множеством состояний статистические зависимости могут распространяться на ограниченное число k следующих друг за другом значений. Такие процессы называются марковскими k-го порядка.

Вероятности случайных величин. Исчерпывающим описанием случайных величин является плотность распределения вероятностей p(x) (кратко - плотность вероятностей) которая определяет вероятность реализации некоторого значения Xi в элементарном интервале значений dx:

p(x)dx = P(x < Xi  x+dx).                                   (8.3.1)

Основные свойства плотности вероятностей:

1. p(x) 0,  - < x <  . Плотность вероятностей не отрицательна.

2. p(x) dx = 1. Сумма вероятностей всех возможных значений случайной величины по данному пространству состояний должна быть равна 1, т.е. реализация одного из состояний должна быть достоверным событием.

3. p(x) dx = P(x1<Xx2). Интеграл от плотности вероятностей по определенному интервалу равен вероятности реализации случайной величины в этом интервале значений.

4. Функция P(x) = p(u) du определяет вероятность того, что значения случайной величины меньше или равны значению х.

Функция P(x) носит название функции распределения вероятностей (кратко - распределение вероятностей). Соответственно, производная от функции распределения вероятностей есть плотность вероятностей. Основные свойства функции распределения вероятностей:

Рис. 8.3.2.

1. Интервал определения функции: 0 P(x) 1,  - < x < .

2. P(-) = 0, P() = 1.

3. P(x) не уменьшается при возрастании х.

4. P(x1<X x2) = P(x2) - P(x1).  

На рис. 8.3.2 приведен пример функции плотности вероятностей p(x) = (a/2)exp(-a|x|)  и соответствующей функции вероятностей P(x).

Аналогичным описанием для случайных дискретных величин является непосредственно дискретное распределение вероятностей их значений:

Pi(x) = P(xi < Xi  xi+1), P(xi) = 1.

Рис. 8.3.3.

 Функции от случайной величины. Допустим, что случайная величина Y связана со случайной величиной Х однозначной зависимостью y = f(x) (рис. 8.3.3). Интервалам dx соответствуют интервалы |dy| = |f'(x)|dx, при этом вероятности случайных величин в этих интервалах должны быть равны: px(x)dx = py(y)|dy|. Отсюда следует:

   py(y) = px(x)|dx/dy|,                             (8.3.2)

где аргумент х в правой части выражения должен быть выражен через x = g(y) - функцию, обратную y = f(x). Выполняя последнее, получаем:

py(y) = px[g(y)]|dg(y)/dy|,                                                  (8.3.2')

Значения |dy| и последующие значения |dx/dy| и |dg(у)/dy| принимаются по модулю для исключения отрицательных значений в функции py(y), которых не может быть по определению и физической сущности плотности распределения вероятностей.

Рис. 8.3.4.

Если связь между значениями Х и Y неоднозначна, как, например, на рис. 8.3.4, и значению у может соответствовать несколько значений х, то вероятность попадания случайной величины у в интервал dy будет складываться из суммы вероятностей несовместных событий px(x1)dx1 + px(x2)dx2 + ..., откуда следует:

py(y) = pi(xi)|dxi/dy| = px[gi(y)]|dgi/dy|,              (8.3.2'')

Пример. Связь случайных величин Х и Y задана выражением Y = aX+b. Плотность вероятностей величины Х соответствует распределению Гаусса: . Из уравнения связи величин Y и X имеем  x = (y-b)/a  и  |dx/dy| = 1/|a|, и соответственно получаем:

,     = b+a,    sу2 = а2 sх2 

Моменты распределения. При решении многих практических задач нет особой необходимости в полной вероятностной характеристике каких-либо случайных величин, которую дает функция плотности распределения вероятностей. Очень часто приходится также иметь дело с анализом случайных величин, плотности вероятностей которых не отображаются аналитическими функциями либо вообще неизвестны. В этих случаях достаточно общее представление о характере и основных особенностях распределения случайных величин можно получить на основании усредненных числовых характеристик распределений.

Числовыми характеристиками случайных величин, которые однозначно определяются функциями распределения их вероятностей, являются моменты.

Начальные моменты n-го порядка случайной величины X (или просто моменты) представляют собой усредненные значения n-й степени случайной переменной:

   mn  М{Xn} =  xn p(x) dx,                             (8.3.3)

где M{Xn} и - символические обозначения математического ожидания и усреднения величины Хn, которые вычисляются по пространству состояний случайной величины Х.

Соответственно, для случайных дискретных величин:

mn  М{Xn} =xin pi.                                  (8.3.3')

Центральные моменты n-го порядка, это моменты относительно центров распределения (средних значений) случайных величин:

mn  M{(X-)n} =(x-m1)n p(x) dx,                   (8.3.4)

   mn  M{(X-)n} =(xi-m1)n pi,                          (8.3.4')

где  - начальный момент 1-го порядка (среднее значение величины Х), X0 = X- - центрированные значения величины Х.

Связь между центральными и начальными моментами достаточно проста:

m1=0,    m2=m2-m12,    m3=m3-3m2m1+2m13,    m4=m4-4m1m3+6m12m2-3m14,  и т.д.

Соответственно, для случайных величин с нулевыми средними значениями начальные моменты равны центральным моментам.

По результатам реализации случайных величин может производиться только оценка моментов, т.к. количество измерений всегда конечно и не может с абсолютной точностью отражать все пространство состояний случайных величин. Результаты измерений - выборка из всех возможных значений случайной величины (генеральной совокупности). Оценка моментов, т.е. определение средних значений n-й степени по выборке из N зарегистрированных значений, производится по формулам:

     = (1/N)xin ,       = (1/N)(xi-)n .          (8.3.5)

Погрешность оценок стремится к нулю при выборке N Þ .

Основные числовые характеристики случайных величин - это начальный момент 1-го порядка (средние значение распределения случайных величин) и центральный момент 2-го порядка (дисперсия распределения).

Среднее значение распределения является характеристикой сдвига значений случайных величин относительно x = 0 и представляет собой значение центра рассеяния случайных величин, т.е.  математическое ожидание случайной величины по пространству возможных состояний:

M{X}=x p(x) dx,       =xn P(xn).             (8.3.6)

Если пространство возможных состояний случайных величин ограничено определенными конечными пределами, то соответственно интегрирование (или суммирование) осуществляется в этих пределах. В функциях от случайных величин постоянный множитель можно выносить за знак математического ожидания:

M{Y}= M{cX} = cM{X}.

Оценка среднего значения по результатам N-выборки (выборочное среднее):

       = (1/N)xi                                                (8.3.7)

Значение  генеральной совокупности случайной величины Х является неслучайной величиной, в отличие от значения выборочного среднего , которое также является величиной случайной. Математическое ожидание величины  с использованием формулы (8.3.7):

M{} = (1/N) M{xi} = (1/N) M{Nxi} = M{X} = .

Отсюда следует, что выборочное среднее есть несмещенная оценка среднего значения генеральной совокупности, т.е.    .

Дисперсия распределения характеризует размер пространства состояний случайной величины, величину их рассеивания по значениям относительно среднего значения:

   D{X} M{(X-)2} M{X02}= (x-)2 р(x) dx.                  (8.3.8)

Оценка дисперсии по результатам N-выборки производится по формулам:

Dx = (1/N)(xi-)2  D{X}.                               (8.3.9)

    Dx - 2.                          (8.3.9')

Для функции сХ, где с = const, имеем:

D{cX}=M{(cX-M{cX})2}=M{(cX-cM{X})2}=M{c2(X-M{X})2}=c2D{X}.

 

Среднее квадратическое отклонение случайной величины от математического ожидания (среднего значения), равное корню квадратному из значения дисперсии:

   sх = ,                                             (8.3.10)

получило название стандарта (стандартного отклонения). Величину стандарта в относительных единицах среднего значения dx = s/mx называют вариацией или (в основном для временных процессов) флюктуацией значений случайной величины.

Пример.  Плотность распределения случайных величин Х:  p(x) = (a/2)exp(-a|x-b|), а=2, b=4.

Среднее значение и дисперсия: =x p(x) dx = b = 4,   D{X} =(x-b)2 р(x) dx = 2/a2 = 0.5.

В опыте зарегистрированы:   Х = {2.75, 4.08, 3.9, 3.82, 3.68, 3.03, 4.16, 5.74, 3.78, 2.77, 4.03}.

 Среднее значение и дисперсия по выборке:

 = (1/11)xi = 3.79,     = (1/11)xi2 = 15,     Dx = - 2 = 0.62.

Погрешность оценок выборочных средних значений  в зависимости от N - размеров выборки вычисляется по дисперсии значений  (выражение (8.3.7)):

D() = D((1/N)xi) = (1/N2) D(xi) = (1/N) D(xi),

т.е. дисперсия средних значений  по N-выборке в N раз меньше дисперсии самих значений случайных величин Х. Соответственно, точность оценки средних значений  определится выражением:

s() = sx/.

Точность оценки выборочного среднего значения случайных величин возрастает пропорционально корню квадратному из размеров выборки. По мере увеличения объема выборки выборочное среднее значение стремится к математическому ожиданию случайной величины как к своему пределу (закон больших чисел). В математической статистике доказывается также, что если случайная величина Х имеет среднее значение  и конечную дисперсию sx2, то при стремлении объема выборки N к бесконечности распределение выборочного среднего  будет стремиться к нормальному закону со средним значением  и дисперсией sx2/N (центральная предельная теорема).

К числовым характеристикам случайных величин Х относятся также мода Мох, медиана Мех, асимметрия Sх и эксцесс Ех.

Рис. 8.3.5.

Мода распределения  - это наиболее вероятное значение случайных величин, которому соответствует максимум плотности вероятностей. Функции плотности вероятностей могут иметь больше одного максимума. Такие распределения называют много- или полимодальными. На рис. 8.3.5 приведен пример двумодального распределения.

Для одномодальных распределений,  симметричных относительно среднего значения, мода совпадает со средним значением, для асимметричных среднее значение обычно смещено относительно моды в сторону более длинного "хвоста" изменения плотности вероятностей.

Рис. 8.3.6.

Медиана распределения случайных величин Мех - это такое число (значение Х), относительно которого площади под функцией плотности вероятностей слева и справа равны друг другу, т.е.:

Р(X<Mex) = Р(X>Mex) = 0.5.

 Понятие медианы обычно используется для непрерывных случайных величин.

В резко асимметричных распределениях случайных величин значения моды, медианы и среднего значения существенно расходятся, как, например, для логнормального распределения на рис. 8.3.6.

Рис. 8.3.7.

 Асимметрия (или скошенность) распределения случайных величин X - это безразмерное число, которое определяется выражением:

Sx = m3/sx3 M{(X-)3/sx3 /sx3.

 При Mox < Mex асимметрия положительна (распределение вытянуто вправо, S > 0), при Mox > Mex - отрицательна. Для симметричных распределений Mox = Mex =и асимметрия равна нулю. На рис. 8.3.7 приведены плотности вероятностей случайных величин с разной асимметрией.

Рис. 8.3.8.

 Эксцесс (или крутость) распределения случайных величин также безразмерное число:

Ex = m4/sx4 - 3 M{(X-)4/sx4 -3 /sx4 - 3.

Эксцесс характеризует форму функции плотности вероятностей по отношению к форме функции нормального распределения (см. ниже, выражение 8.3.15), значение эксцесса для которого равно 0. Если кривая распределения имеет более острую и высокую вершину при той же величине дисперсии, то значение эксцесса больше нуля, если более низкую и пологую - меньше нуля (рис. 8.3.8).

Оценка числовых характеристик функций от случайных величин может производиться непосредственно по числовым характеристикам случайных величин с использованием правила переноса ошибок.

Допустим, что случайная величина Y является функционально зависимой от случайной величины Х и определяется выражением  Y = g(x). Разложим это выражение в ряд Тейлора относительно математического ожидания :

      g(x) = g() + (x-)g'() + (x-)2g''()/2! + ...                 (8.3.11)

Оценка математического ожидания :

M{g(x)}= M{g()}+M{(x-)g'()}+M{(x-)2g''()/2!}= g() + 0 + sx2g''()/2! +...

Отсюда, с точностью до членов второго порядка малости:

= g().                                                 (8.3.12)

 Оценка дисперсии распределения D(g(x)) = Dy:

   Dy = M{[g(x) - M{g(x)}]2} M{[g(x)-g()]2}.                     (8.3.13)

Из формулы (8.3.11) имеем:

g(x) - g() = (x-)g'() + (x-)2g''()/2! + ...

С использованием этого выражения в (8.3.13) с ограничением до 2-го порядка:

Dy  M{[(x-)g'()]2} = [g'()]2Dx.                            (8.3.14)

   sy = g'()sx,     dy = g'()dx.

 Для линейных функций g(x) ~ ax+b выражения (8.3.12-14) являются точными.

Некоторые распределения случайных величин.

Рис. 8.3.9.

Равномерное распределение. Случайная величина равновероятна в интервале значений от х1 до х2 (рис. 8.3.9):

       р(х) = 1/(х21), х1  х х2,   

    = 0,  х < х1, х > х2.

   М{X}= (х12)/2,    D{X}= (x2-x1)2/12.

Для дискретной величины с N равноотстоящими друг от друга значениями:

Pi = 1/N,  M{X} = (x1+x2)/2,  D{X} = [(x2-x1)2/12][(N+1)/(N-1)].

Рис. 8.3.10.

 Распределение Гаусса (нормальное распределение). Плотность вероятностей нормального распределения случайных непрерывных величин Х задается двумя параметрами - среднего значения  (центра распределения) и дисперсии  s2:

.                              (8.3.15)

Пример двух распределений Гаусса при разных средних значениях и дисперсиях приведен на рис. 8.3.10.

Плотность вероятностей случайной гауссовской величины имеет только один максимум, который соответствует x = , т.е. математическому ожиданию, при этом форма распределения симметрична относительно математического ожидания. При |х|    ветви кривой асимптотически приближаются к нулю. Изменение математического ожидания при s = const смещает максимум распределения вдоль оси х без изменения формы кривой. Ширина плотности вероятностей распределения пропорциональна стандартному отклонению s и на уровне 0.607 от максимального значения p(x)  равна 2s. Вероятность отклонений значений х от среднего значения  на величины, большие 3s, в нормальных распределениях равна 0.0028, что позволяет выполнять прямые и обратные прогнозные оценки:

xmax  + 3s,    xmin  - 3s,

(xmax+xmin)/2,   s  (xmax-xmin)/6.

Нормальное распределение играет большую роль в теории вероятностей и в математической статистике. Основная особенность его заключается в том, что оно является предельным законом, к которому при определенных условиях приближаются другие законы распределения. В частности, независимые случайные величины Х1, Х2, ..., Хn, подчиненные каким угодно законам распределения (с весьма небольшими исключениями), при суммировании и других линейных комбинациях дают распределения, сколь угодно близкие к нормальному закону. Это позволяет нормальному распределению служить хорошей математической моделью для большинства многофакторных физических процессов. Линейные комбинации случайных гауссовских величин всегда являются гауссовскими.

 Распределение Пуассона является широко распространенным распределением случайных целочисленных дискретных величин. Оно задается только одним параметром l, значение которого равно среднему значению случайных величин распределения и одновременно задает значение дисперсии распределения:

Pk = ,   k - целое.                                      (8.3.16)

= l,   Dk = l,   sk =,   dk = 1/.

Распределение Пуассона иногда называют распределением вероятностей количества редких событий, для оценки которых оно и применяется наиболее часто, безотносительно к их физической сущности. Условия справедливости распределения Пуассона применительно к каким-либо случайным явлениям (событиям) достаточно просты:

1. Случайная величина может принимать только нулевые и целые положительные значения (как, например, число отказов аппаратуры или телефонных звонков за определенный временной интервал, число треков от альфа-частиц на площади или в объеме трекового детектора и т.п.).

2. Вероятность отдельного события на бесконечно малом пространстве счета событий, на котором ведется их регистрация (время, площадь, объем и пр.)  пропорциональна величине этого пространства и при его стремлении к нулю также стремится к нулю, как бесконечно малая первого порядка, а вероятности событий более высокой кратности (2 и более событий) стремятся к нулю, как бесконечно малые более высоких порядков.

3. События в неперекрывающихся интервалах пространства счета событий статистически независимы.

Рис. 8.3.11.

Пример.  Средняя скорость счета фоновых гамма-квантов детектором радиометра составляет m = 1 импульс в секунду.  Возможные экспозиции единичного измерения равны 1, 5 и 10 секунд. Все три условия справедливости закона Пуассона для процесса регистрации квантов выполнены. Значение l для распределения (8.3.16) будет определяться выражением  l = mT, где Т - экспозиция измерения. Расчетные значения вероятностей Pk для трех различных экспозиций приведены на рис. 8.3.11. Попутно заметим, что значение l для закона Пуассона не обязано быть целочисленным.

Как видно на рис. 8.3.11, распределение Пуассона резко асимметрично при малых значениях l. По мере роста l распределение становится симметричным относительно = l и при l>20 может быть аппроксимировано однопараметровым распределением Гаусса с  = s2 = l.

 Экспоненциальное распределение. Этим законом отображается, например, распределение длительности интервалов между случайными событиями, соответствующими закону Пуассона, непосредственно из которого оно и может быть получено.

Допустим, что для рассматриваемого явления значение l распределения Пуассона определяется выражением  l = nt, где n - среднее количество событий на единице интервала t (средняя скорость следования событий, если t - время). Длительность интервала между двумя последовательными событиями будет равна t+dt, если на интервале t не будет ни одного события (вероятность чего в соответствии с (8.3.16) равна Р0 = (nt)0e-nt/0! = e-nt), а на интервале dt 0  произойдет одно событие (вероятность P1 = (ndt)1e-ndt/1! = ndt, так как e-ndt 1 при dt 0). События в неперекрывающихся интервалах являются статистически независимыми, а, следовательно, искомая вероятность p(t)dt интервала t будет равна произведению вероятностей Р0 и Р1, т.е.  p(t)dt = e-ntndt,  откуда получаем выражение для плотности распределения вероятностей случайной непрерывной величины t:

p(t) = ne-nt,   t 0.                                               (8.3.17)

Рис. 8.3.12.

Пример распределения при n = 5 приведен на рис. 8.3.12. Распределение, как и положено, является нормированным:

p(t) dt = 1.

Среднее значение длительности интервала:

= t p(t) dt = nt e-nt dt = 1/n.

 Среднее квадратическое значение:

= t2 p(t) dt = nt2 e-nt dt = 2/n2.

Дисперсия, среднее квадратическое отклонение и относительные флюктуации:

Dt = -2 = 1/n2,     st = = 1/n,     dt = st/ = 1.

Как видно на рис. 8.3.12, для распределения наиболее вероятны короткие интервалы, меньшие среднего значения интервалов. Соответственно, для выдерживания среднего значения = 1/n, большее количество коротких интервалов компенсируется меньшим количеством, но длинных интервалов, в 2-3 и более раз превышающих средний интервал, что приводит к большим флюктуациям длины интервалов (среднее квадратическое отклонение равно средней длине интервалов). При работе с пуассоновскими распределениями это следует учитывать, так как длительное отсутствие регистрации событий в процессе единичной реализации какого-либо случайного процесса может вовсе не свидетельствовать об отсутствии самого процесса.

 Характеристическая функция С(t) случайной величины Х с плотностью вероятностей р(х) определяется выражением:

C(v) =  p(x) exp(j2pvx) dx.                          (8.3.18)

Нетрудно заметить, что это выражение совпадает с обратным преобразованием Фурье функции р(х). Отсюда следует:

p(x) =  C(v) exp(-j2pvx) dv,                         (8.3.19)

т.е. плотность вероятностей случайной величины может рассматриваться, как частотный спектр характеристической функции случайной величины, а последняя, в свою очередь, как координатное представление распределения случайной величины.

Через определение (или вычисление) характеристической функции упрощается нахождение моментов случайной величины любого порядка, а именно:

dnC(v)/dvn = jnxn p(x) exp(j2pvx) dx.

Принимая v = 0 и сравнивая результат с выражением (8.3.3), получаем:

mn = j-n dnC(0)/dvn = j-n C(n)(0).                           (8.3.20)

С помощью характеристической функции и выражений (8.3.2) можно также находить плотность вероятностей случайных величин, подвергнутых функциональным преобразованиям.

8.4.  Системы случайных  величины  [л31,л2,л4,л15].

Свойства случайных сигналов принято описывать характеристиками совокупности случайных величин {Х12,...,Xn}, которую называют также системой или совместным распределением случайных величин. Система реализуются в процессе совместных измерений или в процессе последовательных измерений одной реализации. И в том, и в другом случае совместное распределение величин может рассматриваться как n-мерный случайный вектор Х. Теория систем случайных величин наиболее детально разработана для двух случайных величин, измеряемых по одной координате (времени, пространству и т.п.).

Пример 1.  Результат накопления информации в каналах многоканального спектрометра от датчика ионизирующего излучения представляет собой совокупность (систему) случайных величин Xi (i = 1,2,...,k - номер канала спектрометра), каждая из которых распределена по закону Пуассона. Результат единичной экспозиции измерений (единичной реализации системы) - совместное распределение отсчетов xi. В совокупности эти отсчеты представляют собой k-мерный случайный вектор Х как реализацию случайного сигнала - определенного спектрального распределения излучения с математическим ожиданием отсчетов в каналах M{Xi}.

Пример 2. По стволу скважины с шагом дискретизации данных 10 см зарегистрирована цифровая диаграмма ГК - мощности экспозиционной дозы гамма-излучения пород. Последовательность цифровых отсчетов xi диаграммы (i = 1,2,...k) в силу природы радиоактивного распада представляет собой одну реализацию случайных величин Xi (k-мерный случайный вектор Х).

Пример 3. Дополнительно к мощности экспозиционной дозы в примере 2 по стволу скважины зарегистрированы цифровые диаграммы гамма-гамма-каротажа (ГГК) yi, нейтронного каротажа (НК) ni и нейтронного гамма-каротажа (НГК) zi. Эти диаграммы также могут рассматриваться как единичные реализации систем случайных величин соответственно Yi, Ni и Zi. Но одновременно однономерные совокупности случайных величин xi, yi, ni и zi (пространственные сечения) также могут рассматриваться в виде 4-х мерных систем случайных величин Xi, Yi, Ni и Zi, зарегистрированных последовательно по одной пространственной координате, равно как и в виде одной 5-ти мерной системы случайных величин X, Y, N, Z (5-ти мерный случайный вектор или 5-ти мерный случайный сигнал).

Рис. 8.4.1.

При рассмотрении систем случайных величин, и особенно дву- и трехмерных, удобно использовать геометрическую интерпретацию систем. Так, например, пространство системы двух случайных величин (X,Y) можно представлять себе на плоскости x0y с координатами X и Y, где каждой паре (xi,yi) реализации случайных величин соответствует точка на плоскости. На рис. 8.4.1 приведен пример такого графического отображения реализаций системы независимых случайных величин (X,Y). Аналогично в трехмерном пространстве могут отображаться трехмерные системы случайных величин.

Рассмотрение систем случайных величин будем проводить, в основном, на двумерных системах, основные положения которых легко распространяются и на многомерные системы.

Функция распределения вероятностей системы (n-мерное совместное распределение вероятностей) определяет вероятность реализации системы событий Х, как появления событий {Х12,...,Xn} в одной реализации:

P(x1,x2, ... ,xn) = P(X1  x1, X2  x2, ... ,Xn  xn).                            (8.4.1)

Рис. 8.4.2.

Геометрически (рис. 8.4.2) функция распределения системы двух случайных величин (X,Y) представляет собой вероятность реализации случайных точек в левом нижнем бесконечном квадранте (заштриховано) с вершиной в точке (x,y).

Свойства многомерной функции распределения в целом аналогичны одномерной функции и кратко могут быть описаны следующим образом:

1. 0 P(x1,x2, ... ,xn) 1, - <x1< , - <x2< , ... , - <xn< .

2. P(x1,x2, ... ,xn) есть монотонно неубывающая функция по всем xi.

3. P(x1,x2, ... ,xn) = 0, если хотя бы один из аргументов равен - .

4. P(x1,x2, ... ,xn) = 1, если все без исключения аргументы равны  .

Рис. 8.4.3.

5. P( ,x2, ... ,xn) = P1(x2, ... ,xn), P(x1,, ... ,xn) = P2(x1,x3, ... ,xn), ... и т.д. для любых значений xi = в любых комбинациях вплоть до P(,, ... ,xn) = Pj(xn), при этом функции Pi для разных комбинаций аргументов не обязаны иметь один и тот же вид. Геометрическое отображение данного свойства для двумерной системы (X,Y) приведено на рис. 8.4.3.

Плотность вероятностей системы удовлетворяет соотношению:

    p(x1,x2,...,xn) dx1 dx2 ... dxn = P{x1<X1x1+dx1, ... ,xn<Xnxn}.           (8.4.2)

 p(x1,x2,...,xn) = P(x1,x2, ... ,xn) /.                         (8.4.3)

Рис. 8.4.4.

Плотность вероятностей двумерной системы можно изобразить геометрически в виде поверхности распределения вероятностей, пример которой приведен на рис. 8.4.4.

Свойства многомерной плотности распределения вероятностей вытекают из свойств функции распределения вероятностей и в целом аналогичны одномерной плотности вероятностей, а именно (на примере двумерной плотности вероятностей):

1. p(x,у) 0,  - < x < , - < x < . Плотность вероятностей не отрицательна.

2. p(x,у) dx dy = 1. Сумма вероятностей всех возможных значений системы случайных величин (X,Y) по пространству состояний равна 1.

 3. p(x,y) dx dy = P(x1<Xx2, y1<Yy2). Двойной интеграл от плотности вероятностей по определенным интервалам случайных величин Х и Y равен вероятности реализации системы случайных величин в этом интервале значений Х и Y.

По известной n-мерной плотности вероятностей может определяться m-мерная плотность при m<n интегрированием по "лишним" координатам:

p(x1,x2,...,xm) = ... p(x1,x2,...,xn) dxm+1 ... dxn.                  (8.4.4)

 Условные законы распределения. Выражение (8.4.4) при известном законе плотности распределения вероятностей системы случайных величин позволяет определить плотность вероятностей любой из случайных величин, входящих в систему. Обратная задача не может решаться столь просто, поскольку известные законы распределения отдельных случайных величин не определяют связей между величинами, если последние существуют. Для решения задачи требуется задание условных законов распределения, т.е. плотности распределения вероятностей одной случайной величины при определенных значениях других случайных величин.

Случайные величины, входящие в систему, реализуются совместно. С учетом этого, условные законы распределения случайных величин можно получить переходом от условных вероятностей совместных событий (8.2.10-12) к плотности распределения вероятностей. В общем случае, условные законы распределения также могут быть многомерными, т.е. определять вероятность реализации одной из случайных величин при условии реализации определенных значений других величин системы. Однако на практике даже для многомерных систем используются, в основном, попарные двумерные зависимости. Так, для двумерных случайных систем условные плотности вероятностей величины X по значениям величины Y и величины Y по Х определяются выражениями:

    p(x/y) = p(x,y)/p(y),     p(y/x) = p(x,y)/p(x).                             (8.4.5)

Отсюда, определение плотности вероятностей двумерной системы производится по формулам:

p(x,y) = p(x)p(y/x)  p(y)p(x/y).                                      (8.4.6)

При известных многомерных законах распределений анализ попарных двумерных распределений производится с использованием выражения (8.4.4).

 Функции регрессии.  Из выражений (8.4.5-6) следует, что в системе зависимых случайных величин математические ожидания величин также являются зависимыми, т.е. функциями средних значений одной величины от значений другой величины:

       (y) = M{X/y}=x p(x/y) dx,    (x) = M{Y/x}=y p(y/x) dy.         (8.4.7)

Уравнения

x = (y),     y=(x)                                                (8.4.8)

называются уравнениями регрессии соответственно X по Y и Y по Х. В общем случае уравнения регрессии для многомерных систем также могут быть многомерными, типа x = (y,z,...) и пр.

 Статистическая независимость случайных величин. Для совместной системы случайных величин X случайные величины системы (X1, X2, ...) статистически независимы друг от друга, если реализация одной из величин ни каким образом не определяет и не влияет на реализацию других величин. Так, например, при игре в кости реализация в одном бросании числа на одном кубике не влияет на появление каких-либо чисел на других кубиках. Если такая зависимость появляется, то это свидетельствует о мошенничестве.

Статистически независимы, как правило, случайные величины, связанные с источниками различной физической природы. В строго корректном понимании данного термина случайные события статистически независимы тогда и только тогда, когда выполняется условие:

p(x1,x2,...,xn) = p1(x1) p2(x2) ... pn(xn).                               (8.4.9)

Пример.  Определить независимость случайных величин Х и Y в двумерной системе по заданной плотности распределения вероятностей системы.

1.  p(x,y) = 1/[p2(1+x2+y2+x2y2)].  Выражение 1+x2+y2+x2y2 может быть разделено по переменным на множители (1+х2)(1+у2), а, следовательно, p(x,y) = p(x)p(y). Случайные величины Х и Y независимы.

2.  p(x,y) = x+y, 0 x 1, 0 y 1.  Cоответствующие одномерные плотности вероятностей:

p(x) =  (x+y) dy = x+1/2,   p(y) = (x+y) dx = y+1/2.  p(x,y) p(x)p(y).  Величины Х и Y зависимы.

Условные плотности вероятностей по (8.4.5):  p(x/y) = (x+y)/(y+0.5),   p(y/x) = (x+y)/(x+0.5).

Моменты систем случайных величин. Вычисление моментов случайных величин с использованием многомерной плотности вероятностей может производиться как по отдельным величинам Xi, так и на любые их комбинации (смешанные моменты). Так, вычисление средних значений и дисперсий любых случайных величин, входящих в n-мерную систему, производится по формулам:

=...xi p(x1,x2,...,xn) dx1dx2...dxn,                    (8.4.10)

xi2 =... (xi-)2 p(x1,x2,...,xi) dx1dx2...dxn.          (8.4.11)

Для случайных дискретных величин интегрирование соответственно заменяется суммированием, а плотности распределения вероятностей на распределения вероятностей.

Ковариация и корреляция. Смешанные начальные моменты второго порядка носят название ковариационных моментов системы случайных величин. Для двумерных систем:

    R12 = M{X1X2}= =x1x2 p(x1,x2) dx1dx2.          (8.4.12)

В общем случае, для n-мерной системы случайных величин:

Rij = M{XiXj}= =...xixj p(x1,x2,...,xn) dx1dx2...dxn,   i,j = 1...n     (8.4.13)

Матрица Rij

Значения моментов Rij образуют матрицу размером n n попарной ковариации всех случайных величин, входящих в систему. С учетом того, что имеет место равенство Rij = Rji, ковариационная матрица (см. пример) симметрична относительно главной диагонали i = j, при этом ковариационные моменты на главной диагонали матрицы представляют собой средние значения квадратов случайных величин Xi,  т.к. = Rij  при i = j.

Матрица Kij

Смешанные центральные моменты второго порядка называют корреляционными моментами системы случайных величин. Они, как и ковариационные моменты, также образуют матрицу моментов системы, симметричную относительно главной диагонали, при этом значения моментов на главной диагонали представляют собой значения дисперсий si2 = Kij при i = j  соответствующих случайных величин Xi (см. пример).

Kij = M{(Xi-)(Xj-)}=...(xi-)(xj-) p(x1,x2,...xn) dx1dx2...dxn     (8.4.14)

Матрица si2

Корреляционные моменты является количественной мерой степени статистической связи (взаимной зависимости или корреляции) случайных величин Хi и Хj. Для системы случайных некоррелированных величин матрица корреляционных моментов является диагональной матрицей дисперсий с нулевыми значениями Kij при i j (см. пример матрицы si2).

Из выражений (8.4.13) и (8.4.14) следует достаточно простая связь между ковариационными и корреляционными моментами:

Kij = Rij - .

В качестве безразмерной нормированной характеристики степени корреляции случайных величин используют также понятие коэффициентов корреляции, которые также образуют симметричную относительно главной диагонали матрицу со значениями, равными 1, по главной диагонали:

rij = Kij /(sisj) = (-)/sisj.                                  (8.4.15)

Рис. 8.4.5.

Значения коэффициентов корреляции заключены в пределах от -1 до +1. При r = 0 случайные величины считаются независимыми друг от друга (например, величины (Х,Y) на рис. 8.4.1), при |r| = 1 - полностью коррелированными (например, величины Х = bY с произвольным значением коэффициента b), во всех остальных случаях чем ближе значение |r| к 1, тем больше корреляция между случайными величинами, которая может иметь как прямой, так и обратный характер (при r<0). Величины Х и Y на рис. 8.4.5 явно коррелированны между собой с определенным коэффициентом прямой корреляции.

Попутно заметим, что если коэффициенты корреляции статистически независимых случайных величин всегда равны нулю, то обратное утверждение о статистической независимости случайных величин, если равен нулю их коэффициент корреляции, справедливо только для гауссовских распределений, а в общем случае является недостаточным. Полную гарантию статистической независимости дает только выполнение условия (8.4.9).

С учетом выражения (8.4.9) смешанные моменты статистически независимых случайных величин разделяются на произведения интегральных сомножителей. В частности, для ковариационных моментов случайных двумерных величин имеем:

M{X1X2} =  x1 p1(x1) dx1  x2 p2(x2) dx2 = M{X1}M{X2},         (8.4.16)

т.е. математическое ожидание произведения двух статистически независимых случайных величин равно произведению их математических ожиданий. Если математическое ожидание хотя бы одной из случайных величин будет равно нулю, то нулю становится равным и их произведение.

Пример.  Плотность вероятностей задана выражением:  p(x,y) = x+y, 0 x 1, 0 y 1.

Одномерные плотности вероятностей:  p(x)=(x+y) dy =x+1/2,   p(y)= (x+y) dx = y+1/2.

Математические ожидания и дисперсии:

=x(x+1/2) dx = 7/12,         Dx = (x-7/12)2 (x+1/2) dx = 11/144.

=y(y+1/2) dy = 7/12,         Dy =  (y-7/12)2 (y+1/2) dy = 11/144.

= xy(x+y) dx dy = 1/3.

Коэффициент корреляции:  rxy = (-)/sxsy = (1/3 - (7/12)2)/(11/144) = -1/11.

Замечание по терминологии. В современной технической литературе существует достаточно большая путаница по применению терминов ковариации и корреляции. Очень часто термин корреляции применяют как к центрированным, так и нецентрированным системам случайных величин и случайных процессов. В какой-то мере это можно считать допустимым, так как и то, и другое понятие применяется для характеристики  корреляционной связи (взаимной зависимости) случайных величин. С другой стороны, матрицу смешанных центральных моментов второго порядка так же часто называют матрицей ковариации, и т.п.

Во избежание дальнейшей путаницы в понятиях примем за основу следующее. Однозначно понимаемым и повсеместно принятым термином теории вероятностей и математической статистики является коэффициент корреляции, который вычисляется по формуле (8.4.15) с использованием центральных моментов. А потому представляется логичным именно матрицу смешанных центральных моментов и смешанные моменты второго порядка центрированных случайных величин называть корреляционными, а смешанные начальные моменты нецентрированных случайных величин - ковариационными. Такой подход применен, например, в работе /л4/ и показал себя весьма эффективным в строгой логике математических построений.

Сумма и разность случайных величин анализируются достаточно просто с предварительным вычислением одномерных плотностей вероятностей соответствующих величин по формуле (8.4.4) или с использованием непосредственно плотностей вероятностей суммируемых случайных величин, если известны только последние и неизвестна многомерная плотность вероятностей, что чаще всего и имеет место на практике.

Средние значения сумм (разностей) случайных величин вычисляются по формулам:

,                                    (8.4.17)

так как математические ожидания сумм и разностей случайных величин равны соответствующим суммам и разностям их математических ожиданий. Средние значения случайных величин вычисляются по одномерным плотностям вероятностей.

 Дисперсия суммы (разности) случайных величин может быть получена с использованием выражений, следующих из (8.3.9') и (8.4.15):

= sx2 + ,       =+ rxy sx sy

Применяя эти выражения при вычислении среднего значения квадрата суммы (разности) двух случайных величин, получаем:

= 2+= sx2 + 2 2 rxy sx sy + sy2 + =

sx2 + sy2 2 rxy sx sy + ( )2.

 Отсюда, перенося последний член выражения в левую часть:

   - ( )2 (sxy)2 = sx2 + sy2 2 rxy sx sy.             (8.4.18)

Если случайные величины не коррелированны, то дисперсия их суммы или разности равна сумме их дисперсий.

 Плотность вероятностей суммы (разности) случайных величин по известным плотностям вероятностей суммируемых величин в общем случае определяется достаточно сложно. Задача значительно облегчается, если случайные величины статистически независимы. Рассмотрим этот случай на примере случайной двумерной величины Z=X+Y с известными плотностями вероятностей px(x) и py(y).

Совместная плотность вероятностей p(z) = p(x,y) определяет функцию распределения вероятностей P(z) = P(Z z) = P(X+Y    z), причем для каждой совместной реализации имеем z=x+y и, соответственно, x=z-y и y=z-x. Отсюда, с учетом статистической независимости случайных величин X и Y, и, соответственно, p(x,y) = px(x)py(y), для распределения вероятностей P(z) имеем:

          P(z) = p(x,y) dx dy = py(y) px(x) dx dy.            (8.4.19)

Продифференцируем данное выражение по z и, поскольку переменная z присутствует только в верхнем пределе второго интеграла, получим:

           d P(z)/dz p(x,y) =py(y) px(z-y) dy py(y) * px(z-y).             (8.4.20)

Аналогично, если принять y=z-x в качестве верхнего предела во втором интеграле выражения (8.3.19), можно получить:

       p(x,y) =px(x) py(z-x) dx px(x) * py(z-x).                        (8.4.20')

Таким образом,  двумерная плотность вероятностей суммы случайных величин равна свертке их одномерных плотностей распределения вероятностей.

Для разности случайных величин Z=X-Y в выражении (8.3.19) верхний предел заменяется соответственно на z+y, при этом:

   p(x,y) =py(y) px(z+y) dy py(x-z) px(x) dx.                   (8.4.21)

 Сумма и разность нормальных распределений. Плотность вероятностей суммы Z=X+Y двух нормальных распределений случайных величин X и Y получается непосредственной подстановкой выражений гауссовских распределений (8.3.15) в (8.4.20):

    .                       (8.4.22)

Аналогично для разности двух случайных величин Z=X-Y:

    .                        (8.4.23)

Рис. 8.4.6.

Как видно из полученных выражений, сумма и разность двух независимых нормально распределенных случайных величин также распределена нормально с дисперсией, равной сумме дисперсий исходных случайных величин, и со средними значениями, соответственно равными сумме и разности средних значений исходных величин.    На рис. 8.4.6 в качестве примера приведены графики нормальных распределений случайных величин X (=4, sx=0.5), Y (=2, sy=0.4) и  Z=X+Y,  N=X-Y.

Эти выводы действительны для сумм и разностей произвольного количества нормально распределенных случайных величин в любых сочетаниях и результатом  всегда будет случайная величина с нормальной плотностью распределения вероятностей. Это свойство называется устойчивостью закона распределения случайной величины, и оно является достаточно редким. Для гауссовских распределений это свойство сохраняется даже для коррелированных случайных величин, естественно с определением дисперсии по выражению (8.4.18). А так как функция распределения Гаусса относится к числу собственных, то функции дифференцирования, интегрирования и других линейных преобразований гауссовского распределения также являются нормальными.


Тема 9:   СЛУЧАЙНЫЕ  СИГНАЛЫ

Нет ничего более противного разуму и постоянству природы, чем случайность. Сам бог не может знать того, что произойдет случайно. Ибо если знает, то это определенно произойдет, а если определенно произойдет, то не случайно.

 Цицерон. О девинации. (Римский философ)

Случайность противна нашему разуму, но не природе и богам. Именно для проверки теории случайных процессов боги и создали мир. Швыряться яблоками они уже перестали, со времен Ньютона в этом процессе ничего нового не наблюдалось. Но арбузные корки продолжают подсовывать - фиксируется непредсказуемая и зачастую очень даже интересная реакция.

Рудольф Гавшин. O cлучайном. (Уральский геофизик)

Содержание:  9.1. Случайные процессы и функции. Случайный процесс. Функции математического ожидания и дисперсии. Ковариационная функция. Корреляционные функции. Свойства функций автокорреляции и автоковариации. Взаимные моменты случайных процессов. Классификация случайных процессов. 9.2. Функции спектральной плотности. Каноническое разложение случайных функций. Комплексные случайные функции. Финитное преобразование Фурье. Спектр функций случайных процессов. Взаимные спектральные функции. Теорема Винера-Хинчина. 9.3. Преобразования случайных функций. Системы преобразования случайных функций. Математическое ожидание выходного сигнала. Ковариационная функция выходного сигнала. Функция взаимной ковариации входного и выходного сигналов. Спектральные соотношения. Дисперсия выходного сигнала. Функция когерентности. Преобразования случайных функций. Преобразования стационарных случайных функций. 9.4. Модели случайных сигналов и помех. Телеграфный сигнал. Белый шум. Гауссовский шум. Гауссовские случайные процессы. Литература.

9.1.  Случайные  процессы  и  функции  [л31,л2,л4].

Теория вероятностей рассматривает случайные величины и их характеристики в "статике". Задачи описания и изучения случайных сигналов "в динамике", как отображения  случайных явлений, развивающихся во времени или по любой другой переменной - координате, решает теория случайных процессов.

Как было принято и выше, в качестве универсальной координаты для распределения случайных величин по какой-либо независимой переменной будем использовать, как правило, переменную "t" и трактовать ее, чисто для удобства, как временную координату. Случайные распределения во времени обычно называют случайными или стохастическими процессами.

Случайный процесс Х(t) может быть описан функциональной системой случайных величин Хn = Х(tn), n = 1,2, … ,N при N   (соответственно Dt 0), которая отличается тем, что принимаемые ею значения по координате t являются случайными. При регистрации случайного сигнала на определенном временном интервале осуществляется фиксирование единичной реализации xk(t) - выборочной функции случайного процесса X(t). С практической точки зрения эту выборочную функцию можно считать результатом отдельного эксперимента. Сам случайный процесс в целом должен анализироваться с позиции бесконечной совокупности таких реализаций, образующих статистический ансамбль. Полной статистической характеристикой такой системы является N-мерная плотность вероятностей р(xn;tn). Однако, как экспериментальное определение N-мерных плотностей вероятностей процессов, так и их использование в математическом анализе представляет значительные математические трудности. Поэтому на практике обычно ограничиваются одно- и двумерной плотностью вероятностей процессов.

Одномерная плотность вероятностей p(x,t) случайного процесса Х(t) характеризует распределение вероятностей реализации случайной величины Х в произвольный момент времени t. Моменты времени ti, по существу, являются сечениями случайного процесса по пространству возможных состояний и плотность вероятностей p(x,t) представляет собой плотность вероятностей случайных величин Xi данных сечений. Однако одномерные законы плотности распределения вероятностей случайных процессов не несут каких-либо характеристик связи между значениями случайных величин для различных значений аргументов.

Двумерная плотность вероятностей p(x1,x2;t1,t2) определяет вероятность совместной реализации значений случайных величин Х1 и Х2 в произвольные моменты времени t1 и t2 и в какой-то мере уже позволяет оценивать динамику развития процесса.

Случайные процессы и их функции характеризуются неслучайными функциями математического ожидания (среднего значения), дисперсии и ковариации:

Функции математического ожидания и дисперсии представляют собой соответственно математическое ожидание и дисперсию случайных величин по сечениям реализаций случайных процессов в произвольные моменты времени t:

 mx(t) M{Х(t)} =x p(x;t) dx,                               (9.1.1)

     Dx(t) = M{[Х(t)-mx(t)]2} =[xo(t)]2 p(x;t) dx,                         (9.1.2)

xo(t) = x(t)-mx(t).

Соответственно, функция среднего квадратического отклонения:

       sx(t) =,                                                 (9.1.3)

Математическое ожидание mx(t) называют также неслучайной составляющей случайного процесса X(t), а разность Х(t)-mx(t) - флюктуационной частью процесса. Пример неслучайной составляющей M{A(x)} случайного процесса А(х) можно видеть на рис. 9.1.3.

Ковариационная функция характеризует случайный процесс в целом.

На рис. 9.1.1 приведены примеры реализаций двух случайных процессов, которые характеризуются одной и той же функцией математического ожидания и дисперсии.

Рис. 9.1.1.

На рисунке видно, что хотя пространство состояний обоих процессов практически одно и то же, динамика развития процессов в реализациях существенно различается. Единичные реализации коррелированных процессов в произвольный момент времени могут быть такими же случайными, как и некоррелированных, а в пределе, во всех сечениях оба процесса могут иметь один и тот же закон распределения случайных величин. Однако динамика развития по координате t (или любой другой независимой переменной) единичной реализации коррелированного процесса по сравнению с некоррелированным является более плавной, а, следовательно, в коррелированном процессе имеется определенная связь между последовательными значениями случайных величин. Оценка степени статистической зависимости мгновенных значений какого-либо процесса Х(t) в произвольные моменты времени t1 и t2 задается функцией ковариации:

RХ(t1,t2) = M{Х(t1)Х(t2)}=x(t1)x(t2) p(x1,t1;x2,t2) dx1dx2,                  (9.1.4)

При анализе случайных процессов второй момент времени t2 удобно задавать величиной сдвига t относительно первого момента, который при этом может быть задан в виде координатной переменной:

RХ(t,t+t) = M{Х(t)Х(t+t)}.                                               (9.1.4')

Функция, задаваемая этим выражением, обычно называется автоковариационной функцией случайного процесса.

Корреляционные функции. Частным случаем ковариационной функции является функция автокорреляции (ФАК), которая широко используется при анализе сигналов:

 KХ(t1,t2) =(x(t1)-mx(t1))(x(t2)-mx(t2) p(x1,t1;x2,t2) dx1dx2.                 (9.1.5)

Рис. 9.1.2.

Для центрированных случайных процессов ФАК тождественна функции ковариации. При произвольных значениях mx корреляционные и ковариационные функции связаны соотношением:

KX(t,t+t) = RX(t,t+t) - mx2(t).

Пример функции автокорреляции приведен на рис. 9.1.2.

Нормированная функция автокорреляции (функция корреляционных коэффициентов):

      rХ(t,t+t) = KХ(t,t+t) / [s(t)s(t+t)].     (9.1.6)

При t = 0 значение rХ равно 1, а ФАК вырождается в дисперсию случайного процесса:

KХ(t) = DХ(t).

Отсюда следует, что для случайных процессов и функций основными характеристиками являются функции математического ожидания и автокорреляции. Особой необходимости в отдельной функции дисперсии не имеется.

 

Рис. 9.1.3. Реализации случайных процессов.     Рис. 9.1.4. Корреляционные функции процессов.

Примеры реализаций двух различных случайных процессов и их корреляционных функций приведены на рис. 9.1.3 и 9.1.4..

Свойства функций автокорреляции и автоковариации.

1. Максимум функций наблюдается при t = 0. Это очевидно, т.к. при t = 0 вычисляется степень связи отсчетов с собой же, которая не может быть меньше связи разных отсчетов. Значение максимума функции ковариации равно средней мощности сигнала.

2. Функции ковариации и автокорреляции являются четными: RX(t) = RX(-t). Последнее также очевидно: X(t)X(t+t) = X(t-t)X(t) при t = t-t. Говоря иначе, смешанные моменты двух случайных величин X(t1) и X(t2) не зависят от последовательности, в которой эти величины рассматриваются, и соответственно симметричны относительно своих аргументов: Rx(t1,t2) = Rx(t2,t1), равно как и Kx(t1,t2) = Kx(t2,t1), что наглядно видно на рис. 9.1.2.

3. При t   значения ФАК для сигналов, конечных по энергии, стремятся к нулю, что прямо следует из физического смысла ФАК. Это позволяет ограничивать длину ФАК определенным максимальным значением tmax - радиусом корреляции, за пределами которого отсчеты можно считать независимыми. Интегральной характеристикой времени корреляции случайных величин обычно считают эффективный интервал корреляции, определяемый по формуле:

Tk =2|rx(t)| dt  (2/Kx(0)|Kx(t)| dt.                           (9.1.7)  

Отсчеты (сечения) случайных функций, отстоящие друг от друга на расстояние большее Tk, при инженерных расчетах считают некоррелированными.

Заметим, что для некоррелированных процессов при t   значение Tk стремится к 2, что несколько противоречит физическому смыслу радиуса корреляции, который в этом случае должен был бы стремиться к 1. С учетом последнего эффективный интервал корреляции целесообразно определять по формуле:

     Tk =2|rx(t)| dt - 1  (2/Kx(0)|Kx(t)| dt - 1.                    (9.1.7')  

4. Если к случайной функции X(t) прибавить неслучайную функцию f(t), то корреляционная функция не изменяется.

Обозначим новую случайную функцию как Y(t)=X(t)+f(t). Функция математического ожидания новой величины:  = + f(t). Отсюда следует, что Y(t) -= X(t) -, и соответственно Ky(t1,t2) = Kx(t1,t2).

5. Если случайную функцию X(t) умножить на неслучайную функцию f(t), то ее корреляционная функция Rx(t1,t2) умножится на f(t1)f(t2). Обоснование данного свойства проводится по методике, аналогичной предыдущему пункту.

6. При умножении функции случайного процесса на постоянное значение С значения ФАК увеличиваются в С2 раз.

Взаимные моменты случайных процессов второго порядка дают возможность оценить совместные свойства двух случайных процессов X(t) и Y(t) путем анализа произвольной пары выборочных функций xk(t) и yk(t).

Мера связи между двумя случайными процессами X(t) и Y(t) также устанавливается корреляционными функциями, а именно - функциями взаимной ковариации и взаимной корреляции, в общем случае для произвольных фиксированных моментов времени t1 = t и t2 = t+t:

RXY(t,t+t) = M{(X(t)(Y(t+t)}.                              (9.1.8)

KXY(t,t+t) = M{(X(t)-mx(t))(Y(t+t)-my(t+t))}.                 (9.1.9)

Взаимные функции являются произвольными функциями (не обладают свойствами четности или нечетности), и удовлетворяют следующим соотношениям:

Rxy(-t) = Ryx(t),                                        (9.1.10)

       |Rxy(t)|2  Rx(0)Ry(0).

Если один из процессов центрированный, то имеет место Rxy(t) = Kxy(t).

Нормированная взаимная корреляционная функция (коэффициент корреляции двух процессов), которая характеризует степень линейной зависимости между случайными процессами при данном сдвиге t одного процесса по отношению ко второму,  определяется выражением:

       rxy(t) = Kxy(t)/(sxsy).                                  (9.1.11)

Классификация случайных процессов. Случайные процессы различают по степени однородности их протекания во времени (по аргументу).

Нестационарные процессы. В общем случае значения функций математического ожидания, дисперсии и ковариации могут быть зависимыми от момента времени t, т.е. изменяться во времени. Такие процессы составляют класс нестационарных процессов.

Стационарные процессы. Процесс называют стационарным, если плотность вероятностей процесса не зависит от начала отсчета времени и если на интервале его существования выполняются условия постоянства математического ожидания и дисперсии, а ковариационная функция является функцией только разности аргументов t = t2-t1, т.e.:

mХ(t1) = mХ(t2) = mХ = const,                                  (9.1.12)

DХ(t1) = DХ(t2) = DХ = const,

    RХ(t1,t1+t) Rx(t2-t,t2) = RХ(t) RХ(-t).

 Последнее выражение свидетельствует о четности ковариационной (а равно и корреляционной) функции. Из него вытекает также еще одно свойство смешанных моментов стационарных процессов:

|Rx(t)| Rx(0),       |Kx(t)| Kx(0) Dx.

Среди стационарных процессов выделяют строго стационарные процессы, для которых постоянны во времени не только математическое ожидание, дисперсия и ковариация, но и все остальные моменты высших порядков (в частности, асимметрия и эксцесс).

Стационарные случайные процессы наиболее часто встречаются при решении физических и технических задач. Теория стационарных случайных функций разработана наиболее полно и для ее использования обычно достаточно определения стационарности в широком смысле: случайная функция считается стационарной, если ее математическое ожидание постоянно, а ковариационная функция зависит только от одного аргумента. Случайные процессы, удовлетворяющие условиям стационарности на ограниченных, интересующих нас интервалах, также обычно относят к числу стационарных в широком смысле и называют квазистационарными.

Эргодические процессы. Строго корректно характеристики случайных процессов  оцениваются путем усреднения по ансамблю реализаций в определенные моменты времени (по сечениям процессов). Но большинство стационарных случайных процессов обладает эргодическим свойством, сущность которого заключается в том, что по одной достаточно длинной реализации процесса можно судить о всех его статистических свойствах так же как по любому количеству реализаций. Другими словами, закон распределения случайных величин в таком процессе может быть одним и тем же как по сечению для ансамбля реализаций, так и по координате развития. Такие процессы получили название эргодических.

Практическая проверка эргодичности процесса обычно производится проверкой выполнения условия Слуцкого:

K(t) dt = 0.                                             (9.1.13)

Эргодичность является очень важным свойством случайных стационарных, и только стационарных процессов. Для эргодических процессов определение статистических характеристик усреднением по ансамблю реализаций может заменяться усреднением по множеству неперекрывающихся интервалов только одной реализации:  

M{Х(t)}  mХ,N(t) = (1/N)Х(tn),                                 (9.1.14)

DХ(t) = M{Х(t) - mХ,N(t)]2}  sХ2(t) = (1/N)( Хn(t) - mХ,N(tn))2,          (9.1.15)

      RХ(t) = M{Х(t)Х(t+t)} RХ,N(t) = (1/N)Х(tn)Х(tn+t),               (9.1.16)

где N- интервал усреднения  и корреляции для числовых рядов. Так как определение функций производится по ограниченным статистическим данным одной реализации и является только определенным приближением к соответствующим фактическим функциям процессов, целесообразно называть эти функции статистическими. Заметим, что как это следует из (9.1.16), вычисление ковариационной функции подобно свертке (с делением на интервал корреляции) и может записываться символически:

RХ,N(t) = (1/N) Х(t) * Х(t+t).

Свойства эргодичности могут проявляться только по отношению к двум первым моментам случайного процесса, что вполне достаточно для использования соответствующих методик исследования процессов. На практике оценку эргодичности обычно производят по корреляционной функции. Если корреляционная функция процесса стремится к нулю при возрастании значения аргумента (t), то процесс относится к числу эргодических, по крайней мере относительно моментов первого и второго порядков.

Пример.  Случайная функция задана выражением Z(t) = X(t)+Y, где X(t) - стационарная эргодичная функция, Y - случайная величина, некоррелированная с X(t). Эргодична ли функция Z(t) ?

mz(t) = mz(x)+my,   Kz(t) = Kx(t)+Dy.

Функция Z(t) стационарна, но не эргодична, так как при t   имеет место Kz(t) Dy.

9.2.  Функции  спектральной  плотности [л31,л4,л32].

 Каноническое разложение случайных функций. Введем понятие простейшей случайной функции, которая определяется выражением:

        X(t) = Xj(t),                                                     (9.2.1)

где Х - обычная случайная величина, j(t) - произвольная неслучайная функция. Математическое ожидание простейшей случайной функции:

       mx(t) = M{Xj(t)}= j(t)M{X}= j(t)mx,                                 (9.2.2)

где mx - математическое ожидание случайной величины Х. При mx = 0 математическое ожидание mx(t) также равно нулю для всех t и функция (9.2.1) в этом случае называется элементарной случайной функцией. Корреляционная функция элементарной случайной функции определится выражением:

   Kx(t1,t2) = M{X(t1)X(t2)}= j(t1)j(t2)M{X2}= j(t1)j(t2)Dx.                  (9.2.3)

где Dx - дисперсия случайной величины Х.

Центрированную случайную функцию 0X(t) можно представить суммой взаимно некоррелированных элементарных случайных функций:

    0X(t) =Xiji(t),                                                  (9.2.4)

Из взаимной некоррелированности элементарных случайных функций следует взаимная некоррелированность величин Xi. Математическое ожидание и корреляционная функция случайной функции 0X(t):

M{0X(t)}= M{Xiji(t)}= 0.

Kx(t1,t2) = M{0X(t1) 0X(t2)}= M{Xiji(t1)Xjjj(t2)}=ji(t1)jj(t2)M{XiXj}.

В силу взаимной некоррелированности парных значений XiXj имеет место M{XiXj}= 0 при i j, и все члены суммы в последнем выражении равны нулю, за исключением значений при i = j, для которых M{XiXj}= M{Xi2}= Di. Отсюда:

            Kx(t1,t2) =ji(t1)ji(t2)Di.                                       (9.2.5)

Произвольная нецентрированная случайная функция соответственно может быть представлена в виде

   X(t) = mx(t) + 0X(t) = mx(t) +Xiji(t),                          (9.2.6)

с математическим ожиданием mx(t) и с той же самой корреляционной функцией (9.2.5) в силу свойств корреляционных функций, где 0X(t) - флюктуационная составляющая случайной функции X(t). Выражение (9.2.6) и является каноническим разложением функции X(t). Случайные величины Xi называются коэффициентами разложения, функции ji - координатными функциями разложения. При t1 = t2 из (9.2.5) получаем функцию дисперсии случайной функции X(t):

       Dx(t) =[ji(t)]2Di.                                            (9.2.7)

Таким образом, зная каноническое разложение (9.2.6) функции X(t), можно сразу определить каноническое разложение (9.2.5) ее корреляционной функции, и наоборот. Канонические разложения удобны для выполнения различных операций над случайными функциями. Это объясняется тем, что в разложении зависимость функции от аргумента t выражается через неслучайные функции ji(t), а соответственно операции над функцией X(t) сводятся к соответствующим операциям математического анализа над координатными функциями ji(t).

В качестве координатных функций разложения, как и при анализе детерминированных сигналов, обычно используются гармонические синус-косинусные функции, а в общем случае комплексные экспоненциальные функции exp(jwt). С учетом последнего предварительно рассмотрим особенности представления случайных функций в комплексной форме.

Комплексные случайные функции. В общем случае случайный процесс может описываться комплексной случайной функцией:

  Z(t) = X(t) + jY(t),                                             (9.2.8)

где X(t) и Y(t) - действительные случайные функции. Соответственно, математическое ожидание комплексной функции:

 mz(t) = mx(t)+jmy(t).                                          (9.2.9)

Заметим, что комплексное представление случайных функций не более чем удобная для анализа математическая форма их отображения, которая, с использованием выражений Эйлера, всегда может быть переведена в форму вещественных функций. Функции дисперсии, ковариации и корреляции должны представлять собой однозначные и неслучайные вещественные характеристики случайных процессов и функций, независимо от формы их математического представления. Это условие будет выполняться при использовании в выражениях моментов второго порядка операций умножения комплексных функций с комплексно сопряженными функциями. Так, выражение для вычисления ковариационной функции имеет следующий вид:

Rz(t1,t2) = M{Z(t1)}= M{[X(t1)+jY(t1)][(X(t2)-jY(t2)]}=

= M{X(t1)X(t2)+Y(t1)Y(t2)+j[Y(t1)X(t2)-X(t1)Y(t2)]} =

                                       = Rx(t1,t2) + Ry(t1,t2) + j[Ryx(t1,t2) - Rxy(t1,t2)].                      (9.2.10)

 Если действительные и мнимые части комплексной функции некоррелированы, то Ryx = Rxy = 0 и последний член выражения (9.2.10) также равен нулю.

Аналогичное выражение имеет место и для корреляционной функции. При t1 = t2 = t для функции дисперсии комплексной случайной величины имеем:

         Dz(t) = M{|Z(t)-mz(t)|2} = Dx(t) + Dy(t),                           (9.2.11)

Все приведенные выражения в общем случае могут использоваться для любых комплексных случайных функций с любым физическим смыслом переменной t.

Финитное преобразование Фурье случайных функций. По аналогии с функциями детерминированных сигналов, отдельно взятая на интервале 0-Т реализация xk(t) стационарного случайного процесса 0X(t) может быть представлена в виде ряда Фурье:

        xk(t) =Vx,k(wi) exp(jwit),                                 (9.2.12)

   Vx,k(wi) = (1/T)xk(t) exp(-jwit) dt,                            (9.2.13)

или, в односторонней тригонометрической форме:

xk(t) = Ax,k(0)/2 +(Ax,k(wi) cos(wit) + Bx,k(wi) sin(wit)),       (9.2.12')

    Ax,k(wi) = (2/T)xk(t) cos(wit) dt,                             (9.2.13')

    Bx,k(wi) = (2/T)xk(t) sin(wit) dt.                              (9.2.13'')

где wi = iDw - частоты спектра, Dw = 2p/T - шаг по частоте. Выражения (9.2.13) обычно называют спектральными характеристиками реализаций. Из сравнения выражений (9.2.4) и (9.2.12) нетрудно сделать заключение, что выражения (9.2.12) относится к числу канонических разложений случайных функций, при этом спектральная характеристика Vx,k(w) = (Ax,k(w) - jBx,k(w))/2, а равно и ее составляющие Ax,k(w) и Bx,k(w), также являются случайными функциями частоты - единичными реализациями случайных функций Vx(w), Ax(w) и Bx(w). Соответственно, и частотное распределение амплитуд и фаз составляющих гармонических колебаний случайного процесса 0X(t) представляет собой случайные функции с соответствующими неслучайными функциями дисперсий.

Если функция 0X(t) является дискретной последовательностью случайных величин 0X(nDt) в интервале по n от 0 до N, то, как это и положено для дискретных преобразований Фурье, расчет спектральных характеристик выполняется в Главном частотном диапазоне (до частоты Найквиста wN = p/Dt), с заменой в выражениях (9.2.13) интегрирования на суммирование по n и с соответствующим изменением пределов суммирования в выражениях (9.2.12). Данное пояснение сохраняется и на все дальнейшие выкладки.

Спектральные характеристики единичных реализаций случайных процессов интереса, как правило, не представляют и на практике используются довольно редко. Спектральная характеристика случайной функции 0X(t), как ансамбля реализаций, может быть определена осреднением функций (9.2.12-13) по реализациям, в результате которого мы получим те же самые функции (9.2.12-13), только без индексов k. При этом, в силу центрированности стационарной случайной функции 0X(t), мы должны иметь:

M{X(t)} =M{Vx(wi)} exp(jwit) = 0,                         (9.2.14)

Последнее будет выполняться при условии M{Vx(wi)} = 0, т.е. математическое ожидание значений спектральной характеристики центрированного стационарного случайного процесса должно быть равно нулю на всех частотах. Другими словами, спектральной характеристики центрированного стационарного случайного процесса не существует. Существуют только спектральные характеристики его отдельных реализаций, которые и используются, например, для моделирования этих реализаций.

Для произвольных нецентрированных случайных процессов X(t), при записи последних в форме X(t) = mx(t) + 0X(t), будем соответственно иметь преобразование Фурье:

mx(t) + 0X(t) mx(w) + Vx(w) = mx(w),

т.е., по существу, функцию спектра (или спектральной плотности) неслучайной функции математического ожидания случайного процесса, естественно, в пределах той точности, которую может обеспечить выборочный ансамбль реализаций.

С учетом вышеизложенного, под спектрами случайных процессов (или спектральной плотностью при интегральном преобразовании Фурье) повсеместно понимается не преобразования Фурье собственно случайных функций, а преобразования Фурье корреляционных функции случайных процессов.

 Спектр функций случайных процессов. При представлении корреляционной функции на интервале 0-Т, шаг по спектру функции устанавливается с учетом четности корреляционной функции Dw = p/T, wi = iDw, а спектр определяется обычно непосредственно по косинусам в односторонней форме:

   Kx(t) = Dx(0)/2 +Dx(wi) cos(wit),                              (9.2.15')

    Dx(wi) = (2/T)Kx(t) cos(wit) dt,                                 (9.2.16')

где Dx(wi) в соответствии с (9.2.5) - дисперсии случайных величин Vx(wi), а равно и Ax(wi) и Bx(wi), в разложениях (9.2.12). В комплексной форме, как обычно:

   Kx(t) =Dx(wi) exp(jwit),                                      (9.2.15)

Dx(wi) = (1/T)Kx(t) exp(-jwit) dt,                                (9.2.16)

Рис. 9.2.1. Спектры случайных функций.

Спектры случайных функций всегда ограничены (D(w)  ) и неотрицательны (D(w) 0), при двустороннем представлении всегда четные (D(-w) = D(w)). Пример спектров в одно- и двустороннем представлении приведен на рис. 9.2.1.

Дисперсия стационарного случайного процесса X(t) может определяться по формуле (9.2.15) при t = 0:

       Dx =Dx(wi),                                               (9.2.17)  

т.е. дисперсия стационарного случайного процесса равна сумме дисперсий всех случайных гармоник ее спектрального разложения.

Обобщенной характеристикой спектра случайного процесса служит эффективная ширина спектра, определяемая по формуле:

   Bk = (Dw/Dmax)Dx(wi) = DwDx/Dmax,                      (9.2.18)

где Dmax - максимальное значение функции Dx(wi). Отметим, что ширина спектра является практической характеристикой случайного процесса и вычисляется, как правило, для реальных частот по одностороннему спектру процесса. При вычислении по двустороннему спектру, где значение Dmax соответственно в два раза меньше, чем в одностороннем спектре, величина Bk завышается в два раза, если суммирование осуществлять по всему спектру. Поэтому пределы суммирования в выражении (9.2.18) не изменяются вне зависимости от того, какой вид спектра используется.   

При использовании предельного перехода T   и соответственно интегралов Фурье в выражениях (9.2.15), двусторонние функции дисперсий D(wi) заменяются функциями S(w), а односторонние - функциями G(w), которые называют соответственно дву- и односторонними функциями спектральной плотности случайных процессов. Такое же индексирование в научно-технической литературе применяют и для спектров ковариационных функций, а зачастую и для дискретных преобразований корреляционных функций вместо D(wi), хотя последнее применительно к корреляционным функциям более точно отражает физическую сущность величин. Но оно может считаться вполне приемлемым для сохранения общности математических описаний.  

Эффективная ширина спектра для функций спектральной плотности случайных процессов:

 Bk = Gx(f) df /Gx(f)max = Sx(f) df /Sx(f)max = Kx(0) /Sx(f)max.       (9.2.18')  

 Соотношение неопределенности связывает эффективную ширину спектра Bk с эффективным интервалом корреляции Tk. Для его определения найдем произведение BkTk случайного процесса с использованием формул (9.1.7) и (9.2.18'):

       BkTk = 2|Kx(t)|dt /Sx(f)max.                                    (8.2.19) 

Оценка этого произведения и приводит к соотношению неопределенности:

          BkTk  1/2.                                                    (9.2.20)

Следовательно, с уменьшением эффективной ширины спектра увеличивается эффективный интервал корреляции случайного процесса, и наоборот.

 Взаимные спектральные функции. Статистическая связь двух случайных процессов X(t) и Y(t) оценивается по функциям взаимной корреляции Kxy(t) или Kyx(t). Функции взаимной корреляции в общем случае являются произвольными и соответственно функции взаимного спектра представляют собой комплексные выражения:

   Sxy(wi) = (1/T)Kxy(t) exp(-jwit) dt,                              (9.2.21)    

при этом:

Sxy(-w) = Sxy*(w) = Syx(w).

Квадратурным аналогом нормированной взаимной корреляционной функции или функции коэффициентов корреляции двух процессов (9.1.11) в спектральной области является функция когерентности, которая определяется выражением:

   gxy2(w) = |Sxy(w)|2/(Sx(w)Sy(w)),                                   (9.2.22) 

и для любых w удовлетворяет неравенствам

    0  gxy2(w) 1.                                                (9.2.23)

Функция когерентности обычно используется при анализе линейных систем преобразования входной функции X(t) в выходную функцию Y(t) (рассмотрено ниже).

Теорема Винера-Хинчина. Рассмотрим сигнал q(t), представляющий собой одну реализацию случайного стационарного эргодического процесса длительностью Т. Для сигнала q(t) может быть определен спектр Q(w). Если сдвинуть на t реализацию процесса, то получим спектр Q(w)exp(jwt). Для вещественных сигналов Q(w) = Q*(w) равенство Парсеваля по энергии взаимодействия двух сигналов

x(t) y*(t) dt =X(f) Y*(f) df.

может быть записано в следующей форме:

q(t)q(t+t) dt = (1/2p) Q(w)Q*(w) exp(jwt) dw.

Поделим обе части данного равенства на Т и перейдем к пределу при Т  , при этом  в его левой части мы увидим выражение для функции ковариации, а в правой части - преобразование Фурье спектра мощности сигнала:

q(t)q(t+t) dt = |Q(w)|2 exp(jwt) dw,

     R(t) = (1/2p) W(w) exp(jwt) dw.                            (9.2.24)

Отсюда следует, что ковариационная функция случайного стационарного эргодического процесса представляет собой обратное преобразование Фурье его спектра мощности, и наоборот:

W(w) = R(t) exp(-jwt) dt.                                (9.2.25)

В этом состоит суть теоремы Винера-Хинчина. Функции W(w) и R(t) являются четными, а соответственно в тригонометрической форме:

R(t) = 2W(f)cos(2pft) df,           W(f) = 2R(t)cos(2pft) dt.

Так как корреляционные функции стационарных процессов являются частным случаем ковариационных функций, то эти выражения действительны и для ФАК, а следовательно спектральные функции случайных процессов, рассмотренные выше как преобразования Фурье корреляционных функций, являются спектрами мощности флюктуирующей составляющей процессов. С этих позиций дисперсия случайных процессов представляет собой среднюю мощность его флюктуаций

K(t=0) = s2 = (1/2p) W(w) dw,

т.е., равна суммарной мощности всех его частотных составляющих процессов.

В заключение данного раздела отметим, что спектральные плотности процессов и спектры плотности мощности, это одно и то же понятие. Оба термина используются достаточно широко в научно-технической литературе. Учитывая то обстоятельство, что понятие мощности по своему смыслу больше связано с энергетическими понятиями, а понятие спектральной плотности - с анализом сигналов и систем, при дальнейшем рассмотрении случайных сигналов и процессов будем использовать, в основном, понятие спектральной плотности или (для дискретных величин) спектров случайных сигналов и процессов.

9.3.  Преобразования  случайных  функций  [л31,л2,л32].

 Системы преобразования случайных функций. Пусть имеется система преобразования с одним входом, на который поступает (подается) входная случайная функция X(t) - функция воздействия или возбуждения, и с одним выходом, с которого снимается выходная функция Z(t) - – отклик или выходная реакция системы. Система осуществляет преобразование X(t) Z(t) и описывается определенным системным оператором трансформации Т - функцией, алгоритмом, набором правил преобразования входного сигнала в выходной. Символическое обозначение операции преобразования:

Z(t) = T[X(t)].

При выполнении преобразования конкретных реализаций случайного процесса может использоваться также более информативное символическое отображение  операции преобразования:

z(t) = h(t) * x(t-t),

где h(t) - математическая функция импульсного отклика системы на единичное входное воздействие. Последнее выражение, по существу, представляет собой краткую запись операции свертки, которой реализуется линейное преобразование. В интегральной форме:

z(t) =h(t)x(t-t) dt.

Импульсный отклик определяет соответствующую частотную передаточную характеристику системы: h(t) H(w).

Для неслучайных (детерминированных) входных сигналов соотношение между выходными и входными сигналами всегда однозначно задается системным оператором. В случае реализации на входе системы случайного входного процесса (случайного сигнала) тоже существует однозначное соответствие процессов на выходе и входе системы, однако при этом одновременно происходит изменение статистических характеристик выходного сигнала (математического ожидания, дисперсии, корреляционной функции и пр.).

Линейные и нелинейные системы составляют два основных класса систем обработки сигналов. Термин линейности означает, что система преобразования сигналов должна иметь произвольную, но в обязательном порядке линейную связь между входным сигналом (возбуждением) и выходным сигналом (откликом). В нелинейных системах связь между входным и выходным сигналом определяется произвольным нелинейным законом.

Основные системные операции линейных систем, из которых могут быть сформированы любые линейные операторы преобразования, это операции скалярного умножения, сдвига и сложения сигналов:

s(t) = c a(t),     s(t) = a(t-Dt),     s(t) = a(t)+b(t).

Для нелинейных систем выделим важный тип безинерционных операций нелинейной трансформации сигнала, результаты которой зависят только от его входных значений. К ним относятся, например, операции квадратирования и логарифмирования сигнала:

y(t) = [s(t)]2,     y(t) = log[s(t)].

Система считается линейной, если ее реакция на входные сигналы аддитивна (выполняется принцип суперпозиции сигналов) и однородна (выполняется принцип пропорционального подобия).

Принцип аддитивности требует, чтобы реакция на сумму двух входных сигналов была равна сумме реакций на каждый сигнал в отдельности:

T[a(t)+b(t)] = T[a(t)]+T[b(t)].

Принцип однородности или пропорционального подобия требует сохранения однозначности масштаба преобразования при любой амплитуде входного сигнала:

T[c  a(t)]= c  T[a(t)].

Другими словами, отклик линейной системы на взвешенную сумму входных сигналов должен быть равен взвешенной сумме откликов на отдельные входные сигналы независимо от их количества и для любых весовых коэффициентов, в том числе комплексных.

Примеры линейных операций преобразования:

1. Умножение на заданную функцию: Z(t) = f(t)Y(t).

2. Дифференцирование:  Z(t) = dX(t)/dt.

3. Интегрирование:  Z(t) =X(v) dv.

Линейные системы могут быть неоднородными, если они осуществляют какое-либо линейное однородное преобразование с прибавлением (вычитанием) заданной функции, т.е. операцию вида  Z(t) = T[X(t)] = To[X(t)] + f(t).

 Двухвходовая система описывается системным оператором Т, который связывает два входных воздействия, соответственно X(t) и Y(t), с выходной реакцией Z(t). Система считается линейной, если принципы аддитивности и однородности выполняются для обоих входов, т.е.:

Z(t) = T[cX(t), cY(y)] = cT[X(t),Y(t)],

Z(t) = T[X1(t)+X2(t), Y1(t)+Y2(t)] = T[X1(t),Y1(t)]+T[X2(t),Y2(t)].

 Двухвходовая система может применяться, например, для суммирования двух случайных процессов с разными коэффициентами усиления их значений.

При выполнении линейного преобразования Z(t) = T[X(t)] обычно ставится задача определения характеристик распределения Z(t) по известным характеристикам X(t).

 Математическое ожидание выходного сигнала:

mz(t) = M{Z(t)} = M{T[X(t)]}.

Из теории линейных систем: Линейный оператор можно выносить за знак математического ожидания. Отсюда следует:

         mz(t) = T[M{X(t)}] = T[mx(t)],                                   (9.3.1)

т.е. для определения функции математического ожидания выходного сигнала Z(t) достаточно выполнить преобразование тем же системным оператором функции математического ожидания входного сигнала X(t):

      mz(t) = h(t) * mx(t-t).                                          (9.3.2)

 Ковариационная функция выходного сигнала:

Rz(t1,t2) = M{Z(t1)Z(t2)}= M{T1[X(t1)]}T2[X(t2)]},

где Т1 и Т2 - один и тот же оператор Т по переменным соответственно t1 и t2, что позволяет вынести его за знак математического ожидания, сохраняя переменные:

      Rz (t1,t2) = T1T2[M{X(t1)X(t2)}] =T1T2[Rx (t1,t2)],                    (9.3.3)

т.е. при известной функции ковариации входного сигнала функция ковариации выходного сигнала находится двойным преобразованием тем же оператором по двум аргументам.

При определении функции Rz(t) следует учесть порядок преобразования. Для произведения выходных сигналов z(t) и z(t+t) линейной системы  можно записать:

z(t)z(t+t) =h(a)h(b) x(t-a) x(t+t-b) da db.

 Если взять математические ожидания от обеих частей этого равенства, то, с учетом соотношения в подынтегральном  выражении

M{x(t-a) x(t+t-b)} = -Rx(t-a-t-t+b) = Rx(t+a-b),

получим:

  Rz(t) =h(a)h(b) Rx(t+a-b) da db  Rx(t) * h(t+a) * h(t-b).          (4.3.4)

 Таким образом, функция ковариации выходного сигнала равна функции ковариации входного сигнала, свернутой дважды, в прямом и обратном направлении, с импульсным откликом системы, что сохраняет четность ковариационной функции выходного сигнала. Аналогичное заключение действительно и для корреляционных функций.

Заметим, что для свертки импульсных откликов, производя замену t-b = t, мы имеем равенство:

h(t+a) * h(t-b) = h(t+a+b) * h(t) = h(t) * h(t+g) = Rh(t),

где Rh(t) - функция ковариации импульсного отклика системы. Отсюда:

Rz(t) = Rx(t) * Rh(t).                                             (9.3.5)

т.е. функция ковариации выходного сигнала равна свертке функции ковариации входного сигнала с функцией ковариации импульсного отклика системы. Это означает появление в случайном сигнале на выходе системы определенной корреляционной зависимости, вызванной инерционностью системы, причем радиус корреляции выходного сигнала обратно пропорционален верхней частоте, пропускаемой системой.

 Функции взаимной ковариации  входного и выходного сигналов определяются аналогично:

   Rzx (t1,t2) = T1[Rx(t1,t2)],     Rxz(t1,t2) = T2[Rx(t1,t2)].                    (9.3.6)

 Для функции Rxz входного и выходного сигналов имеем:

x(t)z(t+t) dt =h(a) x(t) x(t+t-a) da dt.

      Rxz(t) =h(a) Rx(t-a) da  Rx(t) * h(t-a).                         (9.3.7)

т.е. функция взаимной ковариации входного и выходного сигналов равна свертке функции ковариации входного сигнала с функцией импульсного отклика системы.

Другая взаимно ковариационная функция Ryx может быть получена из соотношения:

  Rzx(t) = Rxz(-t) Rx(t) * h(t+a).                                   (9.3.8)

Отметим, что для статистически независимых случайных величин при одностороннем импульсном отклике h(t) = 0 при t<0 функция Rxz(t) также является односторонней и равна 0 при t<0, а функция Rzx соответственно равна 0 при t>0.

 Спектральные соотношения, которые характеризуют систему в целом по отношению к преобразованию случайных сигналов, это соотношения спектральных плотностей случайных сигналов (спектров мощности) на входе и выходе.

Применяя преобразование Фурье к выражениям (9.3.5), для спектра мощности выходного сигнала получаем:

 Sz(f) = Sx(f) |H(f)|2.                                              (9.3.9)

Спектр мощности случайного сигнала на выходе системы равен спектру мощности входного сигнала, умноженному на квадрат модуля частотной характеристики фильтра. С учетом четности корреляционных функций спектр мощности выходного сигнала также является четной действительной функцией и содержит только амплитудную характеристику системы.

Аналогично, для взаимного спектра мощности сигналов на основе выражений (9.3.7-8) имеем:

 Sxz(f) = Sx(f) H(f).                                             (9.3.10)

 Szx(f) = Sx(f) H(-f).                                            (9.3.10')

Взаимный спектр сигналов при одностороннем импульсном отклике является комплексным и содержит как амплитудную, так и фазовую характеристику системы.

Отметим, что с использованием выражения (9.3.10) можно производить определение частотной характеристики и импульсного отклика системы:

H(f) = Sxz/Sx  h(t).

Дисперсия выходного сигнала может быть определена с использованием формул (9.3.4,9) по функциям корреляции:

 sz 2 = Kz(0) =Sx(f) |H(f)|2 df Kx(0)h2(t) dt = sx2h2(t) dt,          (9.3.11)

Если сигнал нецентрированный и значение дисперсии входного сигнала неизвестно, то по аналогичным формулам вычисляется сначала средний квадрат выходного сигнала или так называемая средняя мощность сигнала:

== Rz(0) h2(t) dt Sx(f) |H(f)|2 df.                      (9.3.12) 

Средняя мощность выходного сигнала равна средней мощности входного сигнала, умноженной на квадрат площади импульсной реакции системы (для цифровых систем - сумму квадратов коэффициентов импульсного отклика). Для центрированных случайных сигналов средняя мощность равна дисперсии сигналов. Для нецентрированных выходных сигналов:

 sz 2 = - 2  (-2)h2(t) dt.                                 (9.3.13)

 Функция когерентности дает оценку точности принятой линейной модели системы. Когерентность входного и выходного сигналов системы оценивается по формуле:

     gxz2(f) = |Sxz(f)|2/[Sx(f)Sz(f)].                                     (9.3.14)

Если функции Sx(f) и Sz(f) отличны от нуля и не содержат дельта-функций, то для всех f значения функции когерентности заключены в интервале:

0   gxz2(f) 1.

Для исключения дельта-функций на нулевой частоте определение функции когерентности производится по центрированным сигналам. Для линейных систем с постоянными параметрами функция когерентности равна 1, в чем нетрудно убедиться, если в формулу (9.3.14) подставить выражения Sxz и Sz, определенные через Sx  в формулах (9.3.9-10). Для совершенно не связанных сигналов функция когерентности равна нулю. Промежуточные между 0 и 1 значения могут соответствовать трем ситуациям:

1. Система осуществляет преобразование x(t) z(t), но в измерениях этих сигналов или одного из них присутствует внешний шум. Так, например в сигналах, зарегистрированных с ограничением по разрядности, появляется шум квантования (округления значений).

2. Система не является строго линейной. Это может наблюдаться, например, при определенном ограничении по разрядности вычислений в цифровых системах, при накоплении ошибки в рекурсивных системах и т.п.

3. Выходной сигнал z(t) помимо x(t) зависит еще от каких-то входных или внутренних системных процессов.

Величина 1-gxz2(f) задает долю среднего квадрата сигнала z(t) на частоте f, не связанную с сигналом x(t).

Аналогично можно вычислить функцию когерентности двух реализаций x(t) и y(t). Значения функции будут указывать на степень линейной зависимости одной реализации от другой, хотя это и не означает обязательности наличия какой-либо причинно-следственной связи между реализациями. Функция когерентности gxy сохраняется при точных однотипных линейных преобразованиях функций x(t) и y(t), что позволяет производить ее определение не измеряя самих величин x(t) и y(t).

Использование функций когерентности в практических методах анализа случайных данных подробно рассмотрено в работе /л4/.

Преобразования случайных функций.

 Сложение случайных функций. При сложении случайных функций, в общем случае, с произвольными постоянными коэффициентами а и b, и образовании случайной функции суммы

Z(t) = aX(t) + bY(t)

функция математического ожидания процесса Z(t):

 mz(t) = M{Z(t)}= M{aX(t)+bY(t)}= aM{X(t)}+bM{Y(t)}= amx(t)+bmy(t).     (9.3.15)

Ковариационная функция суммы вычисляется аналогично и равна:

Rz(t1,t2) = M{Z(t1)Z(t2)}= M{[aX(t1)+bY(t1)][(aX(t2)+bY(t2)]}=

= M{a2X(t1)X(t2)+b2Y(t1)Y(t2)+ab[X(t1)Y(t2)+Y(t1)X(t2)]} =

                                       = a2Rx(t1,t2)+b2Ry(t1,t2)+ab[Rxy(t1,t2)+Ryx(t1,t2)].                    (9.2.16)

Для некоррелированных функций X(t) и Y(t) функции взаимной ковариации Rxy и Ryx обнуляются. Аналогичную форму записи имеют и корреляционные функции (как частный случай ковариационных функций при центрировании случайных процессов). Выражения легко обобщаются  на сумму любого числа случайных функций. В частности, для ковариационной функции стационарной случайной функции Z(t) = aiXi(t) при t2-t1 = t  имеем:

   Rz(t) = ai2Rxi(t) +aiajRxixj(t).                            (9.3.16')

При сложении случайной функции X(t) с неслучайной функцией y(t) математическое ожидание и ковариационная функция суммы Z(t)=X(t)+y(t) равны:

   mz(t) = mx(t) + y(t),    Rz(t1,t2) = Rx(t1,t2).                         (9.3.17)

При сложении случайной функции X(t) с некоррелированной случайной величиной Y математическое ожидание и ковариационная функция суммы Z(t)=X(t)+Y:

       mz(t) = mx(t) + my,        Rz(t1,t2) = Rx(t1,t2) + Dy.                     (9.3.18)

Произведение случайной и неслучайной функций X(t) и f(t). Математическое ожидание и ковариационная функция выходного сигнала:

         mz(t) = M{Z(t)}= M{f(t)X(t)}= f(t)M{X(t)}= f(t)mx(t).                 (9.3.19)

   Rz(t1,t2)=M{f(t1)X(t1) f(t2)X(t2)}= f(t1)f(t2)M{X(t1)X(t2)}= f(t1)f(t2)Rx(t1,t2).    (9.3.20)

Если f(t) = const = C и Z(t) = CX(t), то соответственно имеем:

   mz(t) = Сmx(t),  Rz(t1,t2) = С2Rx(t1,t2).                             (9.3.21)

 Производная от случайной функции  Z(t) = dX(t)/dt. Если функция X(t) является непрерывной и дифференцируемой, то математическое ожидание производной:

      mz(t) = M{Z(t)} = M{dX(t)/dt} = d(M{X(t)})/dt = dmx(t)/dt,             (9.3.22)

т.е. математическое ожидание производной от случайной функции равно производной от ее математического ожидания. Для ковариационной функции имеем:

Rz(t1,t2) = M{(dX(t1)/dt1)(dX(t2)/dt2)}=M{X(t1)X(t2)}= Rx(t1,t2),    (9.3.23)

т.е. ковариационная функция производной случайной функции равна второй смешанной частной производной от ковариационной функции исходной случайной функции.

 Интеграл от случайной функции  Z(t) =X(v)dv.

  mz(t) = M{Z(t)} = M{X(v)dv} = M{X(v)}dv = mx(v)dv,     (9.3.24)

т.е. математическое ожидание интеграла от случайной функции равно интегралу от ее математического ожидания. Для ковариационной функции имеем:

Rz(t1,t2) = M{X(t1)dt1X(t2)dt2} = M{X(t1)X(t2)dt1dt2} =

     = M{X(t1)X(t2)}dt1dt2] =  Rx(t1,t2)dt1dt2,                       (9.3.25)

т.е. ковариационная функция интеграла от случайной функции равна двойному интегралу от ковариационной функции исходной случайной функции.

 Преобразования стационарных случайных функций выполняются по вышеприведенным формулам и приводят к следующим результатам (вместо ковариационных функций приводятся корреляционные функции, которые обычно используются на практике).

 Математическое ожидание выходного сигнала Z(t) входной стационарной случайной функции X(t) по (9.3.2):

          mz = h(t) * mx = mxh(t) dt,                                   (9.3.26)

Отсюда следует, что математическое ожидание выходных сигналов системы равно математическому ожиданию входных сигналов, умноженному на площадь (или сумму коэффициентов) импульсного отклика системы, т.е. на коэффициент усиления системой постоянной составляющей. Если система не пропускает постоянную составляющую сигналов (площадь или сумма коэффициентов импульсного отклика системы равна нулю), то случайный выходной сигнал всегда будет иметь нулевое математическое ожидание.

 Сумма двух стационарных случайных функций X(t) и Y(t) дает стационарную случайную функцию Z(t), при этом:

   mz = mx + my,     Dz = Dx + Dy + 2Kxy(0).                        (9.3.27)

       Kz(t1,t2) = Kz(t) = Kx(t) + Ky(t) + Kxy(t) + Kyx(t).                  (9.3.28)

 Сумма стационарной случайной и неслучайной функций X(t) и y(t) нестационарна по математическому ожиданию:

       mz(t) = mx + y(t),       Kz(t) = Kx(t).                              (9.3.29)

 Произведение стационарной случайной и неслучайной функций X(t) и y(t) - нестационарная случайная функция, так как:

        mz(t) = y(t)mx,     Dz(t) = y2(t)Dx.                              (9.3.30)

     Kz(t,t) = y(t)y(t+t)Kx(t).                                      (9.3.31)

 Производная от стационарной случайной функции - стационарная случайная функция с математическим ожиданием mz = 0 и корреляционными функциями:

      Kz(t1,t2) = Kx(t1-t2) = -Kx(t) = Kz(t).                       (9.3.32)

         Kzx(t) = d(Kx(t))/dt, Kxz(t) = -d(Kx(t))/dt.                           (8.3.33)

Из выражения (9.3.32) следует также, что для дифференцируемости X(t) необходимо, чтобы ее корреляционная функция была дважды дифференцируемой по t.

 Интеграл от стационарной случайной функции - нестационарная случайная функция с математическим ожиданием mz(t) =mx(t)dt и функцией корреляции:

       Kz(t1,t2) =Kx(u1-u2) du1du2.                                     (9.3.34)

9.4.  Модели случайных сигналов и помех  [л33,л4].

Наиболее распространенными моделями случайных сигналов и помех являются телеграфный сигнал, белый шум, гауссовский случайный процесс, гауссовский шум.

Рис. 9.4.1. Телеграфный сигнал.

 Телеграфный сигнал - это случайный процесс xk(t), представляющий собой  последовательность прямоугольных положительных и отрицательных импульсов со случайными длительностями и детерминированными значениями амплитуд c и -с, причем перемены знака внутри любого интервала (t, t+t) происходят с интенсивностью a в случайные моменты времени и не зависят от процессов в смежных временных интервалах. Если считать случайной величиной телеграфного сигнала значение n - количество перемен знака внутри интервала t, то распределение  вероятностей значений n будет описываться законом Пуассона:

P(n) = (a|t|)2 exp(-a|t|)/n!                                     (9.4.1)

Рис. 9.4.2.  Функция ковариации сигнала.

 При вычислении ковариационной функции телеграфного сигнала каждое отдельное произведение xk(t)xk(t+t) равно либо с2, либо -с2 в зависимости от совпадения или несовпадения знаков xk(t) и xk(t+t), причем вероятность с2 равна сумме вероятностей Р(0)+Р(2)+Р(4)+..., а вероятность -с2 определяется соответственно суммой вероятностей Р(1)+Р(3)+Р(5)+... .

Следовательно:

Rx(t) = M{xk(t)xk(t+t)}= c2(-1)nP(n) =

     = c2 exp(-a|t|)(-1)n(a|t)n/n! = c2 exp(-2a|t|).                    (9.4.2)

Параметр a полностью определяет корреляционные и спектральные свойства телеграфного сигнала. При a 0 характеристики сигнала приближаются к характеристикам постоянной составляющей, при a    - к характеристикам белого шума.

Интервал корреляции сигнала:

       Tk = 2(Rx(t)/c2) dt = 2/a.                                     (9.4.3)

Отсюда следует, что чем больше a, тем меньше время корреляции процесса. При a  0  Tk    и процесс вырождается в детерминированный (стремится к постоянной составляющей). При a    Tk  0 и процесс вырождается в белый шум с некоррелированными отсчетами даже на соседних временных точках.

Рис. 9.4.3. Спектр сигнала.

Двусторонняя спектральная плотность сигнала:

Sx(w) = Rx(t) exp(-jwt) dt = ac2/(a2+w2).              (9.4.4)

Односторонняя спектральная плотность:

Gx(w) = 2Rx(t) exp(-jwt) dt = 2ac2/(a2+w2).      (9.4.5)

Ширина спектра телеграфного сигнала:

Bk =Gx(w) dw/Gx(0) Sx(w) dw/Sx(0) = ap.   (9.4.6)

Отсюда следует, что спектр случайного процесса тем шире, чем меньше интервал корреляции процесса.

 Белый шум является стационарным случайным процессом x(t) с постоянной спектральной плотностью Gx(f) = s2, равной дисперсии значений x(t). Другими словами, все спектральные составляющие белого шума имеют одинаковую энергию (как белый цвет содержит все цвета видимого спектра).

По своему физическому смыслу спектральная плотность - это мощность процесса, которая приходится на 1 Гц полосы частот. Но тогда идеального белого шума на практике не может существовать, так как для него должно было бы выполняться условие:

Rx(0) = Gx(f) df = (s2/2)d(0) = ,                                 (9.4.7)

т.е. мощность белого шума и его дисперсия равны бесконечности, а значения шума не коррелированны для любых |t| 0, так как ковариационная функция представляет собой идеальный дельта-импульс. Тем не менее многие помехи в радиотехнике, в технике связи и в других отраслях рассматривают как белый шум, если выполняется следующее соотношение между шириной спектров полезных сигналов и шумов

Bk.сигнал/Bk.шум << 1,

и спектральная плотность шумов слабо изменяется в интервале спектра сигнала.

Рис. 9.4.4. Функции ковариации белого шума в частотном интервале 0-В.

Если частотный диапазон спектра, на котором рассматриваются сигналы и помехи, равен 0-В, то спектральная плотность шума задается в виде:

Gx(f) = s2,  0 f B;  Gx(f) = 0,  f > B,         (9.4.8)

при этом ковариационная функция шума определяется выражением:

Rx(t) = s2Bsin(2pBt) / 2pBt.            (9.4.9)

Эффективная шумовая ширина спектра:

Bk = Rx(0)/Gx(f)max = B.                    (9.4.10)

Эффективное шумовое время корреляции:

Tk = 2|Rx(t)|dt /Rx(0).                                               (9.4.11)

Реальное шумовое время корреляции целесообразно определить по ширине главного максимума функции Rx(t), в котором сосредоточена основная часть энергии шумов, при этом Tk = 1/В и BkTk = 1, т.е. соотношение неопределенности выполняется.

Как следует из всех этих выражений и наглядно видно на рис. 9.4.4, при ограничении частотного диапазона в шумах появляется определенная корреляция между значениями и чем меньше частотный диапазон шумов, тем больше их радиус корреляции. По существу, ограничение частотного диапазона шумов определенным диапазоном эквивалентно фильтрации белого шума частотным фильтром с соответствующей шириной полосы пропускания, при этом, в полном соответствии с выражением (9.3.7), ковариационная функция импульсного отклика фильтра переносится на шум.

 Гауссовский шум возникает при суммировании статистически независимых белых шумов и имеет следующую функцию ковариации:

Rx(t) = a exp(-2ps2t2).                                         (9.4.12)

Спектральная плотность шумов:

    Sx(f) = (a/s) exp(-f2/2s2),    - < f < .                          (9.4.13)

Эффективные шумовые ширина спектра и время корреляции:

 Bk = s/2 = 1.25s,      Tk = 1/s= 0.4/s.                        (9.4.14)

Соотношение неопределенности превращается в равенство:  BkTk = 1/2.  

 Гауссовские случайные процессы преобладают в практических задачах. Случайный процесс x(t) называется гауссовским, если для любого набора фиксированных моментов времени tn случайные величины x(tn) подчиняются многомерному нормальному распределению. Плотность вероятностей мгновенных значений x(t) эргодического гауссовского процесса определяется выражением:

  p(x) = (sx)-1 exp(-(x-mx)2/2s2).                              (9.4.15)

Среднее значение и его оценка по достаточно большому интервалу Т:

mx = xp(x) dx,         mx (1/T)x(t) dt.

 При нулевом среднем (или при центрировании функции x(t) для упрощения расчетов) дисперсия не зависит от t и равна:

sx2 =x2 p(x) dx.

Оценка дисперсии при больших Т:

sx2  (1/T)x2(t) dt =Sx(f) df = 2Sx(f) df =Gx(f) df.         (9.4.16)

Следовательно, плотность вероятностей гауссовского процесса полностью характеризуется спектральной плотностью, по которой можно определить значение дисперсии процесса. На вид спектральных плотностей и соответствующих им корреляционных функций никаких ограничений не накладывается.


Тема 10:
ОПТИМАЛЬНЫЕ ЛИНЕЙНЫЕ ФИЛЬТРЫ.

Как много дел считалось невозможными, пока они не были осуществлены.

Гай Плиний Секунд (философ).

Специалисты в науке подобны старателям. Стоит одному найти крупинку золота, как другие выроют в этом месте котлован. А тема оптимальности, это вообще золотое Эльдорадо, можно копать в любом направлении.

Володя Старцев (Геофизик).

Содержание: 10.1. Модели случайных процессов и шумов. Белый шум. Фильтрация белого шума. 10.2. Критерии построения оптимальных фильтров. Среднее квадратическое отклонение. Амплитудное отношение сигнал/шум. Энергетическое отношение сигнал/шум. 10.3. Фильтр Колмогорова-Винера. Условие оптимальности фильтра. Система линейных уравнений фильтра. Частотная характеристика фильтра. Эффективность фильтра. 10.4. Оптимальные фильтры сжатия сигналов. Частотная характеристика. Условие оптимальности. 10.5. Фильтр прогнозирования. 10.6. Фильтр обнаружения сигналов. Частотная характеристика. Система линейных уравнений. Эффективность фильтра. Согласованный фильтр. Обратный фильтр. 10.7. Энергетический фильтр. Критерий оптимальности. Расчет векторов операторов фильтров. Литература.

10.1.  Модели случайных процессов и шумов /л12/.

Результаты практических измерений, подлежащие обработке, содержат определенный полезный сигнал на фоне различного рода помех (шумов), при этом спектр помех в общем случае недетерминирован и в той или иной мере представлен по всему интервалу главного частотного диапазона. Другими словами, спектр полезного сигнала наложен на спектр шумов. В этих условиях ставится задача реализации так называемых оптимальных фильтров, которые, в зависимости от своего конкретного назначения, позволяют достаточно надежно производить обнаружение сигнала, наилучшим образом выделять сигнал на фоне помех или в максимальной степени подавить помехи без существенного искажения сигнала.

Случайные процессы и шумы описываются функциями автокорреляции и спектрами мощности. Модели случайных процессов (сигналов) с заданными статистическими характеристиками обычно получают фильтрацией белого шума.

Белый шум q(t) можно представлять как случайную по времени (аргументу) последовательность дельта - импульсов d(ti) со случайными амплитудными значениями ai:

        q(t) = Si aid(t-ti),                                                (10.1.1)

которая удовлетворяет условиям статистической однородности: постоянное среднее число импульсов в единицу времени и статистическая независимость появления каждого импульса от предыдущих. Такой поток импульсов, который называют пуассоновским, является некоррелированным и имеет равномерный спектр мощности:

Rq(t) = c2d(t),          Wq(w) = c2,

где с2 = Nsa2,  N - число импульсов на интервале Т реализации случайного процесса, sa2 -дисперсия амплитуд импульсов.

Фильтрация белого шума. Если на входе фильтра с импульсным откликом h(t) действует белый шум q(t), то сигнал на выходе фильтра:

  g(t) = h(t) * q(t) = h(t) *aid(t-ti) =ai h(t-ti),                         (10.1.2)

т.е. выходной сигнал будет представлять собой последовательность сигналов импульсной реакции фильтра h(t) с амплитудой ai, при этом автокорреляционная функция и спектр мощности выходного потока также становятся подобными ФАК и спектру мощности импульсной реакции фильтра и в первом приближении определяются выражениями:

   Rg(t)N da2 Rh(t) = c2 Rh(t),                                             (10.1.3)

        Wg(w) N da2 |H(w)|2 = c2 |H(w)|2.                                         (10.1.4)

Этот результат известен как теорема Кэмпбелла.

10.2. Критерии построения оптимальных фильтров.

В практике обработки геофизических данных используются три основных критерия построения оптимальных фильтров: минимум среднего квадратического отклонения профильтрованного сигнала от его действительного или заданного значения, максимум отношения сигнал/шум и максимум энергетического отношения сигнал/шум на выходе фильтра. При анализе и синтезе фильтров используется аддитивная модель входного сигнала: x(k) = s(k)+q(k), где s(k) - полезная составляющая сигнала, q(k) - составляющая помех. Синтез оптимальных фильтров производится с максимальным использованием известной априорной информации как о сигналах, которые необходимо выделить, так и о шумах и помехах. Как правило, используется информация о природе полезного сигнала и шума, об их спектральном составе, о корреляционных и взаимно корреляционных характеристиках. Наличие определенных особенностей (различий) в характеристиках сигнала и шума позволяет реализовать фильтр вообще и оптимальный фильтр в частности. Если такие особенности отсутствуют, постановка задачи становится некорректной.

В геофизической практике априорные данные о полезных сигналах, как правило, являются достаточно определенными, особенно для активных методов геофизики (сейсмические методы, электроразведка на переменном токе, индукционные методы ядерной геофизики и пр.). Определение характеристик действующих помех представляет собой более сложную проблему, но даже при полной неопределенности можно допустить, что помеха является нормальным стационарным процессом с нулевым средним значением.

Среднее квадратическое отклонение. При наличии помех абсолютно точное выделение полезного сигнала методами линейной фильтрации, как правило, невозможно. Результат фильтрации

    y(k) = h(n) * x(k-n)                                                (10.2.1)

отличается от s(k) на величины e(k) = y(k)-s(k), которые являются абсолютными значениями погрешности воспроизведения полезного сигнала по координатам k. Качество фильтра оценивается средним значением квадрата величины e(k):

    .                                                 (10.2.2)

Во многих задачах обработки геофизических данных не требуется восстановления исходной формы сигнала s(k), т.к. в процессе его дальнейшей обработки осуществляется преобразование сигнала s(k) в сигнал z(k), форма которого может быть более удобной для извлечения (измерения) каких-либо информационных параметров сигнала (например - амплитудного значения, ширины сигнала на половине максимального значения и т.п.). В этом случае оптимальный фильтр может проектироваться непосредственно на получение выходного сигнала z(k). Качество таких фильтров, получивших название формирующих, оценивается средним значением квадрата величины e(k) получения сигнала заданной формы:

    .                                               (10.2.2')

Выражения (10.2.2) дают возможность определить значения h(k) фильтра по критерию минимума среднего квадратического отклонения выходного сигнала от его действительной или заданной формы. Еще раз отметим, что данный критерий исходит из вероятностно - статистической модели экспериментальных данных и хорошо себя показал при обработке геофизических данных, но его возможности могут быть ограничены при количественной интерпретации геофизических аномалий.

Амплитудное отношение сигнал/шум. При постановке задачи обнаружения (установления факта наличия) в экспериментальных данных сигнала известной формы для проектирования фильтра используется, как правило, критерий максимума пикового отношения сигнал/шум на выходе фильтра:

rа = yэкс/s,

где yэкс - экстремальное (максимальное или минимальное) значение амплитуды сигнала, s - средний квадратический уровень амплитудных значений помех (s2 - дисперсия помех). Если в полезном сигнале отсутствует четко выраженный экстремум, а сам сигнал достаточно протяженный по аргументу (что обычно имеет место в геофизической практике), то в качестве критерия используется отношение средних квадратов амплитуд сигнала и шума:

     ,                                                    (10.2.3)

где y2 - средний квадрат амплитуды сигнала в пределах его формы.

Энергетическое отношение сигнал/шум. При узко конкретной задаче обнаружения сигнала степень искажения самого сигнала может не ограничиваться. Если кроме обнаружения сигнала, как основной цели обработки данных, ставится и задача оценки его формы, то в этом случае для проектирования фильтра обычно используется критерий максимума энергетического отношения сигнал/шум:

     r = Еsy/Eqh,                                                   (10.2.4)

где Е и Eqh - энергия соответственно сигнала и шума на выходе фильтра.

10.3.  Фильтр Колмогорова-Винера.

Условие оптимальности фильтра. Подставим (10.2.1) в выражение (10.2.2') и получим среднее квадратическое отклонение e2 формы выходного сигнала y(k) = h(n)*x(k-n) от оптимальной формы z(k) по всем точкам массива данных (в частном случае z(k) = s(k)):

              .                               (10.3.1)

Минимум функции (10.3.1) определяет значения коэффициентов h(n) оптимального фильтра. Для нахождения их значений продифференцируем выражение (10.3.1) по коэффициентам фильтра и приравняем полученные уравнения нулю. В итоге получаем:

       ,

где  - корреляционная функция входного сигнала, - взаимная корреляционная функция сигналов z(k) и x(k). Отсюда:

     hnR(m-n) = B(m),    n = m = 0,1,2, ... , M.                 (10.3.2)

В краткой форме записи:

    h(n)*R(m-n) = B(m).                                               (10.3.3)

Другими словами, свертка функции отклика фильтра с функцией автокорреляции входного сигнала должна быть равна функции взаимной корреляции входного и выходного сигналов.

Система линейных уравнений фильтра. Выражение (10.3.2) может быть записано в виде системы линейных уравнений - однострочных равенств левой и правой части для фиксированных значений m. С учетом четности функции автокорреляции:

 m=0: hoR(0)+ h1R(1)+ h2R(2)+ h3R(3)+ ...+ hMR(M)    = B(0),

 m=1:  hoR(1)+ h1R(0)+ h2R(1)+ h3R(2)+ ...+ hMR(M-1) = B(1),

 m=2:  hoR(2)+ h1R(1)+ h2R(0)+ h3R(1)+ ...+ hMR(M-2) = B(2),

 ..............................................................................................................

 m=M: hoR(M)+ h1R(M-1)+ h2R(M-2)+ .... + hMR(0)      = B(M).

Решение данной системы уравнений относительно значений hi дает искомый оператор фильтра.

Отметим, что R(i) = Rs(i)+Rq(i), где Rs - функция автокорреляции сигнала, Rq - функция автокорреляции шума, а B(i) = Bzs(i)+Bzq(i), где Bzs - функция взаимной корреляции сигналов z(k) и s(k), Bzq - функция взаимной корреляции сигнала z(k) и помех q(k). Подставляя данные выражения в (10.3.3), получаем:

      h(n)*[Rs(m-n)+Rq(m-n)] = Bzs(m)+Bzq(m).                            (10.3.4)

Частотная характеристика фильтра находится преобразованием Фурье левой и правой части уравнения (10.3.4):

H(w)[Ws(w)+Wq(w)] = Wzs(w)+Wzq(w),

         H(w) = [Wzs(w)+Wzq(w)] / [Ws(w)+Wq(w)],                        (10.3.5)

где Ws(w) Rs(m) и Wq(w) Rq(m) - энергетические спектры сигнала и помех, Wzs(w) Bzs(m) - взаимный энергетический спектр входного и выходного сигналов, Wzq(w) Bzq(m) - взаимный энергетический спектр выходного сигнала и помех.

В геофизической практике обычно имеет место статистическая независимость полезного сигнала, а, следовательно, и сигнала z(k), от шумов, при этом Bzq = 0 и фильтр называют оптимальным по сглаживанию шумов при заданной форме выходного сигнала:

      H(w) = Wzs(w) / [Ws(w)+Wq(w)],                                  (10.3.6)

Если при этом заданная форма сигнала z(k) совпадает с формой полезного сигнала s(k), то B(m) = Bss = Rs и фильтр называют фильтром воспроизведения полезного сигнала:

      H(w) = Ws(w) / [Ws(w)+Wq(w)],                                   (10.3.7)

Эффективность фильтра. Из выражений (10.3.5-7) наглядно видно, что с позиции минимального искажения полезного сигнала при максимальном подавлении шумов фильтр Колмогорова-Винера эффективен в тем большей степени, чем больше отношение сигнал/шум на входе фильтра. В пределе, при Wq(w)<<Ws(w) имеем H(w)Þ 1 и фильтр воспроизводит входной сигнал без искажений. Отметим также, что помеха, коррелированная с полезным сигналом, как это следует из (10.3.5), используется фильтром для повышения точности воспроизведения сигнала. С другой стороны, при Wq(w)>>Ws(w) имеем H(w) Þ 0 и сигнал будет сильно искажен, но никакой другой фильтр лучшего результата обеспечить не сможет.

Если сигнал, подлежащий воспроизведению, не относится к числу случайных и представляет собой какую-либо детерминированную функцию, то Ws(w) = |S(w)|2.

10.4. Оптимальные фильтры сжатия сигналов.

Частотная характеристика идеального фильтра, осуществляющего сжатие сигнала s(k) к дельта-функции, определяется выражением:

       H(w) = 1/S(w) = S*(w) / |S(w)|2,                                       (10.4.1)

где S*(w) - комплексно сопряженный спектр полезного сигнала. На выходе такого фильтра имеем:

Y(w) = H(w)X(w)  → 1, при X(w) → S(w).

Реализация фильтра возможна только при условии S(w) > 0 на всех частотах в главном частотном диапазоне. В противном случае, при S(wi) → 0, H(wi) → ∞ и фильтр становится неустойчивым. Для исключения возможности такого  явления в фильтр (10.4.1) вводится стабилизатор a:

    H(w) = S*(w) / [|S(w)|2+a],                                       (10.4.2)

где |S(w)|2+a > 0 во всем частотном диапазоне.

Условие оптимальности. Фильтр сжатия сигнала может быть получен с использованием уравнения (10.3.3).

Положим, что z(k)=d(k) при статистической независимости сигнала и шума. Отсюда:

Bsz(m) = d(m) * s(k+m) = s(-m).

h(n) * (Rs(m-n)+Rq(m-n)) = s(-m).

        H(w) = S*(w) / (|S(w)|2+Wq(w)).                                  (10.4.3)

Сравнение выражений (10.4.2) и (10.4.3) показывает, что оптимальной величиной стабилизатора a является значение спектральной плотности помех. При некоррелированной помехе с дисперсией s2 система уравнений для определения значений коэффициентов h(n):

   ho(R(0)+s2)+ h1R(1)+ h2R(2)+ h3R(3)+ ...+ hMR(M)     = s(0),

 hoR(1)          + h1R(0)+ h2R(1)+ h3R(2)+ ...+ hMR(M-1) = 0,

 hoR(2)          + h1R(1)+ h2R(0)+ h3R(1)+ ...+ hMR(M-2) = 0,

 .  .  .  .  .  .  .  .  .  .  .  .  .

 hoR(M)        + h1R(M-1)+ h2R(M-2)+ ....... + hMR(0)      = 0.

При расчете коэффициентов фильтра значение s(0) обычно принимается равным 1.

Фильтры деконволюции могут использоваться не только для повышения разрешающей способности данных, но и для количественной интерпретации геофизических данных, если формирование полезного входного сигнала удовлетворяет принципу суперпозиции данных по зависимости от искомых параметров.

10.5. Фильтры прогнозирования.

Если в правой части уравнения (10.3.3) желаемым сигналом задать входной сигнал со сдвигом на величину kDt, то при этом B(m) = R(m+k) и уравнение принимает вид:

    h(n) * R(m-n) = R(m+k).                                        (10.5.1)

При k > 0 фильтр называется фильтром прогнозирования и вычисляет будущие значения сигнала по его предшествующим значениям. При k < 0 фильтр является фильтром запаздывания. Реализация фильтра заключается в решении соответствующих систем линейных уравнений для каждого заданного значения k. Фильтр может использоваться для интерполяции геофизических полей, в том числе в наперед заданные точки, а также для восстановления утраченных данных.

10.6. Фильтр обнаружения сигналов.

Фильтр используется при решении задач обнаружении сигналов известной формы на существенном уровне шумов, значение которых соизмеримо и может даже превышать значения сигналов. В процессе фильтрации необходимо только зафиксировать наличие сигнала в массиве данных, если он там присутствует (а может и не присутствовать), при этом сохранения формы сигнала не требуется. Сама форма сигнала полагается известной либо по теоретическим данным (путем решения прямых задач геофизики или при активном воздействии на геологическую среду сигналами известной формы с учетом соответствующей реакции среды), либо по результатам предшествующих измерений на моделях или на аналогичных средах. Для уверенного обнаружения сигнала фильтр должен обеспечить максимально возможную амплитуду выходного сигнала над уровнем помех и соответственно выполняется на основе критерия максимума пикового отношения сигнал/помеха.

Частотная характеристика. Для расчета фильтра требуется задать известную форму полезного сигнала s(k) S(w) и функцию автокорреляции или спектр мощности помех Rq(m) Wq(w). Полный входной сигнал принимается по аддитивной модели: x(t) = s(t)+q(t). На выходе проектируемого фильтра h(n) H(w) для составляющих выходного сигнала имеем:

y(t) =  H(w) S(w) exp(jwt) dw,                              (10.6.1)

s2 = |H(w)|2 Wq(w) dw,                                          (10.6.2)  

где s - средняя квадратическая амплитуда выходной помехи. Значения (10.6.1, 10.6.2) используются для задания критерия максимума отношения сигнал/шум (10.2.3) для произвольной точки ti:

         r = [y(ti)]2/d2.                                                   (10.6.3)

Исследование функции (10.6.3) на максимум показывает, что он достигается при частотной характеристике фильтра:

   H(w) = exp(-jwti) S*(w) / Wq(w),                                    (10.6.4)

Без потери общности можно принять ti=0:

  H(w) = S*(w)/Wq(w) = |S(w)|exp(jjs(w)) / Wq(w).                   (10.6.5)

При переходе во временную (координатную) область:

  H(w)Wq(w) = S*(w)  h(n) * Rq(n-m) = s(-m).                        (10.6.6)

Система линейных уравнений для расчета фильтра:

  hoRq(0)+ h1Rq(1)+ h2Rq(2)+ h3Rq(3)+ ...+ hMRq(M)   = S(-M),

   hoRq(1)+ h1Rq(0)+ h2Rq(1)+ h3Rq(2)+ ...+ hMRq(M-1)= S(-M+1),

   hoRq(2)+ h1Rq(1)+ h2Rq(0)+ h3Rq(1)+ ...+ hMRq(M-2)= S(-M+2),

 .  .  .  .  .  .  .  .  .  .  .  .  .

 hoRq(M)+ h1Rq(M-1)+ h2Rq(M-2)+  ..... + hMRq(0)     = S(0).

Эффективность фильтра. Из выражения (10.6.5) можно видеть, что фильтр имеет максимальный коэффициент передачи на частотах доминирования сигнала и минимальный коэффициент передачи на частотах доминирования помех. Кроме того, фазовая характеристика фильтра j(w) = -js(w) обеспечивает синфазность всех частотных составляющих выходного сигнала и соответственно максимальную его амплитуду в заданный момент времени ti = 0:

y(0) S(w) H(w) =  =  .

Отметим также, что коэффициент передачи фильтра тем больше и эффективность его работы тем выше, чем больше различия в форме частотных спектров сигнала и шумов. Для постоянной формы спектров сигнала и шума любой другой фильтр уступает данному фильтру, как по пиковому, так и по энергетическому отношению сигнал/шум на выходе фильтра.

Согласованный фильтр. При помехах типа белого шума Wq(w) = s2 и H(w) = S*(w)/s2. Множитель 1/s2 не влияет на отношение сигнал/помеха и может быть опущен. Частотная характеристика фильтра определяется только спектром сигнала, при этом:

     h(n) = s(-n).                                                (10.6.7)

Фильтр получил название согласованного (по частотной характеристике со спектром сигнала). Он мало эффективен при коротком импульсном или длинном гармоническом сигнале.

Обратный фильтр. Допустим, что помеха имеет такой же частотный состав, что и полезный сигнал, т.е.:

Wq = s2|S(w)|2.

Выделение полезного сигнала в таких условиях весьма сомнительно. Тем не менее, определим оптимальный фильтр:

        H(w) = S*(w) / [s2|S(w)|2] = 1 / [s2S(w)].                           (10.6.8)

Выражение (10.6.8) с точностью до постоянного множителя соответствует фильтру сжатия сигнала. Но если согласованный фильтр и фильтр сжатия рассматривать в качестве предельных случаев при полной неопределенности характеристики помех, то в качестве модели помех можно принять их суперпозицию:

Wq = a2|S(w)|2+b2.

Подставляя это выражение в (10.6.5), с точностью до множителя получаем:

         H(w) = S*(w) / [|S(w)|2+g2],                                        (10.6.9)

где g = b/a - отношение дисперсий шума и сигнала. Фильтр стремится к согласованному при больших g,  и к обратному (фильтру сжатия) при малых.

10.7.  Энергетический фильтр.

Энергетический фильтр максимизирует отношение сигнал/помеха по всей длине фильтра (а не в отдельной точке), и если сигнал по своей протяженности укладывается в окно фильтра, то тем самым обеспечивается оценка формы сигнала. Фильтр занимает промежуточное положение между фильтром воспроизведения сигнала Колмогорова- Винера и согласованным фильтром и требует задания корреляционных функций сигнала и помех. Сигнал может быть представлен и в детерминированной форме с соответствующим расчетом его автокорреляционной функции.

Критерий оптимальности. Энергия сигнала на выходе фильтра:

  Esh = Sk sk2 = Sk (Sn hn sk-n)2 = Sk hk Sn hn Rs(k-n),                  (10.7.1)

где Rs- функция автокорреляции сигнала. В векторной форме:

     Esh = .                                                 (10.7.2)

Аналогично, выражение для энергии помех на выходе:

     Eqh = Sk hk Sn hn Rq(k-n) = ,                               (10.7.3)

где Rq - функция автокорреляции помех. При некоррелированной помехе Eqh = s2.

Подставим (10.7.2, 10.7.3) в выражение (10.2.4):

      r=  / .                                             (10.7.4)

Расчет векторов операторов фильтров. Для определения значений вектора  продифференцируем r по  и приравняем производную к нулю:

.

    .                                                      (10.7.5)

В системе уравнений (10.7.5) неизвестны собственные значения r матрицы  и значения коэффициентов hn, при этом система имеет N+1 ненулевых решений относительно значений r и соответствующих этим значениям векторов . Для определения коэффициентов фильтра приравнивается к нулю и решается относительно r определитель матрицы , после чего максимальное значение rmax подставляется в (10.7.5) и система уравнений решается относительно коэффициентов hi вектора . При фильтрации сигнала вектор обеспечивает выделение первой по мощности главной компоненты сигнала, т.е. составляющей сигнала, которая имеет наибольшую энергию и отношение сигнал/шум. В сложных геофизических полях такая компонента, как правило, соответствует региональному фону.

В принципе, расчет может быть продолжен и для других значений r<rmax и определены значения коэффициентов векторов ,  и т.д., с использованием которых могут выделяться вторая и прочие компоненты сигнала. Наиболее эффективно такой метод используется для разделения сигналов (полей) при некоррелированных помехах. В этом случае корреляционная матрица помех является единичной (единицы по диагонали, остальное - нули) и уравнение (10.7.5) имеет вид:

     .                                                 (10.7.6)

В развернутой форме:

  ho(Rs(0)-r)+ h1Rs(1)+ h2Rs(2)+ h3Rs(3)+ ...+ hMRs(M)    = 0,

   hoRs(1)+ h1(Rs(0)-r)+ h2Rs(1)+ h3Rs(2)+ ...+ hMRs(M-1) = 0,

   hoRs(2)+ h1Rs(1)+ h2 (Rs(0)-r)+ h3Rs(1)+ ...+ hMRs(M-2) = 0,

 .  .  .  .  .  .  .  .  .  .  .  .  .

 hoRs(M)+ h1Rs(M-1)+ h2Rs(M-2)+  ..... + hM (Rs(0)-r)    = 0.

Выражение (10.7.6) при малом уровне шумов позволяет вместо ФАК какого-либо определенного сигнала использовать ФАК непосредственно зарегистрированных данных (поля). Если при этом в зарегистрированных данных кроме помех присутствуют два (и более) сигналов, например, региональный фон и локальная составляющая (аномалия), то расчет векторов hi приобретает конкретный практический смысл: после первой фильтрации оператором  и выделения региональной составляющей, массив данных (исходный или с вычитанием из него региональной составляющей) может быть профильтрован повторно оператором , что позволит выделить и локальную аномалию (и т.д.). Разделение сигналов будет тем надежнее, чем сильнее они отличаются друг от друга по энергии и интервалу корреляции.

В заключение отметим, что расчеты оптимальных фильтров могут производиться с использованием алгоритма Левинсона.


Тема 11:
 АДАПТИВНАЯ  ФИЛЬТРАЦИЯ  ДАННЫХ

Пусть они постараются подчинить себе обстоятельства, а не подчиняются им сами.

Гораций. Послания.  

 (................)

Если в этой теории Вы не увидите смысла, тем лучше. Можно пропустить объяснения и сразу приступить к ее практическому использованию.

Валентин Ровинский. Теория карточных игр.

(Киевский геофизик Уральской школы).

Содержание: 11.1. Введение. 11.2. Основы статистической группировки информации. Предпосылки метода. Задача статистической группировки. Использование априорных данных. Эффективность метода. 11.3. Статистическая регуляризация данных. Проверка теоретических положений метода. Оценка СРД. Результаты моделирования. 11.4. Статистическая группировка полезной информации. Сущность аппаратной реализации. Реализация систем СГПИ. Пример технического исполнения системы СГПИ. Литература.

11.1. Введение.

В традиционных методах обработки данных информация извлекается из входных сигналов линейными системами с постоянными параметрами алгоритмов преобразования данных. Системы могут иметь как конечную, так и бесконечную импульсную характеристику, но передаточная функция систем не зависит от параметров входных сигналов и их изменения во времени.

Адаптивные устройства обработки данных отличаются наличием определенной связи параметров передаточной функции с параметрами входных, выходных, ожидаемых, прогнозируемых и прочих дополнительных сигналов или с параметрами их статистических соотношений. В простейшем случае, адаптивное устройство содержит программируемый фильтр обработки данных и блок (алгоритм) адаптации, который на основании определенной программы анализа входных, выходных и прочих дополнительных данных вырабатывает сигнал управления параметрами программируемого фильтра. Импульсная характеристика адаптивных систем также может иметь как конечный, так и бесконечный характер.

Как правило, адаптивные устройства выполняются узко целевого функционального назначения под определенные типы сигналов. Внутренняя структура адаптивных систем и алгоритм адаптации практически полностью регламентируются функциональным назначением и определенным минимальным объемом исходной априорной информации о характере входных данных и их статистических и информационных параметрах. Это порождает многообразие подходов при разработке систем, существенно затрудняет их классификацию и разработку общих теоретических положений /л38/.

С учетом последнего принцип построения адаптивных систем рассмотрим на конкретном примере – системе адаптивной фильтрации данных непрерывных ядерногеофизических измерений.

11.2. Основы статистической группировки информации.

 Предпосылки метода. Физической величиной, регистрируемой в процессе ядерно-физических измерений в геофизике, обычно является частота импульсных сигналов на выходе детекторов ионизирующего излучения в интегральном или дифференциальном режиме амплитудной селекции. Значения измеряемой величины, как статистически распределенной по своей природе, могут быть определены только путем усреднения числа актов регистрации ионизирующих частиц по интервалам времени. Зарегистрированное количество импульсов определяет статистическую погрешность единичного измерения, а временной интервал усреднения, обеспечивающий нормативную погрешность – их производительность. Для методов с непрерывной регистрацией информации во времени (или в пространстве) временное окно измерений определяет также временную (или пространственную, с учетом скорости перемещения детектора) разрешающую способность интерпретации результатов измерений, при этом эффективность регистрации информации обычно ограничена условиями измерений и/или техническими средствами их исполнения. Типичный пример - каротаж скважин, где возможности увеличения интенсивности потоков информации ограничены параметрами эффективности регистрации и чувствительности детекторов излучения, которые зависят от их типа и размеров. Размеры детекторов, естественно,  существенно зависят от размеров скважинных приборов, которые, в свою очередь, ограничены диаметрами скважин.

Ниже рассматривается возможность повышения точности и производительности непрерывных ядерно-физических измерений, для наглядности, применительно к условиям измерений в варианте скважинного гамма-опробования, хотя в такой же мере она может быть использована в авто- и аэрогаммасъемке, при радиометрическом обогащении руд, в рентгенорадиометрии и других методах ядерной геофизики. Предполагается, что регистрация данных производится в цифровой форме с накоплением отсчета по постоянным интервалам дискретизации данных (по времени и по пространству, при условии постоянной скорости перемещения детектора).

В общем случае полезная (целевая) информация может присутствовать в нескольких энергетических интервалах спектра излучения. Рабочими интервалами измерений обычно считаются участки спектра, где полезная информация присутствует в "чистом" виде либо в смеси с помехами (фоном), значение которых может быть учтено при обработке результатов измерений. Так, например, при гамма-опробовании пород на содержание естественных радионуклидов (ЕРН) регистрируется излучение с энергией более 250-300 кэВ, представленное в основном первичными и однократно рассеянными квантами, плотность потока которых пропорциональна массовой доле ЕРН в породах. Плотность потока излучения в низкоэнергетическом интервале спектра (20-250 кэВ, в основном многократно рассеянное излучение) также зависит от массовой доли ЕРН, но эта зависимость является параметрически связанной с эффективным атомным номером излучающе-поглощающей среды в области детектора, вариации которого по стволу скважины могут приводить к большой погрешности интерпретации результатов измерений. Между тем плотность потока полезной информации (относительно массовой доли ЕРН) в интервале 20-250 кэВ много выше, чем в интервале более 250 кэВ, особенно при регистрации излучения сцинтилляционными детекторами малых объемов, которые имеют повышенную чувствительность именно к низкоэнергетической части спектра излучения.

Задача статистической группировки информации в потоках сигналов в общей и наиболее простой форме может быть сформулирована следующим образом. Полезная информация присутствует в двух статистически независимых потоках сигналов (в двух неперекрывающихся интервалах спектра излучения). В первом потоке сигналов, условно- основном, полезная информация присутствует в "чистом" виде: плотность потока сигналов пропорциональна определяемой физической величине. Во втором потоке, условно-дополнительном, на полезную информацию наложено влияние дестабилизирующих факторов, значение которых неизвестно. При отсутствии дестабилизирующих факторов коэффициент корреляции средних значений плотностей потоков в этих двух потоках сигналов постоянен и близок к 1. Для снижения статистической погрешности измерений требуется осуществить извлечение полезной информации из дополнительного потока сигналов и ее суммирование с основным потоком.

Обозначим потоки, а равно и частоты основного и дополнительного потоков сигналов индексами n и m (импульсов в секунду), связь потоков по частотам индексом х = m/n. Определению подлежит частота потока n. Значение х может изменяться за счет влияния дестабилизирующих факторов на поток m и в общем случае представляет собой случайную величину, распределенную по определенному закону с плотностью вероятностей Р(х), математическим ожиданием , и дисперсией Dx.

На основе теоремы Байеса, плотность вероятностей распределения частоты n по измеренному за единичный интервал t числу отсчетов сигнала N определяется выражением:

PN(n) = P(n) Pn(N) P(N),                                      (11.2.1)

где:     Pn(N) = (nТ)N e-n N! ,                                           (11.2.2)

P(N) =Pn(N) P(n) dn,                                         (11.2.3)

здесь P(n)- априорная плотность вероятностей частоты n, Pn(N)- апостериорное распределение вероятностей числовых отсчетов N (закон Пуассона). Принимая в дальнейшем в качестве искомой величины значения отсчетов z=nt по интервалам t (экспозиция цифровых отсчетов или скользящее временное окно аналоговых данных) и подставляя (2) и (3) в (1), получаем:

   PN(z) = P(z) zN e-z P(z) zN e-z dz.                               (11.2.4)

При неизвестном распределении значений z априорная плотность распределения P(z) принимается равномерной от 0 до , при этом из выражения (11.2.4) следуют общеизвестные выражения:

z = Dz = N+1 N,                                                   (11.2.5)

  z2 = Dz z2 = 1 (N+1) 1N,                                          (11.2.6)

 Значениями единиц в выражениях пренебрегаем, что не только корректно в условиях "хорошей" статистики, но и необходимо в режиме последовательных непрерывных измерений для исключения смещения средних значений.

Как следует из теории гамма-каротажа (ГК) и достаточно хорошо подтверждено практикой гамма-опробования, пространственная разрешающая способность гамма-каротажных измерений при интерпретации результатов ГК на содержание естественных радиоактивных элементов в породах по стволу скважин в среднем составляет 10 см, а в скважинах малого диаметра может даже повышаться до 5-7 см. Однако реализация такой разрешающей способности возможна только в условиях достаточно "хорошей" статистики. Коэффициент усиления дисперсии помех цифровых фильтров деконволюции, которые используются при интерпретации ГК, в среднем порядка 12 и изменяется от 4 до 25 в зависимости от плотности пород, диаметра скважин, диаметра скважинных приборов и пр. Отсюда следует, что для достижения разрешающей способности в 10 см при нормативной погрешности дифференциальной интерпретации не более 10-20 % статистическая погрешность измерений не должна превышать 3-7 %. А это, в свою очередь, определяет объем отсчета за единичную экспозицию не менее 200-1000 импульсов. При гамма-каротаже последнее возможно только для пород с относительно высоким содержанием ЕРН (более 0.001 % эквивалентного урана), при использовании детекторов больших размеров (с эффективностью регистрации более 10 имп/сек на 1 мкР/час) и при низкой скорости каротажа (не более 100-300 м/час). В той или иной мере эта проблема характерна для всех методов ядерной геофизики, и особенно остро стоить в спектрометрических модификациях измерений.

Вместе с тем следует отметить, что процесс непрерывных измерений имеет определенную физическую базу как для применения методов регуляризации результатов интерпретации данных, так и для регуляризации непосредственно самих статистических данных (массивов отсчетов N) при их обработке.

Простейшим способом подготовки цифровых данных для интерпретации является их низкочастотная фильтрация методом наименьших квадратов (МНК) или весовыми функциями (Лапласа-Гаусса, Кайзера-Бесселя и др.). Однако любые методы низкочастотной фильтрации данных снижают пространственную разрешающую способность интерпретации, так как кроме снижения статистических флюктуаций  приводят к определенной деформации частотных составляющих полезной части сигнала,  спектр которого по условиям деконволюции должен иметь вещественные значения вплоть до частоты Найквиста. В определенной мере ликвидировать этот негативный фактор позволяет метод адаптивной регуляризации данных (АРД).

Выражения (11.2.5-6) получены в предположении полной неизвестности априорного распределения P(z) для отсчетов в каждой текущей экспозиции . Между тем, при обработке данных непрерывных измерений, и тем более каротажных данных, которые обычно являются многопараметровыми, для каждого текущего отсчета при обработке данных может проводиться определенная оценка распределения P(z). Как минимум, можно выделить два способа оценки распределения P(z).

Способ 1. По массивам данных параллельных измерений каких-либо других информационных параметров, значения которых достаточно четко коррелированны с обрабатываемым массивом данных либо в целом по пространству измерений, либо в определенном скользящем интервале сравнения данных. К таким массивам относятся, например, предварительные  каротажные измерения в процессе бурения скважин, измерения другим прибором, с другой скоростью каротажа, в другом спектральном интервале излучения,  и даже другим методом каротажа. При гамма-опробовании оценка распределения P(z) может производиться по параллельным измерениям интенсивности потока m в низкочастотном интервале спектра горных пород.

Способ 2. При единичной диаграмме ГК оценка распределения P(z) в каждой текущей точке обработки данных может выполняться по ближайшим окрестностям данной точки, захватывающим более широкий пространственный интервал по сравнению с интервалом отсчетов.

Использование априорных данных. Допустим, что кроме основного массива данных N, подлежащего обработке (подготовке к интерпретации), мы располагаем дополнительным массивом данных M, значения которого в определенной степени коррелированы с массивом N. При отсутствии дополнительных массивов способ 2 позволяет получить массив М обработкой массива N цифровым фильтром МНК (или любым другим весовым фильтром) со скользящим временным окном T = k при к 3 (Mi = mi  сглаженного сигнала mi = ni * hk, где hk – оператор симметричного цифрового фильтра с k – окном). Отметим также, что 2-ой способ всегда может использоваться для регуляризации данных независимо от наличия данных для 1-го метода.

Массив М позволяют дать оценку статистических характеристик распределения P(z). Так, если для тех же интервалов времени    в массиве М имеются отсчеты М = mi (или приведенные к ним отсчеты какого-либо другого параметра), то можно записать:

  PM(z) =,                                  (11.2.7)

где Р(х) – априорная плотность распределения значений  xi = mi/ni, которые в общем случае также могут быть случайными. При равномерном распределении Р(х) от 0 до  для отсчета М равновероятно любое значение z, т.е. эффект от измерений в потоке m отсутствует. Однако по исходным условиям задачи в потоке m обязательно присутствие полезной информации, а, следовательно, и существование, как минимум, определенных границ распределения Р(х) от хmin > 0 до xmax << , и среднего значения  по пространству измерений. При этом из выражения (11.2.7) следует, что наиболее вероятное значение za, "априорное" для отсчетов z=n в потоке n по измерениям в потоке m (отсчетам М), должно быть равно:

za = (M+1)  М.                                           (11.2.8)

 При статистической независимости величин х и М относительная средняя квадратическая погрешность определения значений za по отсчетам в массиве М:

    za2 = M2 + x2.                                                 (11.2.9)

 Отсюда дисперсия распределения значений za:

Dza = (DM+M2x2)2 = D(M) 2,                                  (11.2.10)

D(M) = DM+M2x2 = DM+Dxm ,                                  (11.2.11)

DM = М+1 М,    Dxm = M2x2,

где значение дисперсии DM определяется статистикой отсчетов в массиве М при х = const, значение Dxm представляет собой дисперсию значений М за счет флюктуаций величины х, а сумма D(M) определяет полную дисперсию отсчетов М.

Влияние Р(х) на форму распределения РМ(z) сказывается в его "растягивании" по координате z относительно модального значения, при этом решение интеграла (11.2.7) в первом приближении может быть представлено в следующем виде:

   PM(z) be-bz.                                                 (11.2.12)

Для данного распределения:

 = za = ab,                                                        (11.2.13)

  Dza = ab2,                                                          (11.2.14)

 С учетом выражений (11.2.8) и (11.2.10):

     a = MDM(Dza2) = MDMD(M),                                     (11.2.15)

    b = DM(Dza) = DМD(M).                                         (11.2.16)

Значение  'а'  в выражении (11.2.15) принимается целочисленным. Выражение (11.2.12) может быть принято для распределения (11.2.4) в качестве априорного распределения вероятностей Р(z), при этом:

PN(z) = (b+1) e-z(b+1).                            (11.2.17)

 Отсюда, математическое ожидание и дисперсия z:

z = (N+a)(b+1),                                                    (11.2.18)

Dz = (N+a)(b+1)2.                                                 (11.2.19)

C использованием выражений (11.2.15-16):

         z = N+(1-)M,                                                (11.2.20)

где и (1-) – весовые коэффициенты доверия отсчетам N и M:

       = D(M)(DN2+D(M)).                                          (11.2.21)

 Дисперсия и относительная средняя квадратическая погрешность отсчетов z:

     Dz = D(M),                                    (11.2.22)

       z2 =1(N+MDMD(M)).                                             (11.2.23)

Эффективность метода. Сравнение выражений (11.2.20-23) и (11.2.5-6) позволяет дать оценку эффекта использования дополнительной информации из статистически независимого от N потока М (произвольная дополнительная информация).

1. При const имеет место х2 0, Dxm  0 и дисперсия отсчетов в массиве М определяется только статистикой потока:

       D(M) DM = M,   z = (N+M) (+1),

       z2  1(N+M) < N2 = 1N,                                             (11.2.24)

        = N2 z2 = [N+M2D(M)] N 1+MN,

что соответствует определению z по двум независимым измерениям и эффект использования дополнительной информации максимален. Так, при M N,   2 и погрешность измерений уменьшается в ~1.4 раза.

2. В общем случае Dxm  0, при этом D(M) > DМ и положительный эффект снижается. В пределе: x  , Dxm  , D(M)  ,   1, z N, z  N   и положительный эффект полностью вырождается. Во всех остальных случаях > 1 и z < N. Отсюда следует, что при наличии коррелированной информации в массиве М положительный эффект, в той или иной мере, всегда имеет место.

3. Положительный эффект тем больше, чем больше значение x = m/n, меньше флюктуации х (величина х), и меньше значения отсчетов N = n. Положительный эффект увеличивается именно в тех случаях, когда особенно остро ощущается недостаток информации: при малых значениях плотности потока излучения и/или экспозиции измерений.

Аналогичный эффект будет иметь место и при формировании отсчетов Mi по окрестностям текущих точек обработки данных путем определения их среднего значения (низкочастотное сглаживание массива n). Предварительное низкочастотное сглаживание может применяться и для статистически независимого дополнительного массива m, что будет повышать достоверность прогнозных отсчетов и увеличивать глубину регуляризации, если это сглаживание при регуляризации по формулам (11.2.20 и 21) не сказывается на изменении формы основного сигнала. Последнее определяется соотношением частотных спектров основного сигнала и оператора сглаживания.

Возможны два способа реализации уравнения (11.2.20): непосредственно в процессе измерений методом статистической группировки полезной информации (СГПИ) в реальном масштабе времени, или методом статистической регуляризации данных (СРД), зарегистрированных в виде временного (пространственного) распределения в параллельных массивах отсчетов.

11.3. Статистическая регуляризация данных.

Как следует из выражения (11.2.21), для практического использования информации из дополнительных потоков данных необходимо установить значения  и дисперсию D(M), причем, исходя из задания последней по выражению (11.2.11), должно быть известно значение dx - относительной средней квадратической флюктуации величины х.

Применительно к СРД определение значений  и dx по зарегистрированным массивам данных не представляет затруднений как в целом по пространству измерений, так и в виде распределений в скользящем окне усреднения данных. Последнее эквивалентно приведению Dxm => 0 для текущей точки обработки данных по информации ее ближайших окрестностей и позволяет производить максимальное извлечение полезной информации из дополнительных потоков сигналов, если частотный спектр распределения величины х по пространству измерений много меньше частотного спектра полезного сигнала. Отметим, что информация о распределении х также может иметь практическое значение (в частности, при гамма-опробовании с дополнительным потоком сигналов в низкоэнергетическом диапазоне спектра излучения - для оценки эффективного атомного номера горных пород).

Проверка теоретических положений метода АРД проводилась путем статистического моделирования на ПК соответствующих массивов данных и их обработки цифровыми фильтрами.

В таблице 1 приведены 4 группы результатов обработки по формулам (11.2.20-21) двух статистически независимых и постоянных по средним значениям массивов данных n и m (модели постоянных полей) при различных установках СРД по скользящему окну Кс счета текущих значений = mi/ni и Di(М) по массиву m. Текущая точка обработки данных – по центру окна. Количество отсчетов в каждом массиве – 1000, распределение значений отсчетов соответствует закону Пуассона. Определение прогнозных отсчетов Мi по массиву m для использования в уравнении (11.2.20) проводилось со сглаживанием отсчетов в скользящем окне Ks низкочастотного цифрового фильтра (вариант без сглаживания при Ks = 1). В качестве низкочастотного фильтра в алгоритме СРД используется (здесь и в дальнейшем) весовое окно Лапласа-Гаусса. Теоретическое значение Dz.т.  дисперсии результатов z  определялось по выражению (11.2.22) с расчетом дисперсии D(M) по выражению D(M) =[1+(1/(Kc)+1/(Kc))]. При сглаживании прогнозных отсчетов значение DM в выражении (11.2.22) принималось равным DM. = Hs, где Hs – коэффициент усиления сглаживающим фильтром дисперсии шумов (сумма квадратов коэффициентов цифрового фильтра). Дополнительно в таблице приводятся зарегистрированные средние значения коэффициента снижения статистических флюктуаций = n2/z2.

Таблица 1.

Статистика результатов моделирования СРД.

(Основной массив = 9.9, Dn = 9.7, дополнительный массив = 9.9, Dm = 9.9, 1000 отсчетов.)

Kc

Ks

z

Dz

Dz.т.

Kc

Ks

z

Dz

Dz.т.

3

1

9,7

5,7

6,19

1,7

11

3

9,6

3,6

3,80

2,8

5

1

9,7

5,4

5,78

1,8

11

5

9,6

3,3

3,55

3,0

11

1

9,6

5,1

5,36

1,9

11

11

9,6

3,1

3,22

3,2

21

1

9,6

5,0

5,18

2,0

11

21

9,6

3,0

3,11

3,3

51

1

9,6

5,0

5,05

2,0

11

51

9,6

3,0

2,99

3,3

3

3

9,7

4,1

4,71

2,4

3

11

9,8

4,5

4,26

2,2

5

5

9,7

3,6

4,01

2,8

5

11

9,7

3,5

3,78

2,8

11

11

9,6

3,1

3,22

3,2

11

11

9,6

3,1

3,22

3,2

21

21

9,6

2,9

2,91

3,4

21

11

9,6

3,1

3,12

3,2

51

51

9,6

2,7

2,66

3,7

51

11

9,6

3,1

2,99

3,2

Как видно из данных таблицы, практические результаты фильтрации достаточно хорошо совпадают с ожидаемыми по данным теоретических расчетов. Некоторое уменьшение среднего значения z по отношению к исходному среднему значению n определяется асимметричностью пуассоновского типа модели. При малых средних значениях модельных отсчетов в массиве m это приводит к  определенной статистической асимметрии в работе СРД, т.к. при (+m)2 > (-m)2 среднестатистическое доверие к дополнительной информации с отсчетами Mi+ меньше, чем с отсчетами Mi-. Этим же фактором, по-видимому, вызвано и большее расхождение между теоретическими и фактическими значениями Dz при малых значениях окна Кс.  Можно также заметить, что по значению коэффициента   фильтрация выходит на теоретические значения ( 1+MN) только при достаточно точном определении значений  и Di(М), что требует увеличения окна Кс счета этих параметров для полного использования дополнительной информации.

Таблица 2.

Эффект использования дополнительной информации, в полном соответствии с выражением (11.2.22), усиливается при предварительном сглаживании статистических вариаций отсчетов Mi  и при увеличении значений отсчетов дополнительного массива (материалы по последнему случаю не приводятся, т.к. не имеют какой-либо дополнительной информации). В спокойных по динамике полях еще большая глубина регуляризации может быть достигнута при счете значений  и Dm по сглаженному массиву М, что позволяет повысить вес прогнозных отсчетов Mi. Результаты моделирования данного варианта в тех же условиях, что и для таблицы 1, приведены в таблице 2. Такой же эффект, в принципе, может достигаться и непосредственным введением дополнительного коэффициента веса в выражение (11.2.20) в качестве множителя для значения D(M), что позволяет осуществлять внешнее управление глубиной регуляризации.

Оценка СРД по сохранению разрешающей способности полезной информации была проведена на фильтрации детерминированных сигналов n и m предельной формы – в виде прямоугольных импульсов. Оценивались два фактора: сохранение формы полезного сигнала и подавление статистических шумов, наложенных на полезный сигнал.

При установке СРД без усреднения данных по массиву М (Кs = 1, прогноз Мi по текущим значениям массива М) при любых значениях окна Кс выходной массив Z без всяких изменений повторяет массив N, т.е. не изменяет полезный сигнал и полностью сохраняет его частотные характеристики. Естественно при условии, что массив М пропорционален массиву N.

При Кs > 1 форма выходных кривых несколько изменяется и приведена на рис. 11.3.1. В индексах выходных кривых z приведена информация по установкам окон СРД: первая цифра - окно счета дисперсии DM и текущего значения (в количестве точек отсчетов), вторая цифра (через флеш) - окно сглаживания отсчетов М весовой функцией Лапласа-Гаусса и определения прогнозных отсчетов Мi. Для сравнения с результатами типовой низкочастотной фильтрации на рисунке приведена кривая n25 отсчетов N, сглаженных весовой функцией Лапласа-Гаусса с окном 25 точек.

Рис. 11.3.1. СРД прямоугольного импульса. Счет Dm по несглаженному массиву М.

На рис. 11.3.1а приведен результат СРД прямоугольного импульса с амплитудным значением 10 на фоне 5 при отношении m/n = 1 (равные значения отсчетов N и М). Дисперсия DN в выражении (11.2.21) принималась равной значению отсчетов N (статистика Пуассона). Как видно на рисунке, при сохранении фронтов сигнальной функции сглаживание прогнозных значений Мi приводит к появлению искажения формы сигнала по обеим сторонам скачка, интервал которого тем больше, чем больше значение Ks. Амплитудное значение искажений, как это и следует из выражения (11.2.21), в первую очередь зависит от  соотношения текущих значений DN и D(M) и в меньшей степени от глубины сглаживания прогнозных отсчетов.

Максимальную величину искажения для точек скачка в первом приближении можно оценить из следующих соображений. Значения D(M) между точками скачка равны D(M) = А2/4, где А - амплитуда скачка, при этом значения коэффициента для нижней и верхней точек скачка определяются выражениями   А2/(4DN+A2), где DN = N точки скачка (для статистики Пуассона). Отсюда, при прогнозном значении М N+А/2 для нижней точки скачка и M N-A/2 для верхней точки относительная величина изменений N определится выражением   1/(2N/A+A), т.е. будет тем меньше, чем больше значения А и N и больше отношение N/A, что можно наглядно видеть на рис. 11.3.1в. Из этого выражения также следует, что максимальные искажения скачков, вносимые системой СРД, будут всегда в несколько раз меньше, чем статистические флюктуации непосредственных отсчетов = 1/на краях скачков.

При увеличении глубины регуляризации введением счета дисперсии D(M) по сглаженному массиву М картина искажений несколько изменяется и приведена на рис. 11.3.2. Реакция СРД на сглаживание дисперсии D(M) проявляется в своеобразной компенсации абсолютных отклонений отсчетов непосредственно по сторонам скачка отклонениями противоположного знака в более дальней зоне от скачка. Максимальные значения искажений остаются примерно на таком же уровне, как и для работы по несглаженной дисперсии D(M), с несколько меньшей зависимостью от увеличения значений N и А.

Рис. 11.3.2. СРД прямоугольного импульса. Счет Dm по сглаженному массиву М.

В приведенных примерах значение окна счета Кс принималось равным значению окна сглаживания Кs дополнительного массива М. При Кс > Ks картина процесса практически не изменяется. При обратном соотношении размеров окон вступает в действие второй фактор - отклонение от фактических значений счета текущих значений xi = m/n в малом окне Кс по массиву отсчетов, сглаженных с большим окном Ks. На расстояниях от скачка функции, больших Кс/2, СРД переходит в режим предпочтения сглаженных значений массива М, т.к. D(M) 0, что при Кс < Ks может приводить к появлению существенной погрешности – выбросов на расстояниях Кс/2 от скачков. Естественно, что при практических измерениях таких условий наблюдаться не будет и эффект резко уменьшится, но для полного его исключения вариант Kc  Ks можно считать предпочтительным.

             Рис. 11.3.3. СРД сигнала N по массиву M.                                      Рис. 11.3.4. Коэффициент b.

             (Счет Dm по несглаженному массиву М).                             (Среднее статистическое по 50 циклам)

На рис. 11.3.3 приведен пример регистрации рандомизированного модельного сигнала в виде прямоугольного импульса амплитудой 40 на фоне 10, на котором виден принцип работы СРД. Как и следовало ожидать, СРД производит сглаживание статистических флюктуаций фона и сигнала за пределами зоны Кс от скачка, отдавая предпочтение сглаженным прогнозным значениям Мi, и не изменяет значения фона и сигнала в пределах этой зоны в связи с резким возрастанием текущих значений D(M) в выражении (11.2.21). Изменение коэффициента в зоне скачка, управляющего формированием выходных отсчетов, приведено на рис. 11.3.4 (среднестатистическое по 50-ти циклам рандомизации для модельного импульса на рис. 11.3.3) и наглядно показывает принцип адаптации СРД к динамике изменения значений обрабатываемых сигналов.

               Рис. 11.3.5. Статистика сигнала N                                     Рис. 11.3.6. Статистика сигнала Z

                  (Измерения по 50-ти циклам).                                  (50 циклов. Счет Dm по несглаженному М)

Статистическая оценка работы СРД по прямоугольным импульсам проводилась  по 50-ти циклам рандомизации исходных массивов N и M. В качестве примера на  рисунках 11.3.5 и 6 приведены результаты обработки статистики массивов N и Z. Кроме статистики циклов рандомизации проводилась суммарная обработка всех циклов по общей статистике фона и вершины импульсов. Результаты обработки для тех же установок фильтров приведены в таблице 3.

Таблица 3.

Статистика значений фона и вершины импульсов (50 циклов).

Массивы и условия обработки

Фон

Сигнал

Сред.отсчет

Дисперсия

Сред.отсчет

Дисперсия

Основной входной массив N

Дополнительный входной массив М

Массив Z, счет Dm по несглаженному М

Массив Z, счет Dm по сглаженному М

Массив N, сглаженный весовым окном

9.96

9,89

9,87

9,84

11,5

9.97

9,49

5,47

4,76

17,9

50,1

50,2

49,7

49,9

48,5

52,0

47,4

22,3

18,6

29,2

Результаты моделирования подтверждают преимущество СРД перед простыми методами сглаживания. В числовой форме это наглядно проявляется в снижении дисперсии отсчетов выходного массива Z при практическом сохранении средних значений массива N и для фоновых отсчетов, и для амплитудных значений сигнала. При простом сглаживании "развал" фронтов сигнала (подавление высокочастотных составляющих спектра сигнала), как и должно быть при использовании низкочастотных фильтров,  вызывает снижение по отношению к исходному массиву средних значений в максимумах и повышение фоновых значений сигнала, которое тем больше, чем больше окно весовой функции. Этот эффект особенно отчетливо проявляется в интервале окна фильтра по обе стороны от резких изменений сигнала.

При отсутствии дополнительных массивов М, коррелированных с регуляризируемым массивом N, формирование прогнозных значений Мi может производиться по ближайшим окрестностям текущих значений Ni в скользящем окне Ks. При строго корректном подходе текущая точка Ni не должна включаться в число счета прогнозных значений Mi, но, как показало моделирование, это практически не влияет на результаты регуляризации. При прогнозировании Mi по всем точкам окна Ks массив М формируется любым методом сглаживания из массива N, и все особенности работы СРД по сглаженным массивам М, рассмотренные выше, остаются без изменений при условии счета значений  Dm в окне Кс по массиву М. Для исключения выбросов по обе стороны от скачков полезного сигнала счет Dm как дисперсии прогнозных значений Mi необходимо выполнять непосредственно по массиву N.

Рис. 11.3.7. СРД одиночного массива N

(3 прохода. Счет Dm по массиву n)

Фундаментальной особенностью СРД является возможность последовательной многократной фильтрации данных, при которой может осуществляться преимущественное повышение степени регуляризации данных с минимальными искажениями формы полезного сигнала. Для выполнения последнего размер окна Кс счета xi и Dm устанавливается минимальным (3-5 точек), а глубина регуляризации данных (степень подавления шумов) устанавливается  количеством последовательных операций фильтрации (до 3-5 проходов). Пример регуляризации модельного массива N в три прохода приведен на рис. 11.3.7. Для сравнения пунктиром на рисунке приведено сглаживание массива 5-ти точечным фильтром Лапласа-Гаусса, который имеет коэффициент подавления шумов, эквивалентный 3-х проходному СРД (см. рис. 11.3.9).

    Рис. 11.3.8. Статистика средних значений                     Рис. 11.3.9. Статистика дисперсий

       (25 циклов. Счет Dm по массиву n)                             (25 циклов. Счет Dm по массиву n)

На рисунках 11.3.8 и 11.3.9 приведены результаты статистической обработки 3-х проходной СРД для 25 циклов моделирования в сравнении с 1-м проходом и с 5-ти точечным фильтром Лапласа-Гаусса (кривая n5).

Количество проходов может ограничиваться в автоматическом режиме, например, по среднеквадратическому значению корректирующих отсчетов zi = Ni - zi в каждом проходе по сравнению с предыдущим проходом, которое сначала резко уменьшается за счет сглаживания флюктуаций, а затем, в зависимости от динамики сигнальной функции, стабилизируется или даже начинает увеличиваться за счет искажения самого сигнала.

        Рис. 11.3.10. Модули спектров модельных сигналов.                       Рис.11.3.11. Участок спектра.

(1– входной массив N, 2– выходной массив Z, один цикл CРД,

3– выходной массив Z,три цикла CРД), 4 – массив нерандомизированного меандра).

Частотное представление работы СРД хорошо видно на рис. 11.3.10, где приведены модули спектров рандомизированного сигнала в виде меандра (средние значения в минимуме - 20, в максимуме - 100, 25 периодов по 40 отсчетов, всего 1000 отсчетов) и результатов его обработки СРД (окно Кс= 3, окно Кs= 3). Модуль спектра основного полезного сигнала (в данном случае чистого меандра) представляет собой последовательность отдельных частотных гармоник по всему диапазону спектра. В спектре рандомизированного меандра эти частотные гармоники суммируются со спектром шума, статистически равномерно распределенным по всему частотному диапазону (спектр шума на рисунке для наглядности сглажен). СРД осуществляет подавление шумовых составляющих сигнала, практически не затрагивая частотных гармоник меандра и не изменяя их по амплитуде. Последнее можно видеть на рис. 11.3.11, где представлен отрезок спектра сигналов в высокочастотной части главного диапазона в области одной гармоники меандра (частотные составляющие шума не сглажены). При 3-х цикловом СРД высокочастотные составляющие шумов подавляются практически на порядок.

Рис. 11.3.12. Диаграммы ГК.

На рис. 11.3.12 и 11.3.13 приведен пример практического использования СРД при опробовании участка скважины, пересекающей пласты каменной соли, на содержание сильвинита по гамма-излучению Калия-40. По данным геологического опробования пласты сильвинита в толще вмещающих пород (галита) имеют достаточно резкие границы и однородны по содержанию сильвинита в пределах пластов. Исходная диаграмма ГК (детектор CsJ(Tl) со свинцовым фильтром толщиной 2 мм) и результаты фильтрации исходного массива данных ГК с использованием СРД и низкочастотного фильтра с весовым окном Лапласа-Гаусса приведены на рис. 11.3.12.

Рис. 11.3.13. Результаты интерпретации диаграмм ГК.

Результаты интерпретации диаграмм ГК симметричным деконволюционным цифровым фильтром (окно 13 точек) приведены на рис. 11.3.13. Как видно на рисунке, деконволюция по несглаженной диаграмме ГК дает существенные вариации содержания сильвинита в пределах пластов. Применение низкочастотной фильтрации диаграммы ГК снимает флюктуации содержания в пределах пластов, но существенно сглаживает границы пластов. Использование СРД позволяет устранить этот недостаток.

В заключение отметим, что СРД может использоваться для регуляризации не только ядернофизических данных, но и любых других числовых массивов непрерывных измерений, если радиус их корреляции не менее 3-5 отсчетов. В качестве примера на рис. 11.3.14 приведена диаграмма акустического каротажа, зарегистрированная с шагом дискретизации данных 20 см, сглаживание которой проведено СРД без потери пространственного разрешения.

Рис. 11.3.14. Диаграмма акустического каротажа и результат ее обработки СРД

(5 циклов, Kc = Ks = 3, физическое окно 0.6 м).

11.4. Статистическая группировка полезной информации.

Что касается аппаратных способов реализации СГПИ, то он может быть выполнен в реальном масштабе времени, если информация представлена потоком импульсов и основным информативным параметром является скорость следования импульсов.

Сущность аппаратной реализации заключается в статистической (близкой к статистической) нормированной выборке импульсов из дополнительного потока  m и их суммировании с основным потоком n с заданием условий выборки по отношению частоты следования импульсов в потоках. Полагая для непрерывного режима измерений M+1 = М, перепишем выражение (5.2.20) с подстановкой значения b в следующем виде:

z = N + (M/-N)·M/(M+D(M)).                              (11.4.1)

Умножим левую и правую части выражения на нормировочный коэффициент размножения выходного потока K = l+R:

  Z = K·z= N + RN+(M/-N)·KM/(M+D(M).                     (11.4.2)

Заменим отсчеты RN выборкой сигналов из потока m:

    RN = РвМ,                                                         (11.4.3)

где Рв - вероятность выборки сигналов из потока m. Если вероятность выборки сигналов поддерживать равной значению

     Pв = R/,                                                         (11.4.4)

то при этом будет иметь место

M/-N = РвM/R-N 0,                                      (11.4.5)

и соответственно для выражения (11.4.2) имеем:

(M/-N)·KM/(M+D(M) 0,                      (11.4.6)

Z = N+PвM N+RN.                                            (11.4.7)

При статистической независимости величины х от частоты потоков n и m приведенные выражения действительны при определении значения  как в целом по пространству измерений, так и для скользящих окон текущих значений по определенным интервалам предшествующих измерений. Действительно и обратное заключение: если по определенному интервалу измерений выражение (11.4.5) обращается в нуль, то установленная вероятность выборки соответствует условию (11.4.4). На этом принципе может проводиться аппаратная реализация СГПИ с автоматической адаптацией к условиям измерений: управление процессом выборки импульсов из потока m и направление их на суммирование с потоком n по сигналам обратной связи с устройства, следящего за обращением в нуль выражения (11.4.5).

Отметим особенности аппаратной реализации СГПИ с автоматической адаптацией под условия измерений.

Значение вероятности выборки Рв не может быть больше 1. Отсюда из (11.4.3) следует, что для любых интервалов измерений должно выполняться условие М ≥ RN, а соответственно по всему пространству измерений должно выполняться условие  ≥ R, чем и обуславливается выбор коэффициента R. Значение коэффициента R принципиально ограничивает степень положительного эффекта СГПИ (kmax  1+R), в отличие от СРД, где такого ограничения не имеется.

Относительная статистическая погрешность измерений выходного потока отсчетов Z соответствует выражению (11.2.23) при условии постоянного значения величины Рв, т.е. при установке значения Рв по среднему значению величины  в целом по пространству измерений. При автоматической адаптации под условия измерений значение вероятности Рв по текущему среднему значению отношения n/m определенного предшествующего интервала измерений также является статистически флюктуирующей величиной с дисперсией распределения (без учета изменений действительного значения х):

Dp = R2(n+m)n/(m3T),                                           (11.4.8)

где Т- интервал усреднения информации при определении текущего значения . Соответственно, дисперсия и средняя квадратическая погрешность текущих отсчетов Z:

      Dz = DN+ PвDM+M2Dp = N+РвМ+М2Dр,                              (11.4.9)

dz2 = (N+РвМ+М2Dр)/(NвМ)2.                                    (11.4.10)

При постоянной экспозиции измерений t положительный эффект возрастает с увеличением значения Т:

    k = K2/(K+R2(n+m)t/mT).                                          (11.4.11)

 kmax  1+R,   dz2  1/(NвМ) при Т  .                          (11.4.12)

В общем случае, с учетом средней квадратической ошибки прогнозирования dxi значений xi для текущих точек измерений по значениям  в предшествующих интервалах при Т > t:

 Dz = NвМ+M2(Dp+Pв2 dxi2).                                       (11.4.13)

Формирование значения Рв на основе информации по средним значениям  интервалов измерений, предшествующих текущим, определяет СГПИ как динамическую систему с соответствующей постоянной времени реакции на изменение условий измерений. Учитывая, что, во-первых, для любой точки пространства измерений должно выполняться условие m > nR, и, во-вторых, увеличение интервала Т приводит к возрастанию времени реакции на изменение условий измерений, значение Т целесообразно ограничивать величиной порядка (5-10) значений текущих экспозиций. Чем меньше пространственная частота распределения х по отношению к распределению n, тем большее значение Т допустимо.

Реализация систем СГПИ значительно облегчается при  чисто практическом ограничении целевой задачи: получение максимального положительного эффекта в экстремально неблагоприятных условиях производства измерений (при низких значениях регистрируемой плотности потока излучения, при высокой скорости измерений) с вырождением положительного эффекта по мере снижения статистической погрешности измерений в основном потоке. Так, например, если при скважинном гамма-опробовании статистическая погрешность измерений основного потока сигналов в зонах с повышенной интенсивностью излучения снижается до 2-3%, то ее дальнейшее уменьшение не имеет практического смысла, т.к. основная погрешность каротажной радиометрической аппаратуры обычно не превышает 5%.

Использование данного целевого ограничения позволяет применить формирование параметра Рв не в скользящем окне временного или пространственного усреднения информации, а по определенному зарегистрированному объему предшествующей информации, т.е. с автоматической вариацией интервала усреднения информации и постоянной регулирования Pв в зависимости от частоты потоков сигналов, при этом объем информации формирования Pв может задаваться с учетом характера вариаций величины  и допустимого значения динамической погрешности измерений.

Для реализации такой возможности преобразуем выражение (11.4.5) по интервалу усреднения t к виду:

Pвmt/R-nt+Q = q,                                                (11.4.14)

Pв = nR/m = q/m,                                                 (11.4.15)

q Q при t  ,

где Q- средний уровень смещения числового эквивалента сигнала обратной связи системы АРВ - автоматического регулирования вероятности выборки Рв,  при котором обеспечивается выполнение равенства (11.4.15), m- коэффициент пропорциональности преобразования цифрового сигнала АРВ в сигнал Рв. Дифференциальное уравнение для системы АРВ:

dq/dt = n-mq/mR.                                                (11.4.16)

Решение дифференциального уравнения при начальных условиях t = 0 и q = О (переходная функция АРВ):

q = mR(n/m) [l-exp(-mt/mR)].                             (11.4.17)

Pв = R(n/m) [l- exp(-mt/mR)] = R(n/m) [1- exp(-nt/q)].            (11.4.18)

Как видно из этих выражений, значение сигнала обратной связи АРВ пропорционально отношению (n/m) частот потоков, а постоянная времени АРВ mR/m прямо пропорциональна значению коэффициента преобразования m при обратной пропорциональности от значения частоты дополнительного потока m, равно как и, с учетом (11.4.15), прямо пропорциональна текущему значению сигнала обратной связи q при обратной пропорциональности от значения частоты основного потока n. Первое полностью эквивалентно второму при (n/m) const и q = mRn/m Q. В первом приближении, с использованием выражения (11.4.8) и эквивалентности значения статистических флюктуаций при Т≈2t для скользящего прямоугольного временного окна и окна интенсиметра с экспоненциальной переходной функцией, для относительных флюктуации значения Рв получаем:

dр2 = (n+m)/(2mRn)= (n+m)/(2qm).                    (11.4.19)

Выражение действительно для прямого измерения 2t-интенсиметром отношения (n/m) и является максимальной оценкой. Для более точной оценки следует учитывать, что в данном случае интенсиметр является устройством с отрицательной обратной связью по цепи АРВ, что несколько уменьшает значение флюктуации. Точная оценка может быть проведена с использованием формулы Кэмпбелла для дисперсии случайной величины x(t), образованной сложением импульсов пуассоновского потока [5], раздельно для потока n при m = const и потока m при n = const, с последующим сложением квадратов относительного среднего квадратического значения флюктуации. Так, для схемы, приведенной ниже, получено значение dр2 ≈ (R+1)m/(2mnR2).

При выбранном для пространства измерений значении коэффициента R ≤ (m/n)min с использованием выражения (11.4.19) параметры системы АРВ (коэффициент m и среднее значение Q для средней по пространству величины отношения n/m) могут устанавливаться под заданное значение допустимых флюктуаций вероятности выборки импульсов Рв:

   m ≤ (l+(m/n)max)/(2Rdp2).                               (11.4.20)

В процессе измерений АРВ осуществляет непрерывную адаптацию под текущие условия измерений (nt  q, mt  mR, Pв  q/m) с регулированием текущего значения Pв по объему информации q = (n/m)mR = nt предшествующего интервала измерений путем соответствующего изменения постоянной времени интегрирования этой информации в зависимости от изменения частот потоков сигналов. При n/m   const последнее имеет абсолютный характер: dр  const, t  (l/n + l/m)/(2dp2 ).

Следует отметить, что во многих методах геофизики существуют достаточно благоприятные условия использования как СГПИ, так и СРД. Так, например, применительно к скважинному гамма-опробованию с извлечением дополнительной информации из низкоэнергетической части спектра излучения условия достаточно точной реакции на изменения параметра  по стволу скважины являются весьма хорошими, т.к. основной фактор вариации значений x - эффективный атомный номер среды, изменяется в небольшом диапазоне с низкой пространственной частотой вариаций, причем в зонах расположения активных пород, где требуется наиболее высокая точность интерпретации результатов измерений и возможны значительные изменения атомного номера пород, за счет увеличения плотностей потоков излучения постоянная времени АРВ будет существенно уменьшаться, а пространственная разрешающая способность измерений соответственно увеличиваться. Аналогичные условия характерны, как правило, и для других методов ядерной геофизики.

Рис. 11.4.1. Базовая функциональная схема СГПИ.

1- реверсивный счетчик импульсов, 2- блок формирования сигнала выборки импульсов, 3- схема выборки импульсов, 4- счетчик-делитель частоты на R, 5- блок суммирования потоков импульсов.

Пример технического исполнения системы СГПИ для двух импульсных потоков сигналов приведен на рис. 11.4.1. Функциональная схема СГПИ содержит реверсивный счетчик импульсов 1, на вход суммирования которого подаются импульсы основного потока n, а на вход вычитания - импульсы дополнительного потока m, предварительно проходящие через схему выборки импульсов 3 и счетчик-делитель частоты следования импульсов 4 с коэффициентом пересчета R.

Информация о состоянии счетчика 1 (сигнал q) с выходов счетчика подается на блок формирования сигнала выборки импульсов 3. В простейшем случае этот блок может представлять собой пороговое устройство (по коду числа Q), открывающее схему 3, однако выборка в этом случае имеет характер, близкий к статистическому, только при достаточно малых различиях частоты потоков n и m/R (порядка n<m/R<1.5n). По мере роста отношения m/n независимость выборки от импульсов потока n в такой схеме вырождается и требуются дополнительные устройства адаптации под текущие условия измерений. В общем случае блок 3 выполняется в виде пересчетной схемы с регулируемым коэффициентом пересчета импульсов потока m в интервале 0<Рв<1 по значению кода q с выхода счетчика 1 (например, с использованием статистических пересчетных схем, выполненных в виде генератора случайных кодов со схемой формирования сигнала выборки очередного импульса из потока m путем сравнения на больше-меньше текущих кодов с выхода счетчика 1 и с выхода генератора кодов).

Импульсы основного потока n и импульсы выборки из потока m, частота которых равна Рвm = R·n, поступают на вход блока 5 суммирования потоков сигналов. Интенсивность потока импульсов на выходе блока 5 равна z = nвm = (1+R)n. Блок 5 может содержать пересчетную схему с коэффициентом K=(1+R), при этом выходной поток будет приводиться к масштабу основного потока n и появляется возможность синхронного переключения коэффициентов пересчета схем 4 и 5 под различные условия измерений, при этом установка оптимального значения коэффициента R может быть переведена в режим автоматической с управлением по текущему значению (в определенном интервале) информационного кода схемы 1. Альтернативное решение - подача на вход суммирования схемы 5 потока импульсов с выхода схемы 4, при этом частота потока z будет всегда в 2 раза больше потока n.

Попутно отметим, что при выводе информации q = mR(n/m) в цифровом коде со счетчика 1 данная схема может выполнять функции универсального цифрового интенсиметра: средней частоты импульсов (n-var, m-const от генератора тактовой частоты), среднего временного интервала между импульсами (m-var, n-const) и отношения частот n/m двух статистически распределенных потоков импульсов.

литература

л1. Антонью А.  Цифровые фильтры: анализ и проектирование. – М.: Радио и связь, 1983. – 320 с.

л2. Баскаков С.И.  Радиотехнические цепи и сигналы: Учебник для вузов. - М.: Высшая школа, 1988.- 448 с.

л3. Бат М.  Спектральный анализ в геофизике. - М.: Недра, 1980.- 535 с.

л4. Бендат Дж., Пирсол А.  Прикладной анализ случайных данных. – М.: Мир, 1989. – 540 с.

л5. Блейхут Р.  Быстрые алгоритмы цифровой обработки сигналов. – М.: Мир, 1989. – 448 с.

л6. Вычислительная математика и техника в разведочной геофизике: Справочник геофизика. – М.: Недра, 1990. – 498 с.

л7. Гольденберг Л.М. и др.  Цифровая обработка сигналов: Справочник. - М.: Радио и связь, 1985.- 312 с.

л8. Гольденберг Л.М. и др.  Цифровая обработка сигналов: Учебное пособие для вузов. - М.: Радио и связь, 1990.- 256 с.

л9. Гутников В.С.  Фильтрация измерительных сигналов. – Л.: Энергоатомиздат, 1990. – 192 с.

л10. Даджион Д., Мерсеро Р.  Цифровая обработка многомерных сигналов. – М.: Мир, 1988. – 488 с.

л11. Дмитриев В.И.  Прикладная теория информации: Учебник для студентов вузов. - М.: Высшая школа., 1989.- 325 с.

л12. Канасевич Э.Р.  Анализ временных последовательностей в геофизике. - М.: Недра, 1985.- 300 с.

л13. Клаербоут Д.Ф.  Теоретические основы обработки геофизической информации с приложением к разведке нефти. – М.: Недра, 1981. – 304 с.

л14. Кулханек О.  Введение в цифровую фильтрацию в геофизике. – М.: Недра, 1981. – 198 с.

л15. Купер Дж., Макгиллем А.  Вероятностные методы анализа сигналов и систем. – М.: Мир, 1989. – 376 с.

л16. Макс Ж.  Методы и техника обработки сигналов при физических измерениях: В 2-х томах. - М.: Мир, 1983.

л17 Марпл-мл. С.Л.  Цифровой спектральный анализ и его приложения. – М.: Мир, 1990. – 584 с.

л18. Никитин А.А.  Теоретические основы обработки геофизической информации: Учебник для вузов. - М.: Недра, 1986.- 342 с.

л19. Оппенгейм А.В., Шафер Р.В.  Цифровая обработка сигналов. – М.: Связь, 1979. – 416 с.

л20. Отнес Р., Эноксон Л.  Прикладной анализ временных рядов. – М.: Мир, 1982. – 428 с.

л21. Рабинер Л., Гоулд Б.  Теория и применение цифровой обработки сигналов. – М.: Мир, 1978. – 848 с.

л22. Рапопорт М.Б.  Вычислительная техника в полевой геофизике: Учебник для вузов. - М.: Недра, 1993.- 350 с.

л23. Сиберт У.М.  Цепи, сигналы, системы. – М.: Мир, 1988. – 336 с.

л24. Хемминг Р.В.  Цифровые фильтры. – М.: Недра, 1987. – 221 с.

л25. Лосев А.К. Линейные радиотехнические цепи: Учебник для вузов. - М.: Высшая школа, 1971. - 560 с.

л26. Васильев Д.В. Радиотехнические цепи и сигналы: Учебное пособие для вузов. - М.: Радио и связь, 1982. - 528 с.

л27. Зиновьев А.Л., Филиппов Л.И. Введение в теорию сигналов и цепей: Учебное пособие для вузов. - М.: Высшая школа, 1975. - 264 с.

л28. Севостьянов Б.А. Курс теории вероятностей и математической статистики. - М,: Наука, 1982. - 256 с.

л29. Коваленко И.Н., Филиппова А.А. Теория вероятностей и математическая статистика: Учебное пособие. - М.: Высшая школа, 1982. - 256 с.

л30. Худсон Д., Статистика для физиков. - М.: Мир, 1970. - 296 с.

л31. Гурский Е.И. Теория вероятностей с элементами математической статистики: Учебное пособие для вузов. - М.: Высшая школа, 1971.- 328 с.

л32. Вероятностные методы в вычислительной технике: Учеб. пособие для вузов / А.В.Крайников и др. - М.: Высшая школа, 1986. - 312 с.

л33. Игнатов В.А. Теория информации и передачи сигналов. - М.: Советское радио, 1979.

л34. Дьяконов В., Абраменкова И. MATLAB. Обработка сигналов и изображений. Специальный справочник. – СПб.: Питер, 2002, 608 с.

л35. Астафьева Н.М. Вейвлет-анализ: Основы теории и примеры применения. / Успехи физических наук, 1996, т.166, № 11, стр. 1145-1170.

л36. Дремин И.Л. и др. Вейвлеты и их использование. / Успехи физических наук, 2001, т.171, № 5, стр. 465-501.

л37. Петухов А.П. Введение в теорию базисов всплесков. – СПб.: Изд. СПбГТУ, 1999, 132 с.

л38. Адаптивные фильтры. /Под ред. К.Ф.Н.Коуэна и П.М.Гранта. – М.: Мир, 1988, 392 с.




1. на тему Алкоголизация населения в России Выполнила- стка гр
2. блуда не раскаивается в содеянном а целый год твердит о своей любви о том как у него совпало как он п
3. статья Г. К. КОСИКОВА МОСКВА прогресс
4. ТЕМА 5 Многотерминальные системы прообраз сети
5. Реферат- Сезанн Поль
6. Кризис образования в контексте глобальных проблем
7. Принципы научного управления
8. Контрольная работа- Тенденции и особенности формирования и использования интеллектуального капитала в Украине
9. Вариант 0. Используется с бланками ответов Часть А
10. то раз тете надо было уже идти в ночную смену но брата все не было мол он со мной должен посидеть
11. Тематика дипломных работ Разработка предложений по использованию интернеттехнологий в государственн
12. Психология творческой деятельности
13. Были описаны способы преобразования схем с помощью которых в ряде случаев удаётся упростить расчёт разветв
14. Михаил Константинович Сидоров - видный общественный деятель Сибири
15. Ульяновский электромеханический колледж г
16. реферат дисертації на здобуття наукового ступеня кандидата сільськогосподарських наук.2
17. Бюджетная обеспеченность ~ отношение доходов местного бюджета к численности населения
18. 1 Місцезнаходження лісництва ДП ldquo;Овруцький спецлісгоспrdquo; розташований в північносхідній частин
19. заработная плата.
20. Современная концепция сбалансированного питания разрабатывалась российскими учеными под руководством а