Будь умным!


У вас вопросы?
У нас ответы:) SamZan.net

Лабораторная работа 2 Энтропия сложной системы

Работа добавлена на сайт samzan.net: 2016-03-30

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 21.5.2024

МИНИСТЕРСТВО ОБРАЗОВАНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ

СИБИРСКАЯ АЭРОКОСМИЧЕСКАЯ АКАДЕМИЯ

ИМЕНИ АКАДЕМИКА М. Ф. РЕШЕТНЕВА

Теория информации

           Для студентов специальности «Автоматизированные системы обработки информации и управления»

МЕТОДИЧЕСКИЕ УКАЗАНИЯ К ЛАБОРАТОРНЫМ РАБОТАМ

Лабораторная работа №2

«Энтропия сложной системы. Условная энтропия»

Влияние помех в канале связи описывается канальной матрицей, с помощью условных вероятностей P(Y/X) и P(Х/Y), где X – источник информации, Y – приемник информации.

  1.  Провести исследование канала информации со стороны источника информации и со стороны приемника информации.

По результатам исследования определить:

  1.  Потери информации Н(Y/xi), которые приходятся на каждый хi сигнал и потери Н(Y/X) при передаче всех сигналов х.
  2.  Потери информации Н(Х/уi), которые приходятся на каждый уi сигнал и потери Н(Х/Y) при передаче всех сигналов.

Исходные данные:

Р(уi /xi) и Р(xi/ уi) получить из матрицы совместных вероятностей, размером 10x10, которую задать самостоятельно.

  1.  Определить энтропию Н(Х,Y) двухбуквенного сочетания и условную энтропию Н(Y/X) заданного текстового сообщения.

Х – 32-х буквенный алфавит

Y – 32-х буквенный алфавит

Теоретическая часть:

Понятие условной энтропии в теории информации используется при определении взаимозависимости между символами кодируемого алфавита, для определения потерь при передаче информации по каналам связи, при вычислении энтропии объединения.

При вычислении условной энтропии используются условные вероятности.

Предположим что есть 2 независимых системы Х и У. Предположим что система Х приняла состояние Хi. Обозначим символом Р(Уj /Xi) – условную вероятность того,  что система У принимает состояния Уj  при условии что система Х находится в состоянии Xi.

Тогда частную условную энтропию системы можно определить следующим образом:

Различают понятия частной и общей условной энтропии.

Общая условная энтропия сообщения В относительно сообщения А характеризует количество информации, содержащееся в любом символе алфавита, и определяется усреднением по всем символам, т.е. по всем состояниям с учетом вероятности появления каждого из состояний, и равна сумме вероятностей появления символов алфавита на неопределенность, которая остается после того, как адресат принял сигнал.

Через специальную функцию:

Через математическое ожидание, где МхI – математическое ожидание случайной величины при наступлении события xI

Понятие общей и частной условной энтропии широко используется при вычислении информационных потерь в каналах связи с шумами.

В общем случае, если мы передаем m сигналов А и ожидаем получить m сигналов В, влияние помех в канале связи полностью описывается канальной матрицей

Вероятности, которые расположены по диагонали, определяют правильный прием, остальные — ложный. Значения цифр, заполняющих колонки канальной матрицы, обычно уменьшаются по мере удаления от главной диагонали и при полном отсутствии помех все, кроме цифр, расположенных на главной диагонали, равны нулю.

Если описывать канал связи со стороны источника сообщений, то прохождение данного вида сигнала в данном канале связи описывается распределением условных вероятностей вида р(bj/аi).

Потери информации, которые приходятся на долю сигнала а описываются при помощи частной условной энтропии Суммирование производится по j, так как i-е состояние (в данном случае первое) остается постоянным.

Чтобы учесть потери при передаче всех сигналов по данному каналу связи, следует просуммировать все частные условные энтропии, т. е. произвести двойное суммирование по i и по j. При этом в случае равновероятных появлений сигналов на выходе источника сообщений

В случае неравновероятного появления символов источника сообщений следует учесть вероятность появления каждого символа, умножив на нее соответствующую частную условную энтропию.

Полную энтропию можно определить следующим образом:

или:

Величина Н(У/Х) характеризует степень неопределенность системы У после того как состояние системы Х полностью определилось

Величину Н(У/Х) называют полной условной энтропией системы У относительно системы Х.

Энтропия объединения используется для вычисления энтропии совместного появления статистически зависимых сообщений.

Если две системы Х и У объединяются в одну, то энтропия объединенной системы равна энтропии одной из ее составляющих частей плюс условная энтропия второй части относительно первой.

В частном случае когда системы независимы имеем:

В общем случае:  

Энтропия сложной системы достигает максимума, когда ее составные части независимы.




1. Происхождение и эволюция органического мира
2. Free
3. Статистические методы изучения кредитных операций коммерческих банков
4. прикладного мистецтва Рівненщини та окресліть їх внесок в культурну палітру Рівненщини
5. устранение различных дефектов они могут быть врождёнными или приобретёнными возникать вследствие поврежд
6. Доклад- Казань.html
7. Бизнес-план кофейни
8. Региональные проблемы социальной политики
9. Тема 54.3.1 Внешняя политика в 20е гг
10. КОНТРОЛЬНАЯ РАБОТА 1 Вариант 16 По предмету- Волоконнооп
11. Принтери та сканери
12. Курсовая работа- Право власності на землю
13. реферата Используй слова и фразы в своем рефератепо указанной выше структуре
14. Кодекс Российской Федерации об административных правонарушениях
15. Оценка в системе антикризисного управления
16.  Логистика на предприятии ЛОГИСТИКА наука о планировании реализации и контроле эффективных и экономных
17. на тему ВСЕОБЩИЕ И ОБЩЕНАУЧНЫЕ МЕТОДЫ НАУЧНОГО ИССЛЕДОВАНИЯ Выполнил-
18. Гипар бетіндегі орналасќан l тїзудін жетіспейтін проекциясын аныќтаныз беттін аныќтаушысыѕ жазыныз
19. длина волны рентгеновского излучения;угол дифракции; hkl индексы Миллера для плоскостей решеток
20. Билл КаулитцВильгельм Каулитц21 Стефани Трюмпер Девид Йост Девид Шварц Георг Листинг АнисБушидо28 Рэ