Будь умным!


У вас вопросы?
У нас ответы:) SamZan.net

Лабораторная работа 2 Энтропия сложной системы

Работа добавлена на сайт samzan.net: 2016-06-20

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 19.5.2024

МИНИСТЕРСТВО ОБРАЗОВАНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ

СИБИРСКАЯ АЭРОКОСМИЧЕСКАЯ АКАДЕМИЯ

ИМЕНИ АКАДЕМИКА М. Ф. РЕШЕТНЕВА

Теория информации

           Для студентов специальности «Автоматизированные системы обработки информации и управления»

МЕТОДИЧЕСКИЕ УКАЗАНИЯ К ЛАБОРАТОРНЫМ РАБОТАМ

Лабораторная работа №2

«Энтропия сложной системы. Условная энтропия»

Влияние помех в канале связи описывается канальной матрицей, с помощью условных вероятностей P(Y/X) и P(Х/Y), где X – источник информации, Y – приемник информации.

  1.  Провести исследование канала информации со стороны источника информации и со стороны приемника информации.

По результатам исследования определить:

  1.  Потери информации Н(Y/xi), которые приходятся на каждый хi сигнал и потери Н(Y/X) при передаче всех сигналов х.
  2.  Потери информации Н(Х/уi), которые приходятся на каждый уi сигнал и потери Н(Х/Y) при передаче всех сигналов.

Исходные данные:

Р(уi /xi) и Р(xi/ уi) получить из матрицы совместных вероятностей, размером 10x10, которую задать самостоятельно.

  1.  Определить энтропию Н(Х,Y) двухбуквенного сочетания и условную энтропию Н(Y/X) заданного текстового сообщения.

Х – 32-х буквенный алфавит

Y – 32-х буквенный алфавит

Теоретическая часть:

Понятие условной энтропии в теории информации используется при определении взаимозависимости между символами кодируемого алфавита, для определения потерь при передаче информации по каналам связи, при вычислении энтропии объединения.

При вычислении условной энтропии используются условные вероятности.

Предположим что есть 2 независимых системы Х и У. Предположим что система Х приняла состояние Хi. Обозначим символом Р(Уj /Xi) – условную вероятность того,  что система У принимает состояния Уj  при условии что система Х находится в состоянии Xi.

Тогда частную условную энтропию системы можно определить следующим образом:

Различают понятия частной и общей условной энтропии.

Общая условная энтропия сообщения В относительно сообщения А характеризует количество информации, содержащееся в любом символе алфавита, и определяется усреднением по всем символам, т.е. по всем состояниям с учетом вероятности появления каждого из состояний, и равна сумме вероятностей появления символов алфавита на неопределенность, которая остается после того, как адресат принял сигнал.

Через специальную функцию:

Через математическое ожидание, где МхI – математическое ожидание случайной величины при наступлении события xI

Понятие общей и частной условной энтропии широко используется при вычислении информационных потерь в каналах связи с шумами.

В общем случае, если мы передаем m сигналов А и ожидаем получить m сигналов В, влияние помех в канале связи полностью описывается канальной матрицей

Вероятности, которые расположены по диагонали, определяют правильный прием, остальные — ложный. Значения цифр, заполняющих колонки канальной матрицы, обычно уменьшаются по мере удаления от главной диагонали и при полном отсутствии помех все, кроме цифр, расположенных на главной диагонали, равны нулю.

Если описывать канал связи со стороны источника сообщений, то прохождение данного вида сигнала в данном канале связи описывается распределением условных вероятностей вида р(bj/аi).

Потери информации, которые приходятся на долю сигнала а описываются при помощи частной условной энтропии Суммирование производится по j, так как i-е состояние (в данном случае первое) остается постоянным.

Чтобы учесть потери при передаче всех сигналов по данному каналу связи, следует просуммировать все частные условные энтропии, т. е. произвести двойное суммирование по i и по j. При этом в случае равновероятных появлений сигналов на выходе источника сообщений

В случае неравновероятного появления символов источника сообщений следует учесть вероятность появления каждого символа, умножив на нее соответствующую частную условную энтропию.

Полную энтропию можно определить следующим образом:

или:

Величина Н(У/Х) характеризует степень неопределенность системы У после того как состояние системы Х полностью определилось

Величину Н(У/Х) называют полной условной энтропией системы У относительно системы Х.

Энтропия объединения используется для вычисления энтропии совместного появления статистически зависимых сообщений.

Если две системы Х и У объединяются в одну, то энтропия объединенной системы равна энтропии одной из ее составляющих частей плюс условная энтропия второй части относительно первой.

В частном случае когда системы независимы имеем:

В общем случае:  

Энтропия сложной системы достигает максимума, когда ее составные части независимы.




1. splio 15 d Ptvirtinu kd ~teikims drbs ldquo;Prezidento instituto JV ir Lietuvoje lyginimsrdquo; yr- tlikts svrnkiki ir n~r pteikts kitm kursui ime r nkstesniuose semestruo
2. Производственно- хозяйственная система, как основа формирования экономических отношений.html
3. теория фирмы и управление процессами глубоких изменений на предприятии ЙОХАННЕС РЮЭГГШТЮРМпрофессор
4.  Знакомство с клиентом и начало беседы
5. Курсовая работа- Использование ERP-решений в конкурентном бизнесе (на примере сферы сервисного обслуживания и аренды оборудования)
6. Тема 13 Загальні відомості про технологічне обладнання для ТО і ремонту автомобілів 1
7. РЕФЕРАТ дисертації на здобуття наукового ступеня кандидата технічних наук КИЇВ 1999 Дисертацією є
8. Гіппій Більший перший період творчості Платон розглядає багато вимірність поняття
9. Методические рекомендации далее Рекомендации содержат систему показателей критериев и методов оценки эфф
10. Юнитаб СанктПетербург Хозяйственное поведение предприятия в рыночной среде является результатом взаимоо
11. Антисоциальные личности могут получать психотерапевтическую помощь в разных условиях в зависимости от с
12. Экстракорпоральная детоксикация
13. тематике 1 доделать все задания К четвергу 9
14. Реферат Дмитро Павличко Дмитро Павличко Народився 28 вересня 1929 Справедливо говорять що біографія пое
15. Лекция План 1
16. ~АУ жанында~ы АБКны~ о~ытушысы Рахимкужаева ~
17. Лекция 3 Менеджер и его функции План 1
18. Проблемы современной экономики труда
19. эпидемиологического заключения на ввод объекта в эксплуатацию выданного с учетом соответствия нормам есте
20. 1118 ~ 82 Форма 1