У вас вопросы?
У нас ответы:) SamZan.net

А и Н А-В Решение

Работа добавлена на сайт samzan.net: 2015-07-05

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 7.3.2025

   Задача 2.14. Задана матрица вероятностей системы, объединенной в одну систему из двух взаимозависимых систем В и А:

р(А, В)=.

Определить полные условные энтропии Н (В/А) и Н (А/В).

   Решение. Вычисляем безусловные вероятности как суммы совместных вероятностей по строкам и столбцам исходной матрицы:

                                                                               р()

р(А, В)=

                                              р(b) 0,5    0,4   0,1

Определяем условные вероятности и составляем матрицу условных вероятностей:

p(/) = ; p() =  = 0,6; p() =  = 0,4;

p() =  = 0,75; p() =  = 0,25; p() =  = 1;

p() = p() = p() = p() = 0;

p() = .

H (A/B) = -  =

= -[+]≈ 0,485+0,324=0,809 бит/состояние,

или

H (A/B) = -  = - (0,3 +

+ 0,2 + 0,3 + 0,1) = 0,3∙0,736 + 0,2∙1,31 + +0,3∙0,415 + 0,1∙2 ≈0,809 бит/состояние.

Аналогично для H (B/A)

p (/) = ; p (/) =  =1; p (/) =  = 0,333;

p (/) =  = 0,5; p (/) =  = 1;

p (/) =  = 0,167; p (/) = p (/) = p (/) = p (/) = 0;

p (/) =

H (B/A) = - /) =

= - 0,6(0,333 + 0,51 + 0,167) ≈

≈0,6(0,5283 + 0,5 + 0,4318) ≈ 0,876 бит/состояние.

или

H (B/A) = - )) =

=- (0,2 + 0,3 + 0,1)≈

≈0,2∙1,586 + 0,3∙1 + 0,1∙2,582≈0,8754 бит/состояние.

Задача 2.16. Сообщения создаются двумя источниками и передаются по одному каналу связи. Известно, что на выходе источника i сигналы появляются с вероятностями  = 0,5;  = 0,333;  = 0,167. Условные вероятности появления сигналов D, E, F  и G источника j при условии, что были переданы сигналы A, B, C источника i, соответственно равны:

p (D/A) = p (E/A) = p (F/A) = p (G/A) = 0,25; p (D/B) = 0,3;

p (E/B) = 0,2; p (F/B) = 0,2; p (G/B) = 0,3; p (D/C) = 0,166;

p (E/C) = 0,5; p (F/C) = 0,167; p (G/C) = 0,167.

Определить совместную энтропию источников i, j, условную энтропию H (j/i), энтропию второго источника, а также максимальное значение энтропии H (i, j).

Решение. Определяем вероятность совместного проявления сигналов обоих источников, используя выражение p (i, j) = p (j/i):

p (AD) = p (AE) = p (AF) = p (AG) = 0,5∙0,25 = 0,125;

p (BD) = p (BG) = 0,33∙0,3 = 0,1; p (BE) = p (BF) = 0,333∙0,2 = 0,0666;

p (CD) = p (CF) = p (CG) = 0,167∙0,167≈0,028; p (CE) = 0,167∙0,5 = 0,083.

Совместная энтропия источников

H (i, j) = -  = - (4∙0,125 +

+ 2∙0,11 + 2∙0,0666 + 3∙0,028 +

+ 0,083) = 4∙0,3375 + 2∙0,332 + 2∙0,26 + 3∙0,144 +

+ 0,298 = 1,5 + 0,664 + 0,52 + 0,432 + 0,298 =

= 3,415 бит/два символ.

Условная энтропия

H (j/ i) = - = - (4∙0,125 +

+ 2∙0,11 + 2∙0,0666 + 3∙0,028 +

+ 0,0835) = 0,5∙2 + 0,2∙1,731 + 2∙0,0666∙2,32 +

+ 0,084∙2,58 + 0,0835∙1 ≈ 1,9578 бит/знак.

Энтропия первого источника

H (i) = - = - (0,5 + 0,333 +

+ 0,167) = 1,459 бит/знак.

Энтропия объединения

H (i, j) = H (i) + H (i/j) = 1,459 + 1,957 = 3,416 бит/два символа.

Энтропия второго источника

H (j) = - [p (D) + p (E) + p (F) +

+ p (G)].

p (D) =  = p (A) p (D/A) + p (B) p (D/B) + p (C) p (D/C) =

=0,5∙0,25 + 0,333∙0,3 + 0,167∙0,166 ≈ 0,253;

p (E) =  = 0,5∙0,25 + 0,333∙0,2 + 0,167∙0,5 ≈ 0,275;

p (F) =  = 0,5∙0,25 + 0,333∙0,2 + 0,167∙0,167 ≈ 0,219;

p (G) = = 0,5∙0,25 + 0,333∙0,3 + 0,167∙0,167 ≈ 0,253;

p (D) + p (E) + p (F) + p(G) = 0,253 + 0,275 + 0,219 + 0,253 = 1,

 т. е.  = 1.

H (j) = - (2∙0,253 + 0,275 + 0,219) =

=1,995 бит/знак.

Максимальное значение энтропии объединения H  будет при отсутствии взаимосвязи между символами, т. е. при H (i/j) = 0.

H  = H (i) + H (j) = 1,459 + 1,995 = 3,454 бит/два символа.

Задача 2.19. Определить полные условные энтропии двух систем A и B, если известна матрица вероятностей некоторой системы, полученной в результате объединения систем А и В:

P (A, B) = .

Найти также энтропию объединения H (A, B) и H (B, A).

  Решение. Вычисляем безусловные вероятности p () и p ():

                                                                                  p ()

p (A, B) =    

                                    p ()          0,3    0,3     0,4

 Определяем условные вероятности и составляем матрицу условных вероятностей.

Так как p () = p () p () = p () p (), то

p () = ; p () = ;

p () =  ≈ 0,67; p () =  ≈0,33;

p () =  ≈ 0,67; p () =  ≈ 0,33;

p () =  = 1; p () = p () = p () = p () = 0;

p () = .

H (A/B) = -  ) =

= - [0,3 (0,67  + 0,33 ) +

+ 0,3 (0,67+ 0,33) + 0,4∙ 1] =

= (0,387 104 + 0,527 822)0,3 ∙ 2 = 0,914 926 ∙0,6 =

=0,5489556 бит/символ.

p () =  = 1; p () =  ≈0,33;

p () =  ≈ 0,67; p () =  = 0,2;

p () =  = 0,8; p () = p () = p () = p () = 0;

p () =.

H (B/A) = - )) =

= - [0,2∙ 1 + 0,3 (0,33 + 0,67) +

+ (0,2 + 0,8)] = 0,3(0,527 822 + 0,387 104) +

+ 0,5(0,464 386 + 0,257 542) = 0,3 ∙ 0,914 926 + 0,5 ∙ 0,721 928 =

= 0,2 744 778 + 0,3 609 640 = 0,6 354 418 бит/символ;

H (A) = -  = - (0,2  + 0,3  +

+ 0,5 ) = 0,464386 + 0,521090 + 0,500000 =

= 1,485 476 бит/символ;

H (A, B) = H (A) + H (B/A) = 1,485 476 + 0,635 442 = 2,120 918 ≈

≈ 2,12 бит/символ;

H (B) = 0,3 + 0,3 + 0,4 =

= 0,521 090 + 0,521 090 + 0,528 771 = 1,57 095 бит/символ;

H (B, A) = H (B) + H (A/B) = 1,570 951 + 0,549 956 = 2,119 907 ≈

≈ 2,12 бит/символ.

Задача 2.21. Построить матрицу вероятностей состояний объединенной системы АВ, если безусловные вероятности системы А: p () = 0,1;

p () = 0,4; p () = 0,5; безусловные вероятности системы В: p ()= =0,2; p () = 0,4; p () = 0,4; матрицы условных вероятностей:

p (a/b) = ; p (b/a) = .

  Решение. Определяем вероятности совместных событий вида

  p () = p () p () = 0,1∙1 = 0,1;

  p (, ) = p () p (/) = 0,4∙0,25 = 0,1;

  p (, ) = p () p (/) = 0,5∙0 = 0;

  p (, ) = p () p (/) = 0,1∙0 = 0;

  p (, ) = p () p (/) = 0,4∙0,75 = 0,3;

  p (, ) = p () p (/) = 0,5∙0,2 = 0,1;

  p (, ) = p () p (/) = 0,1∙0 = 0;

  p (, ) = p () p (/) = 0,4∙0 = 0;

  p (, ) = p () p (/) = 0,5∙0,8 = 0,4,

или

  p (, ) = p () p (/) = 0,2∙0,5 = 0,1;

  p (, ) = p () p (/) = 0,4∙0 = 0;

  p (, ) = p () p (/) = 0,4∙0 = 0;

  p (, ) = p () p (/) = 0,2∙0,5 = 0,1;

  p (, ) = p () p (/) = 0,4∙0,75 = 0,3;

  p (, ) = p () p (/) = 0,4∙0 = 0;

  p (, ) = p () p (/) = 0,2∙0 = 0;

  p (, ) = p () p (/) = 0,4∙0,25 = 0,1;

  p (, ) = p () p (/) = 0,4∙1 = 0,4.

  Матрица вероятностей объединенной системы

p (A, B) = .




1. Авалон в СанФранциско Лири вывел дико разодетых хиппи на часовое индуистское песнопение в честь нового св
2. ПЕДАГОГИЧЕСКИЙ УНИВЕРСИТЕТ Факультет социальной психологии Кафедра теоретических основ социальной
3. Оплата труда в современных условиях
4. Фазы экономического цикла Цикличность экономического развития.html
5. источником трения являются фононы а коэффициент трения может уменьшиться в несколько раз
6. экземпляров Его доброжелательный прием читателями и прежде всего студентами аспирантами и преподавател
7. это разделение их на группы классы в соответствии с определенным классификационным признаком
8. З КУРСУ ПРАВОВІ ОСНОВИ ПРОФЕСІЙНОЇ ДІЯЛЬНОСТІ
9. аналитика синтетической обработки
10.  Ниже приведены запросы и количество страниц которые нашел поисковый сервер по этим запросам в некотором се