Будь умным!


У вас вопросы?
У нас ответы:) SamZan.net

тематическая теория информации раздел прикладной математики аксиоматически определяющий понятие инфор

Работа добавлена на сайт samzan.net: 2015-07-05

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 10.5.2024

Информация, энтропия, негэнтропия, мера количества информации.

Возникновение теории информации. Понятие сигнала.

Теория информации (математическая теория информации) — раздел прикладной математики, аксиоматически определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. 

Была построена в 1948 году К. Шэнноном, за ее основу был положен предложенный им метод исчислений количества новой (непредсказуемой) и избыточной(предсказуемой) информации, содержащейся в сообщениях, передаваемых по каналам технической связи. Более широкое понятие основ теории информации сложилось в кибернетике благодаря работам  Винера Котельникова и  Колмогорова.

Категория информация заняла важное место при рассмотрении задач управления, управляемости. Информация рассматривалась как мера отражения.

Возникновение теории информации – это рассмотрение взаимодействия между объектами: субъект-объект, субъект-субъект и тд.

Важно чтобы это взаимодействие мы научились измерять на степень, полноту, меру отражения.

Первым специфическим понятием теории информации является понятие неопределенности случайного объекта, для которой удалось ввести количественную меру, названную энтропией.

Теория информации рассматривает сигнальную специфику случайных процессов.

Случайные процессы являются адекватной моделью сигналов.

Сигнал – это материальный носитель информации, средство перенесения информации в пространстве и времени. В качестве сигналов используются не сами объекты, а их состояния.

Процесс получения информации можно интерпретировать как изменение неопределенности в результате приема сигнала

Так как объект может взаимодействовать не только с объектом, информацию о котором мы хотели бы получить, но и с другими – то соответствие ослабевает. Посторонние взаимодействия, нарушающие это соответствие - называются помехами или шумами.

Условия, обеспечивающие сохранение сигнального соответствия называются кодом.

Код – комплекс правил образования сигнала.

Типы сигналов

  1.  Сигналы – стабильные состояния физических объектов (книга, фотография) – такие сигналы называются статическими. Предназначены для хранения информации.
  2.  Сигналы – в качестве которых используются динамические состояния силовых полей: звуки  (изменение состояния поля сил упругости в газе, жидкости или твердом теле), световые и радио сигналы (изменение магнитного поля) – такие сигналы называются динамическими. Предназначены для передачи информации.

Энтропия. Негэнтропия, меры количества информации.

Понятие энтропия было введено Больцманом в 1877 году – «энтропия характеризует недостающую информацию», но оно стало широко известным благодаря теории информации К.Шэннона (1948).

Энтропия случайного объекта А(распределения {pi}) – мера неопределенности случайного объекта А с конечным множеством состояний А1,…,Аn с соответствующими вероятностями p1,…,pn 

                               n

H(A)=H({pi})= - pi logpi

                                               k=1

Свойства энтропии

  1.  H(p1,…,pn) = 0 в том и только в том случае, когда какое-нибудь одно из {pi} равно единице(а остальные - нули). Проверка – это соответствует случаю, когда опыт может быть предсказан с полной достоверностью, т.е. когда отсутствует всякая неопределенность. Во всех других случаях энтропия положительна.

  1.  H(p1,…,pn) достигает наибольшего значения при p1 = p2 =…= pn =1/n, т.е. в случае максимальной неопределенности.

     При ∑ pi =1 дает pi = const = 1/n

  1.  Если А и В – независимые случайные объекты, то H(AB)=H({πik=piqk})=H({pi})+H({qk})=H(A)+H(B)

  1.  Если А и В – независимые случайные объекты, то H(AB)=H(A)+H(B|A)=H(B)+H(A|B), где условная энтропия H(B|A) определяется как математическое ожидание энтропии условного распределения.
  2.  Имеет место неравенство H(A) H(A|B), знание состояния объекта  B может только уменьшить неопределенность объекта A, а если они независимы, то оставит ее неизменной.

Принцип максимума энтропии – из всех распределений, отвечающих данным ограничениям, следует выбирать  то, которое обладает максимальной дифференциальной энтропией.

Дифференциальная энтропия – h(X) = -  p(x)logp(x)dx

                                                                                                                   X

Негэнтропия - мера определенности объекта.

По мере изучения объекта мы проходим этапы от “Полное незнание” → “Полное знание”.

Количество информации

Количество информации - мера снятой неопределенности – числовое значение количества информации о некотором объекте равно разности априорной и апостериорной энтропий этого объекта.

Априорная –  H(X)

Апостериорная – H(X|yk) = H({p(xi|yk)})

                                                            m  m           

Получаем, что I(X,Y)= ∑ ∑  p(xi,yi)log p(yk|xi)/p(yk)

                                                           i=1 k=1

Среднее количество информации  – есть мера соответствия двух случайных объектов, т.е. количество информации в объекте X об объекте Y равно количеству информации в объекте Y об объекте X.

Информация есть отражение одного объекта другим, проявляющееся в соответствии их состояний.

Размерность количества информации - единицей неопределенности служит энтропия объекта – «бит» - для дискретных, «нит» – для непрерывных величин.

Свойства количества информации

  1.  Количество информации в случайном объекте X относительно объекта Y равно количеству информации в Y относительно X: I(X,Y) =I(Y,X)
  2.  Количество информации неотрицательно: I(X,Y) ≥0
  3.  Для дискретных X справедливо равенство:  I(X,X)=H(X)
  4.  Преобразование φ(‘) одной случайной величины не может увеличить содержание в ней информации о другой, связанной с ней, величине: I(φ (X), Y) I(X,Y)
  5.  Для независимых пар величин количество информации аддитивно: I({Xi,Yi})= I(Xi,Yi)

                                                                                                                                                                                      i

Результы математической теории информации(Обзор).

Теория информации приводит к ряду новых понятий, описывающих информационные процессы, происходящие в любых системах, к введению новых количественных параметров, позволяющих производить измерения и расчеты. Однако главная ценность теории информации заключается в полученных ею новых результатах, в открытии ранее неизвестных свойств систем, таких как:

  1.  Избыточность – сигнал длинной в n символов содержит количество информации I. В качестве меры избыточности  R принимается относительное удлинение сигнала, соответствующие:

R=I-I/Imax

  1.  Скорость передачи – количество информации, передаваемое в единицу времени

R=H(X) - H(X|Y)

  1.  Пропускная способность – скорость передачи информации

С = supRA  

      {A}

где RA – скорость передачи информации при условиях A, {A} - множество условий, подлежащих перебору.

  1.  Кодирование в отсутствии шумов – построение кодов, обеспечивающих безызбыточное кодирование (если этого невозможно достичь, то сколь угодно близкое к нему).

Значение теории информации выходит далеко за рамки теории связи, в конечном счете, понятие информации вошло в число философских категорий, расширив понятие мира. Для системного анализа теория информации имеет неоднозначное значение. Во-первых, ее методы и результаты позволяют провести ряд количественных исследований информационных потоков в системе. Однако более важным является значение основных понятий теории информации – неопределенность, энтропии, количества информации и тд. Системный анализ неизбежно выходит на исследование ресурсов, которые потребуются для решения анализируемой проблемы. Сами информационные ресурсы играют далеко не последнюю роль наряду с остальными ресурсами – материальными, временными.




1. Тема 1. Предмет задачи и организация оказания первой помощи
2. Законодательное и нормативное регулирование бухгалтерского учета Основн
3. Секция Б В Дом по ул
4. Красивых женщин
5.  Средняя арифметическая [0
6. Если работник нуждающийся в соответствии с медицинским заключением во временном переводе на другую работ
7. Тульский государственный университет Кафедра социологии и политологии
8. х годов немецкий ученый Рихард Фолль разработал метод диагностики и лечения используя электрические свойст
9. Особливості клінічного перебігу та прогнозування наслідків первинних і вторинних гнійних менігоенцефалітів
10. Имена подводных кораблей России
11. Институты государственной власти в России
12. 102 Дата тестирования- 26
13. тема обеспечивает реализацию следующих функций- 1 Inventory Control ~ мониторинг запасов; 2 Physicl Inventory ~ регулирова
14. Про загальнообов~язкове державне соціальне страхування від нещасного випадку на виробництві та професійно
15. Вместе с тем ему удается достаточно быстро интегрироваться в мировую финансовую систему
16. Контрольная работа- Гигиена спортивной обуви и одежды
17. Тема- Business nd griculture Цель занятия- Формирование коммуникативной компетенции по теме- Business nd griculture
18. Аренда земельных участков
19. Структурная схема формирователя и трех цифровых компанентных сигналов
20. Технический анализ рынка ценных бумаг на примере акций РАО ЕЭС Россия 2001-2002 гг