У вас вопросы?
У нас ответы:) SamZan.net

тематическая теория информации раздел прикладной математики аксиоматически определяющий понятие инфор

Работа добавлена на сайт samzan.net:

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 27.12.2024

Информация, энтропия, негэнтропия, мера количества информации.

Возникновение теории информации. Понятие сигнала.

Теория информации (математическая теория информации) — раздел прикладной математики, аксиоматически определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. 

Была построена в 1948 году К. Шэнноном, за ее основу был положен предложенный им метод исчислений количества новой (непредсказуемой) и избыточной(предсказуемой) информации, содержащейся в сообщениях, передаваемых по каналам технической связи. Более широкое понятие основ теории информации сложилось в кибернетике благодаря работам  Винера Котельникова и  Колмогорова.

Категория информация заняла важное место при рассмотрении задач управления, управляемости. Информация рассматривалась как мера отражения.

Возникновение теории информации – это рассмотрение взаимодействия между объектами: субъект-объект, субъект-субъект и тд.

Важно чтобы это взаимодействие мы научились измерять на степень, полноту, меру отражения.

Первым специфическим понятием теории информации является понятие неопределенности случайного объекта, для которой удалось ввести количественную меру, названную энтропией.

Теория информации рассматривает сигнальную специфику случайных процессов.

Случайные процессы являются адекватной моделью сигналов.

Сигнал – это материальный носитель информации, средство перенесения информации в пространстве и времени. В качестве сигналов используются не сами объекты, а их состояния.

Процесс получения информации можно интерпретировать как изменение неопределенности в результате приема сигнала

Так как объект может взаимодействовать не только с объектом, информацию о котором мы хотели бы получить, но и с другими – то соответствие ослабевает. Посторонние взаимодействия, нарушающие это соответствие - называются помехами или шумами.

Условия, обеспечивающие сохранение сигнального соответствия называются кодом.

Код – комплекс правил образования сигнала.

Типы сигналов

  1.  Сигналы – стабильные состояния физических объектов (книга, фотография) – такие сигналы называются статическими. Предназначены для хранения информации.
  2.  Сигналы – в качестве которых используются динамические состояния силовых полей: звуки  (изменение состояния поля сил упругости в газе, жидкости или твердом теле), световые и радио сигналы (изменение магнитного поля) – такие сигналы называются динамическими. Предназначены для передачи информации.

Энтропия. Негэнтропия, меры количества информации.

Понятие энтропия было введено Больцманом в 1877 году – «энтропия характеризует недостающую информацию», но оно стало широко известным благодаря теории информации К.Шэннона (1948).

Энтропия случайного объекта А(распределения {pi}) – мера неопределенности случайного объекта А с конечным множеством состояний А1,…,Аn с соответствующими вероятностями p1,…,pn 

                               n

H(A)=H({pi})= - pi logpi

                                               k=1

Свойства энтропии

  1.  H(p1,…,pn) = 0 в том и только в том случае, когда какое-нибудь одно из {pi} равно единице(а остальные - нули). Проверка – это соответствует случаю, когда опыт может быть предсказан с полной достоверностью, т.е. когда отсутствует всякая неопределенность. Во всех других случаях энтропия положительна.

  1.  H(p1,…,pn) достигает наибольшего значения при p1 = p2 =…= pn =1/n, т.е. в случае максимальной неопределенности.

     При ∑ pi =1 дает pi = const = 1/n

  1.  Если А и В – независимые случайные объекты, то H(AB)=H({πik=piqk})=H({pi})+H({qk})=H(A)+H(B)

  1.  Если А и В – независимые случайные объекты, то H(AB)=H(A)+H(B|A)=H(B)+H(A|B), где условная энтропия H(B|A) определяется как математическое ожидание энтропии условного распределения.
  2.  Имеет место неравенство H(A) H(A|B), знание состояния объекта  B может только уменьшить неопределенность объекта A, а если они независимы, то оставит ее неизменной.

Принцип максимума энтропии – из всех распределений, отвечающих данным ограничениям, следует выбирать  то, которое обладает максимальной дифференциальной энтропией.

Дифференциальная энтропия – h(X) = -  p(x)logp(x)dx

                                                                                                                   X

Негэнтропия - мера определенности объекта.

По мере изучения объекта мы проходим этапы от “Полное незнание” → “Полное знание”.

Количество информации

Количество информации - мера снятой неопределенности – числовое значение количества информации о некотором объекте равно разности априорной и апостериорной энтропий этого объекта.

Априорная –  H(X)

Апостериорная – H(X|yk) = H({p(xi|yk)})

                                                            m  m           

Получаем, что I(X,Y)= ∑ ∑  p(xi,yi)log p(yk|xi)/p(yk)

                                                           i=1 k=1

Среднее количество информации  – есть мера соответствия двух случайных объектов, т.е. количество информации в объекте X об объекте Y равно количеству информации в объекте Y об объекте X.

Информация есть отражение одного объекта другим, проявляющееся в соответствии их состояний.

Размерность количества информации - единицей неопределенности служит энтропия объекта – «бит» - для дискретных, «нит» – для непрерывных величин.

Свойства количества информации

  1.  Количество информации в случайном объекте X относительно объекта Y равно количеству информации в Y относительно X: I(X,Y) =I(Y,X)
  2.  Количество информации неотрицательно: I(X,Y) ≥0
  3.  Для дискретных X справедливо равенство:  I(X,X)=H(X)
  4.  Преобразование φ(‘) одной случайной величины не может увеличить содержание в ней информации о другой, связанной с ней, величине: I(φ (X), Y) I(X,Y)
  5.  Для независимых пар величин количество информации аддитивно: I({Xi,Yi})= I(Xi,Yi)

                                                                                                                                                                                      i

Результы математической теории информации(Обзор).

Теория информации приводит к ряду новых понятий, описывающих информационные процессы, происходящие в любых системах, к введению новых количественных параметров, позволяющих производить измерения и расчеты. Однако главная ценность теории информации заключается в полученных ею новых результатах, в открытии ранее неизвестных свойств систем, таких как:

  1.  Избыточность – сигнал длинной в n символов содержит количество информации I. В качестве меры избыточности  R принимается относительное удлинение сигнала, соответствующие:

R=I-I/Imax

  1.  Скорость передачи – количество информации, передаваемое в единицу времени

R=H(X) - H(X|Y)

  1.  Пропускная способность – скорость передачи информации

С = supRA  

      {A}

где RA – скорость передачи информации при условиях A, {A} - множество условий, подлежащих перебору.

  1.  Кодирование в отсутствии шумов – построение кодов, обеспечивающих безызбыточное кодирование (если этого невозможно достичь, то сколь угодно близкое к нему).

Значение теории информации выходит далеко за рамки теории связи, в конечном счете, понятие информации вошло в число философских категорий, расширив понятие мира. Для системного анализа теория информации имеет неоднозначное значение. Во-первых, ее методы и результаты позволяют провести ряд количественных исследований информационных потоков в системе. Однако более важным является значение основных понятий теории информации – неопределенность, энтропии, количества информации и тд. Системный анализ неизбежно выходит на исследование ресурсов, которые потребуются для решения анализируемой проблемы. Сами информационные ресурсы играют далеко не последнюю роль наряду с остальными ресурсами – материальными, временными.




1. Контрольная работа по курсу Основы экономической теории Задание 1
2. личность personlity identity понимается совокупность постоянных устойчивых качеств индивидуума проявляющихся с.
3. К ним можно отнести- Массивы
4. Выделяют следующие основные особенности темперамента человека- темперамент биологический фунда
5. Материалдарды~ физикалы~ ~асиеттері п~ні бойынша емтихан с~ра~тары ~атты дене деген не Оны т~сін
6. урочной парадигме так и вне нее
7. Процессы функционирования окказиональных лексических единиц в романе Р
8. Секс и насилие
9. за низких температур воздуха наличия снежного покрова сильных ветров и мете лей а также сокращения светлог
10. Юриспруденция Хабаровск 2004 ББК х 3 Х 12 Экологическое право- Мето
11. Принципы лечения кожных болезней.html
12. Мобильник Стивен Кинг Мобильник OCR Денис; RedCheck Rolnd http---lib
13. Серафимович АС
14. Особенности рынка труда в России Удмуртская Республика
15.  г. ОТЧЕТ О ЛАБОРАТОРНОЙ РАБОТЕ ldquo;Измерение площади листа бумагиrdquo; по дисципли
16. Формирование компонентов техники чтения у детей с ЗПР
17. Тема- Отчего люди не летают Образ Катерины в пьесе Островского Гроза
18. Развитие межбюджетных отношений в Российской Федерации1
19. неподвижный раздел механики в котором изучаются условия равновесия механических систем под действием
20. статья С H Зенкипа Обложка С