У вас вопросы?
У нас ответы:) SamZan.net

тематическая теория информации раздел прикладной математики аксиоматически определяющий понятие инфор

Работа добавлена на сайт samzan.net: 2015-07-05

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 6.2.2025

Информация, энтропия, негэнтропия, мера количества информации.

Возникновение теории информации. Понятие сигнала.

Теория информации (математическая теория информации) — раздел прикладной математики, аксиоматически определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. 

Была построена в 1948 году К. Шэнноном, за ее основу был положен предложенный им метод исчислений количества новой (непредсказуемой) и избыточной(предсказуемой) информации, содержащейся в сообщениях, передаваемых по каналам технической связи. Более широкое понятие основ теории информации сложилось в кибернетике благодаря работам  Винера Котельникова и  Колмогорова.

Категория информация заняла важное место при рассмотрении задач управления, управляемости. Информация рассматривалась как мера отражения.

Возникновение теории информации – это рассмотрение взаимодействия между объектами: субъект-объект, субъект-субъект и тд.

Важно чтобы это взаимодействие мы научились измерять на степень, полноту, меру отражения.

Первым специфическим понятием теории информации является понятие неопределенности случайного объекта, для которой удалось ввести количественную меру, названную энтропией.

Теория информации рассматривает сигнальную специфику случайных процессов.

Случайные процессы являются адекватной моделью сигналов.

Сигнал – это материальный носитель информации, средство перенесения информации в пространстве и времени. В качестве сигналов используются не сами объекты, а их состояния.

Процесс получения информации можно интерпретировать как изменение неопределенности в результате приема сигнала

Так как объект может взаимодействовать не только с объектом, информацию о котором мы хотели бы получить, но и с другими – то соответствие ослабевает. Посторонние взаимодействия, нарушающие это соответствие - называются помехами или шумами.

Условия, обеспечивающие сохранение сигнального соответствия называются кодом.

Код – комплекс правил образования сигнала.

Типы сигналов

  1.  Сигналы – стабильные состояния физических объектов (книга, фотография) – такие сигналы называются статическими. Предназначены для хранения информации.
  2.  Сигналы – в качестве которых используются динамические состояния силовых полей: звуки  (изменение состояния поля сил упругости в газе, жидкости или твердом теле), световые и радио сигналы (изменение магнитного поля) – такие сигналы называются динамическими. Предназначены для передачи информации.

Энтропия. Негэнтропия, меры количества информации.

Понятие энтропия было введено Больцманом в 1877 году – «энтропия характеризует недостающую информацию», но оно стало широко известным благодаря теории информации К.Шэннона (1948).

Энтропия случайного объекта А(распределения {pi}) – мера неопределенности случайного объекта А с конечным множеством состояний А1,…,Аn с соответствующими вероятностями p1,…,pn 

                               n

H(A)=H({pi})= - pi logpi

                                               k=1

Свойства энтропии

  1.  H(p1,…,pn) = 0 в том и только в том случае, когда какое-нибудь одно из {pi} равно единице(а остальные - нули). Проверка – это соответствует случаю, когда опыт может быть предсказан с полной достоверностью, т.е. когда отсутствует всякая неопределенность. Во всех других случаях энтропия положительна.

  1.  H(p1,…,pn) достигает наибольшего значения при p1 = p2 =…= pn =1/n, т.е. в случае максимальной неопределенности.

     При ∑ pi =1 дает pi = const = 1/n

  1.  Если А и В – независимые случайные объекты, то H(AB)=H({πik=piqk})=H({pi})+H({qk})=H(A)+H(B)

  1.  Если А и В – независимые случайные объекты, то H(AB)=H(A)+H(B|A)=H(B)+H(A|B), где условная энтропия H(B|A) определяется как математическое ожидание энтропии условного распределения.
  2.  Имеет место неравенство H(A) H(A|B), знание состояния объекта  B может только уменьшить неопределенность объекта A, а если они независимы, то оставит ее неизменной.

Принцип максимума энтропии – из всех распределений, отвечающих данным ограничениям, следует выбирать  то, которое обладает максимальной дифференциальной энтропией.

Дифференциальная энтропия – h(X) = -  p(x)logp(x)dx

                                                                                                                   X

Негэнтропия - мера определенности объекта.

По мере изучения объекта мы проходим этапы от “Полное незнание” → “Полное знание”.

Количество информации

Количество информации - мера снятой неопределенности – числовое значение количества информации о некотором объекте равно разности априорной и апостериорной энтропий этого объекта.

Априорная –  H(X)

Апостериорная – H(X|yk) = H({p(xi|yk)})

                                                            m  m           

Получаем, что I(X,Y)= ∑ ∑  p(xi,yi)log p(yk|xi)/p(yk)

                                                           i=1 k=1

Среднее количество информации  – есть мера соответствия двух случайных объектов, т.е. количество информации в объекте X об объекте Y равно количеству информации в объекте Y об объекте X.

Информация есть отражение одного объекта другим, проявляющееся в соответствии их состояний.

Размерность количества информации - единицей неопределенности служит энтропия объекта – «бит» - для дискретных, «нит» – для непрерывных величин.

Свойства количества информации

  1.  Количество информации в случайном объекте X относительно объекта Y равно количеству информации в Y относительно X: I(X,Y) =I(Y,X)
  2.  Количество информации неотрицательно: I(X,Y) ≥0
  3.  Для дискретных X справедливо равенство:  I(X,X)=H(X)
  4.  Преобразование φ(‘) одной случайной величины не может увеличить содержание в ней информации о другой, связанной с ней, величине: I(φ (X), Y) I(X,Y)
  5.  Для независимых пар величин количество информации аддитивно: I({Xi,Yi})= I(Xi,Yi)

                                                                                                                                                                                      i

Результы математической теории информации(Обзор).

Теория информации приводит к ряду новых понятий, описывающих информационные процессы, происходящие в любых системах, к введению новых количественных параметров, позволяющих производить измерения и расчеты. Однако главная ценность теории информации заключается в полученных ею новых результатах, в открытии ранее неизвестных свойств систем, таких как:

  1.  Избыточность – сигнал длинной в n символов содержит количество информации I. В качестве меры избыточности  R принимается относительное удлинение сигнала, соответствующие:

R=I-I/Imax

  1.  Скорость передачи – количество информации, передаваемое в единицу времени

R=H(X) - H(X|Y)

  1.  Пропускная способность – скорость передачи информации

С = supRA  

      {A}

где RA – скорость передачи информации при условиях A, {A} - множество условий, подлежащих перебору.

  1.  Кодирование в отсутствии шумов – построение кодов, обеспечивающих безызбыточное кодирование (если этого невозможно достичь, то сколь угодно близкое к нему).

Значение теории информации выходит далеко за рамки теории связи, в конечном счете, понятие информации вошло в число философских категорий, расширив понятие мира. Для системного анализа теория информации имеет неоднозначное значение. Во-первых, ее методы и результаты позволяют провести ряд количественных исследований информационных потоков в системе. Однако более важным является значение основных понятий теории информации – неопределенность, энтропии, количества информации и тд. Системный анализ неизбежно выходит на исследование ресурсов, которые потребуются для решения анализируемой проблемы. Сами информационные ресурсы играют далеко не последнюю роль наряду с остальными ресурсами – материальными, временными.




1. Особенности экономической модели США
2. Руководство по предотвращению подачи ложных сигналов бедствия принята ИМО 23 ноября 1995 года АССАМБЛЕЯ.
3. Кабінет Міністрів України як вищий орган виконавчої влади
4. Тема- Післявоєнна перебудова народного господарства України.html
5. Лекция 2 АРХИТЕКТУРА ВЫЧИСЛИТЕЛЬНЫХ СЕТЕЙ СЕТЕЙ ПЕРЕДАЧИ ДАННЫХ И ТЕРМИНАЛЬНЫХ КОМПЛЕКСОВ 2
6. . Седиментогенні води Седиментогенні води це води які сформувалися в процесі осадконакопичення
7. Уральский государственный технический университет УПИ Физикотехнический факультет Кафедра Физик
8. а дайте оцінку життєвого циклу марки телевізора та окремих його фаз знаючи динаміку реалізації рівень рент
9. 1 Вводный 2 Информационный учебный 3 Заключительный 2
10. Резюме 2 Описание товара 3