У вас вопросы?
У нас ответы:) SamZan.net

. Его необходимо с помощью преобразования V~ перевести в бинарный объект B2 объемом V2

Работа добавлена на сайт samzan.net: 2016-03-13

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 29.4.2025

Технология сжатия информационных данных (Алгоритмы Шеннона-Фано, Хаффмана).

Метод Шеннона-Фано.

Пусть имеется бинарный объект B1 объемом V1. Его необходимо с помощью преобразования V’ перевести в бинарный объект B2 объемом V2. Причем V1>V2. Следует отметить, что бинарное исходное множество описывается информационным пространством (x,N), которое называют кортеж, где x – множество последовательностей символов алфавита N, а буква алфавита N – это образ представляющий собой бинарную цепочку фиксированной длины. Тогда, (x1 N1) взаимно однозначно преобразуется в (x2 N2) через V’. Длина бинарной цепочки для B1 – постоянна. Для B2 бинарные цепочки будут иметь переменную длину.

Смысл V:

  1.  В операциях кодирования B1 в B2 мы должны будем заменять цепочки постоянной длины на цепочки переменной длины.
  2.  При декодировании B2 в B1 мы должны обеспечить правильность выделения буквы алфавита N2 без внесения в объект B2 символов разделения.
  3.  Чтобы не вводить этот символ, алфавиты N1 и N2 должны удовлетворять условию префиксности.
  4.   Условие префиксности для элементов алфавита N2: более короткие образы букв (бинарные цепочки) не являются началом более длинных бинарных цепочек N2.

1. Строим таблицу информационной насыщенности B1. Таблица информационной насыщенности - дискретное распределение букв алфавита N в исходном бинарном множестве.

2. Определяем по заданной модели буквы алфавита N2.

  •  Разделяем на две группы так, чтобы суммы вероятностей в каждой из групп были по возможности одинаковы.
  •  Всем знакам верхней половины в качестве первого символа присваиваем 0, а всем нижним – 1.
  •  Каждую из полученных групп в свою очередь разбиваем на две подгруппы с одинаковыми суммарными вероятностями и т.д. до одного знака в каждой подгруппе.

3. Строим кодер.

4. Строим декодер.

5. Разрабатываем заголовок, который содержит словарь и другую служебную информацию.

Метод Хаффмана.

  1.  Строим таблицу информационной насыщенности, где в основной столбец выписываем буквы алфавита сообщений в порядке убывания вероятностей.
  2.  Две последние буквы объединяем в одну вспомогательную букву, которой приписываем суммарную вероятность и вновь располагаем буквы в порядке убывания вероятностей. Процесс продолжаем до тех пор, пока не получим единственную вспомогательную букву.
  3.  Строим граф. Из точки, соответствующей вероятности 1, направляем две ветви, причем ветви с большей вероятностью присваиваем символ 1, а с меньшей – 0. Такое ветвление продолжаем до тех пор, пока не дойдем до вероятности каждой буквы.
  4.  Двигаясь по графу сверху вниз, можем записать для каждой буквы соответствующую ей кодовую комбинацию.
  5.  Строим кодер.
  6.  Строим декодер.
  7.  Разрабатываем заголовок, который содержит словарь и другую служебную информацию.




1. наступает время формирования единого российского государства.html
2. Введение Из предыдущей главы мы узнали что группы и неформальные организации могут оказывать сильное вл
3. танцевальная дисциплина -
4. 117 Экономика отрасли Исходные данные.
5. и ~амилаза ~амилаза воздействует на ~14 связи беспорядочно и вызывает частичную деполимеризацию крахма
6. й год ИТОГО за год руб
7. Маусымашар2014 атты Жайдарман фистиваліні~ ~тініш пара~ы Начало формы Топты~ атауы
8. Второй закон термодинамики
9. якого зв~язку з контекстом словоформ
10. Предмет педагогіки ~ виховання як особлива функція суспільства1