У вас вопросы?
У нас ответы:) SamZan.net

. Его необходимо с помощью преобразования V~ перевести в бинарный объект B2 объемом V2

Работа добавлена на сайт samzan.net: 2016-03-13

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 6.4.2025

Технология сжатия информационных данных (Алгоритмы Шеннона-Фано, Хаффмана).

Метод Шеннона-Фано.

Пусть имеется бинарный объект B1 объемом V1. Его необходимо с помощью преобразования V’ перевести в бинарный объект B2 объемом V2. Причем V1>V2. Следует отметить, что бинарное исходное множество описывается информационным пространством (x,N), которое называют кортеж, где x – множество последовательностей символов алфавита N, а буква алфавита N – это образ представляющий собой бинарную цепочку фиксированной длины. Тогда, (x1 N1) взаимно однозначно преобразуется в (x2 N2) через V’. Длина бинарной цепочки для B1 – постоянна. Для B2 бинарные цепочки будут иметь переменную длину.

Смысл V:

  1.  В операциях кодирования B1 в B2 мы должны будем заменять цепочки постоянной длины на цепочки переменной длины.
  2.  При декодировании B2 в B1 мы должны обеспечить правильность выделения буквы алфавита N2 без внесения в объект B2 символов разделения.
  3.  Чтобы не вводить этот символ, алфавиты N1 и N2 должны удовлетворять условию префиксности.
  4.   Условие префиксности для элементов алфавита N2: более короткие образы букв (бинарные цепочки) не являются началом более длинных бинарных цепочек N2.

1. Строим таблицу информационной насыщенности B1. Таблица информационной насыщенности - дискретное распределение букв алфавита N в исходном бинарном множестве.

2. Определяем по заданной модели буквы алфавита N2.

  •  Разделяем на две группы так, чтобы суммы вероятностей в каждой из групп были по возможности одинаковы.
  •  Всем знакам верхней половины в качестве первого символа присваиваем 0, а всем нижним – 1.
  •  Каждую из полученных групп в свою очередь разбиваем на две подгруппы с одинаковыми суммарными вероятностями и т.д. до одного знака в каждой подгруппе.

3. Строим кодер.

4. Строим декодер.

5. Разрабатываем заголовок, который содержит словарь и другую служебную информацию.

Метод Хаффмана.

  1.  Строим таблицу информационной насыщенности, где в основной столбец выписываем буквы алфавита сообщений в порядке убывания вероятностей.
  2.  Две последние буквы объединяем в одну вспомогательную букву, которой приписываем суммарную вероятность и вновь располагаем буквы в порядке убывания вероятностей. Процесс продолжаем до тех пор, пока не получим единственную вспомогательную букву.
  3.  Строим граф. Из точки, соответствующей вероятности 1, направляем две ветви, причем ветви с большей вероятностью присваиваем символ 1, а с меньшей – 0. Такое ветвление продолжаем до тех пор, пока не дойдем до вероятности каждой буквы.
  4.  Двигаясь по графу сверху вниз, можем записать для каждой буквы соответствующую ей кодовую комбинацию.
  5.  Строим кодер.
  6.  Строим декодер.
  7.  Разрабатываем заголовок, который содержит словарь и другую служебную информацию.




1. тема фотосинтетических мембран очень пластична
2. Человек и биосфера как объекты синергетической философии
3. 03 ЖИТОМИРСЬКИЙ ДЕРЖАВНИЙ ТЕХНОЛОГІЧНИЙ УНІВЕРСИТЕТ ПОДАННЯ ГОЛОВІ ДЕРЖАВНОЇ ЕКЗАМЕ
4. Формирование грамматического строя речи у детей старшего дошкольного возраста с ОНР III уровня
5. Тема- Механізми старіння Питання- Поняття про біологічний вік
6. РЕФЕРАТ дисертації на здобуття наукового ступеня кандидата технічних наук Київ 2005 Дисе
7. Йорка Кажется Кейт Коул его партнер по работе рассказывает об утерянной драгоценности ~ ожерелья кот
8. Даниэль Дефо
9. На современном этапе становления рыночных отношений методика и принципы учета нематериальных активов широ
10. Тема 6. Менеджмент безпеки правове забезпечення та організаційнофункціональна структура захисту населення