Будь умным!


У вас вопросы?
У нас ответы:) SamZan.net

ЛЕКЦИЯ 1- КОДИРОВАНИЕ СИГНАЛОВ 1

Работа добавлена на сайт samzan.net:

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 24.11.2024

ЛЕКЦИЯ 1: «КОДИРОВАНИЕ СИГНАЛОВ»

1.1 ОСНОВНЫЕ ПОНЯТИЯ

Кодирование – преобразование элементов дискретного сообщения в последовательности кодовых символов. Обратное преобразование – декодирование.

Устройства, осуществляющие эти операции автоматически, называются соответственно кодером и декодером. Кодек – устройство, объединяющее кодер и декодер.

Код – алгоритм (правило), по которому осуществляется кодирование.

Кодовая комбинация (слово) – последовательность кодовых символов, соответствующая одному элементу дискретного сообщения.

Кодовый алфавит – весь набор кодовых символов.

Основание кода m – число символов в кодовом алфавите. Если m=2 код называется двоичным, m>2 – многопозиционным (недвоичным).

Разряд – значащая позиция кодового слова.

Разрядность (значность) кода n – число символов в кодовой комбинации. Если n=const, то код называется равномерным, nconstнеравномерным.

Кодеры и декодеры легче сделать для равномерных двоичных кодов.

1.2 СИСТЕМА ПЕРЕДАЧИ ДИСКРЕТНЫХ СООБЩЕНИЙ

Рисунок 1.1 – Структурная схема системы передачи дискретных сообщений.

Источник выдает дискретное сообщение. Для формирования дискретного сообщения из непрерывного используется дискретизация по времени и по уровню.

Кодирование источника (сжатие данных) применяется для снижения технических затрат на хранение и передачу информации.

Криптографическое кодирование (шифрование) применяется для предотвращения несанкционированного доступа к информации.

Кодирование канала (помехоустойчивое кодирование) применяется для повышения достоверности передачи информации по каналу с помехами.

 

1.3 СЖАТИЕ ДАННЫХ

Сжатие возможно, т.к. данные на выходе источника содержат избыточную и/или плохо различимую информацию.

Плохо различимая информация - информация, которая не воздействует на ее приемник. Подобная информация сокращается или удаляется при использовании сжатия с потерями. При этом энтропия исходной информации уменьшается. Сжатие с потерями применяется при сжатии цифровых изображений и оцифрованного звука.

Приемы, применяемые в алгоритмах сжатия с потерями:

- использование модели – подбор параметров модели и передача только одних параметров;

- предсказание – предсказание последующего элемента и передача величины ошибки;

- дифференциальное кодирование – передача изменений последующего элемента при сравнении с предыдущим.

Избыточная информация – информация, которая не добавляет знаний о предмете. Избыточность может быть уменьшена или устранена с помощью сжатия без потерь (эффективного кодирования). При этом энтропия данных остается неизменной. Сжатие без потерь применяется в системах передачи данных.

Приемы, применяемые в алгоритмах сжатия без потерь:

- кодирование длин последовательностей – передача числа повторяющихся элементов;

- кодирование словаря – использование ссылок на переданные ранее последовательности, а не их повторение;

- неравномерное кодирование – более вероятным символам присваиваются более короткие кодовые слова.

1.4 КОДИРОВАНИЕ СЛОВАРЯ

Позволяет уменьшить избыточность, вызванную зависимостью между символами. Идея кодирования словаря состоит в замене часто встречающихся последовательностей символов ссылками на образцы, хранящиеся в специально создаваемой таблице (словаре). Данный подход основан на алгоритме LZ, описанном в работах израильских исследователей Зива и Лемпеля.

1.5 НЕРАВНОМЕРНОЕ КОДИРОВАНИЕ

Позволяет уменьшить избыточность, вызванную неравной вероятностью символов. Идея неравномерного кодирования состоит в использовании коротких кодовых слов для часто встречающихся символов и длинных – для редко возникающих. Данный подход основан на алгоритмах Шеннона-Фано и Хаффмана.

Коды Шеннона-Фано и Хаффмана являются префиксными. Префиксный код – код, обладающий тем свойством, что никакое более короткое слово не является началом (префиксом) другого более длинного слова. Такой код всегда однозначно декодируем. Обратное неверно.

Код Шеннона-Фано строится следующим образом. Символы источника выписываются в порядке убывания вероятностей (частот) их появления. Затем эти символы разбиваются на две части, верхнюю и нижнюю, так, чтобы суммарные вероятности этих частей были по возможности одинаковыми. Для символов верхней части в качестве первого символа кодового слова используется 1, а нижней – 0. Затем каждая из этих частей делится еще раз пополам и записывается второй символ кодового слова. Процесс повторяется до тех пор, пока в каждой из полученных частей не останется по одному символу.

 Пример1.1:

Таблица 1.1 – Построение кода Шеннона-Фано.

Символ

Вероятность

Этапы разбиения

Код

1

2

3

4

а1

а2

а3

а4

а5

0,40

0,35

0,10

0,10

0,05

1

      1

    01

  001

0001

0000

0

0

0

0

1

0

0

0

1

0

0

1

0

Алгоритм Шеннона-Фано не всегда приводит к построению однозначного кода с наименьшей средней длиной кодового слова. От отмеченных недостатков свободен алгоритм Хаффмана.

Код Хаффмана строится следующим образом. Символы источника располагают в порядке убывания вероятностей (частот) их появления. Два самых последних символа объединяют в один вспомогательный, которому приписывают суммарную вероятность. Полученные символы вновь располагают в порядке убывания вероятностей, а два последних объединяют. Процесс продолжается до тех пор, пока не останется единственный вспомогательный символ с вероятностью 1. Для нахождения кодовых комбинаций строится кодовое дерево. Из точки, соответствующей вероятности 1, направляются две ветви. Ветви с большей вероятностью присваивается символ 1, с меньшей – 0. Такое ветвление продолжается до достижения вероятности каждого символа. Двигаясь по кодовому дереву сверху вниз, записывают для каждого символа кодовую комбинацию.

Пример1.2:

Таблица 1.2 – Построение кода Хаффмана.

Символ

Вероятность

Объединение символов

Код

а1

а2

а3

а4

а5

0,40

0,35

0,10

0,10

0,05

0,40

0,35

0,15

0,10

0,40

0,35

0,25

0,60

0,40

1,00

   0

  11

100

1011

1010

Рисунок 1.2 – Кодовое дерево для кода Хаффмана.

ДОМАШНЕЕ ЗАДАНИЕ:

1. [3.1.2] с.13…16;

[3.1.3] с.174…176;

[3.1.5] с. 109…112, 131…135, 297…299;

[3.1.14] с. 146…155;

[3.1.15] с.11…14.

2. Файл состоит из некоторой символьной строки:

«aaaaaaaaaabbbbbbbbccccccdddddeeeefff».

Закодировать символы кодами Шеннона-Фано и Хаффмана и оценить достигнутую степень сжатия.


РЕШЕНИЕ ЗАДАЧИ ДОМАШНЕГО ЗАДАНИЯ:
 

Рассчитаем частоты появления символов: υ(а)=10/36=0,28; υ(b)=8/36=0,22; υ(c)=6/36=0,17; υ(d)=5/36=0,14; υ(e)=4/36=0,11; υ(f)=0,08.

Таблица 1.3 – Построение кода Шеннона-Фано.

Символ

Частота

Этапы разбиения

Код

1

2

3

a

b

c

d

e

f

0,28

0,22

0,17

0,14

0,11

0,08

1

1

1

11

10

011

010

001

000

0

0

0

0

0

1

1

1

0

0

0

1

0

Достигнутая в результате кодирования степень сжатия определяется коэффициентом  сжатия:

,

где к0 – первоначальный размер данных;

кm – размер данных в сжатом виде.

При кодировании кодом Шеннона-Фано обеспечивается коэффициент сжатия:

36∙¯|log26|¯/(10∙2+8∙2+6∙3+5∙3+4∙3+3∙3)=108/90=1,2,

где 36 – количество символов в файле;

¯|log26|¯ - минимальная длина кодовой комбинации при кодировании равномерным кодом (¯|.|¯ обозначает ближайшее целое число, большее log26);

10, 8, 6, 5, 4, 3 – число символов a, b, c, d, e, f в файле;

2, 2, 3, 3, 3, 3 – длина кодовых комбинаций кода Шеннона-Фано, соответствующих символам a, b, c, d, e, f (см. табл. 1.1).

Таблица 1.3 – Построение кода Хаффмана.

Символ

Частота

Объединение символов

Код

a

b

c

d

e

f

0,28

0,22

0,17

0,14

0,11

0,08

0,28

0,22

0,19

0,17

1,14

0,31

0,28

0,22

0,19

0,41

0,31

0,28

0,59

0,41

1,00

10

01

111

110

001

000

Рисунок 1.3 – Кодовое дерево для кода Хаффмана.

При кодировании кодом Хаффмана обеспечивается степень сжатия:

Ксж=36∙¯|log26|¯/(10∙2+8∙2+6∙3+5∙3+4∙3+3∙3)=108/90=1,2.

PAGE  5


Источник
 сообщения

Кодер источника

Кодер канала

риптографический кодер

Модулятор

Канал связи

Демодулятор

Декодер канала

Криптографический декодер

Декодер источника

Получатель сообщения

0,59

1,00

Помехи

Перехватчик

1,00

0,06

«1»

«0»

0,04

0,35

0,25

«1»

«0»

«0»

«1»

0,15

0,10

0,10

0,05

«1»

«0»

а4

а5

а3

а2

а1

0,41

0,31

0,28

0,22

0,19

0,17

0,14

0,11

0,17

с

d

a

b

e

f

«1»

«1»

«1»

«1»

«1»

«0»

«0»

«0»

«0»

«0»




1. тема конституционного права Республики Беларусь
2. часа Блюдо приобретает тонкий неповторим вкус способный удовлетворить самых взыскательных гурманов
3. Реалізація шкіряного взуття
4. контрольная работа
5. Функції права
6. бытовых зданий и сооружений в соответствии с требованиями организации производства и создания благоприятны
7. Логистика Преподаватель ~ Ташбаев Ы
8. Советское военно-стратегическое планирование накануне Великой отечественной войны в современной историографии
9. Working systems to the multiple computers
10. Докладчик- Разина Н
11. Лабораторная работа по Электронике
12. Издательство ПРИОР МОСКВА 1997 Коллектив авторов- канд
13. Радиационное загрязнени
14. Билеты по геодезии (2002г
15. х роках ХIV ст українські землі зазнали розчленування
16.  Становление конституционного права СССР 1
17. реферат дисертації на здобуття наукового ступеня кандидата біологічних наук Киї
18. Выполнение вычислений является одним из главных назначений электронных таблиц EXCEL
19. Структура и формирование характера
20. Тема- Сучасна клітинна теорія