Теми рефератів
Авіація та космонавтика Банківська справа Безпека життєдіяльності Біографії Біологія Біологія і хімія Біржова справа Ботаніка та сільське гос-во Бухгалтерський облік і аудит Військова кафедра Географія
Геодезія Геологія Держава та право Журналістика Видавнича справа та поліграфія Іноземна мова Інформатика Інформатика, програмування Історія Історія техніки
Комунікації і зв'язок Краєзнавство та етнографія Короткий зміст творів Кулінарія Культура та мистецтво Культурологія Зарубіжна література Російська мова Маркетинг Математика Медицина, здоров'я Медичні науки Міжнародні відносини Менеджмент Москвоведение Музика Податки, оподаткування Наука і техніка Решта реферати Педагогіка Політологія Право Право, юриспруденція Промисловість, виробництво Психологія Педагогіка Радіоелектроніка Реклама Релігія і міфологія Сексологія Соціологія Будівництво Митна система Технологія Транспорт Фізика Фізкультура і спорт Філософія Фінансові науки Хімія Екологія Економіка Економіко-математичне моделювання Етика Юриспруденція Мовознавство Мовознавство, філологія Контакти
Українські реферати та твори » Информатика, программирование » Ентропія сигналів

Реферат Ентропія сигналів

Контрольна робота

По курсу: Теорія інформації і кодування

На тему: Ентропія сигналів


1. ЕНТРОПІЯ ОБ'ЄДНАННЯ

Об'єднання - сукупність двох і більше ансамблів дискретних, випадкових подій. З об'єднанням пов'язані поняття умовної, безумовної, спільної та взаємної ентропії.

1. Безумовна ентропія - середня кількість інформації, що припадає на один символ (рис. 1). Якщо Х - передаване, а У - прийняте повідомлення, то можна записати наступні співвідношення:

H (X) = H (X/Y) + H (X Г— Y),

H (Y) = H (Y/X) + H (X Г— Y).


X Y X Y

Рис. 1. Безумовна ентропія

2. Умовна ентропія - кількість інформації про джерело, коли відомо, що приймається Y, або міра кількості інформації в приймачі коли відомо, що передається X (рис. 2).

H (X/Y) = H (X)-H (X? Г— Y)

H (Y/X) = H (Y)-H (X? Г— Y).


X Y X Y

Рис. 2. Умовна ентропія


3. Спільна ентропія - середня кількість інформації на пару пе-Реда і прийнятих символів (рис. 3).

H (X, Y) = H (Y, X) = H (X) + H (Y/X) = H (Y) + H (X/Y) = H (X) + H (Y)-H (X Г— Y).

4. Взаємна ентропія - ентропія спільного появи статистично-залежних повідомлень (рис. 4).

H (X Г—? Y) = H (Y Г— X) = H (X)-H (X/Y) = H (Y)-H (Y/X) = H (X, Y)-H (X/Y) - H (Y/X).

X Y

Рис. 3 Спільна ентропія

X Y


Рис. 4. Взаємна ентропія

На практиці найчастіше зустрічаються взаємозалежні символи і повідомлення. Наприклад, при передачі текстових повідомлень передаються не просто букви, а слова, що мають певні смислові значення. При цьому, кожна буква, і поєднання букв мають різні ймовірності появи в тексті. Умовна ентропія враховує взаємозв'язок подій через їх умовні ймовірності.

Розглянемо схему рис. 5:


Приймач

повідомлень

Джерело

повідомлень

X Y

Рис. 5. Передача повідомлень

Джерело повідомлень X - виробляє повідомлення, елементами якого є символи алфавіту джерела {x 1 , x 2 , ..., x m } , ймовірності появи на виході яких дорівнюють p (x 1 ), p (x 2 ), ..., P (x m ), при цьому:

Ентропія джерела являє собою невизначеність появи на виході джерела повідомлень символу первинного алфавіту і визначається співвідношенням:

()

Приймач повідомлень Y - приймає повідомлення, елементами якого є символи алфавіту приймача {y 1 , y 2 , ..., y m } , ймовірності появи на вході яких дорівнюють p (y 1 ), p (y 2 ), ..., p (y m ), при цьому:

Ентропія приймача являє собою невизначеність появи на вході приймача повідомлень символу після його появи на виході джерела і визначається співвідношенням:

(2)

Якщо в каналі зв'язку відсутні втрати інформації (немає перешкод, ис-каженій і т. д.), то символу x i відповідає символ y i . В іншому випадку x i може бути прийнятий як будь-який з можливих y 1 , y 2 , ..., y m , З відповідними ймовірностями.

При відсутності втрат: H (X) = H (Y). При наявності перешкод вони знищити-жають частина інформації. При цьому втрати інформації можна визначити через приватні та загальну умовну ентропію.

Обчислення загальної умовної ентропії зручно проводити за допомогою канальних матриць (матрицею перехідних станів).

Втрати інформації в каналі можна оцінювати з боку джерела або приймача повідомлень.

Розглянемо порядок визначення втрат зі боку джерела (відомий передаваний сигнал). При цьому, умовна ймовірність p (y j /x i ) означає ймовірність того, що при передачі повідомлення x i отримано повідомлення y j . Канальна матриця має вигляд, наведений в табл. 1.

Таблиця 1

Y

X

y 1 y 2 y m

x 1

x 2

x m

p (y 1 /x 1 ) p (y 2 /x 1 ). . . p (y m /x 1 )

p (y 1 /x 2 ) p (y 2 /x 2 ). . . p (y m /x 2 )

p (y 1 /x m ) p (y 2 /x m ). . . p (y m /x m )

При цьому:

.

Ймовірності, розташовані на діагоналі характеризує ймовірність правильного прийому, решта - помилкового, ніж вони розташовані далі від діагоналі, тим вони менше. При відсутності перешкод в каналі зв'язку елементи матриці, розташовані по діагоналі, дорівнюють одиниці, а всі інші дорівнюють нулю. Канальні матриці завжди квадратні, тому що кількість переданих сигналів, дорівнює кількості прийнятих, хоча ймовірність проходження окремих сигналів може бути дорівнює нулю.

Втрати інформації, викликані впливом перешкод, визначаються за допомогою умовної ентропії. Для рівноймовірно сигналів на виході джерела загальна умовна ентропія обчислюється за формулою:

. (3)

Для не рівноймовірно сигналів на виході джерела загальна умовна ентропія обчислюється за формулою:

(4)

Приватна умовна ентропія визначає втрати інформації, що припадають на частку якого - небудь конкретного сигналу (Наприклад, втрати для сигналу x 1 )

. (5)

При відсутності перешкод ймовірність отримання правильного сигналу стане безумовною, а умовна ентропія буде дорівнювати нулю.

Для дослідження каналу з боку приймача (відомий отриманий сигнал) - умовна ймовірність p (x i /Y i ) означає ймовірність того, що при прийомі повідомлення y i було передано повідомлення x i .

Канальна матриця має вигляд, наведений в табл. 2.

Таблиця 2

Y

X

y 1 y 2 y m

x 1

x 2

...


Страница 1 из 3Следующая страница

Друкувати реферат
Замовити реферат
Товары
загрузка...
Наверх Зворотнiй зв'язок