Теми рефератів
Авіація та космонавтика Банківська справа Безпека життєдіяльності Біографії Біологія Біологія і хімія Біржова справа Ботаніка та сільське гос-во Бухгалтерський облік і аудит Військова кафедра Географія
Геодезія Геологія Держава та право Журналістика Видавнича справа та поліграфія Іноземна мова Інформатика Інформатика, програмування Історія Історія техніки
Комунікації і зв'язок Краєзнавство та етнографія Короткий зміст творів Кулінарія Культура та мистецтво Культурологія Зарубіжна література Російська мова Маркетинг Математика Медицина, здоров'я Медичні науки Міжнародні відносини Менеджмент Москвоведение Музика Податки, оподаткування Наука і техніка Решта реферати Педагогіка Політологія Право Право, юриспруденція Промисловість, виробництво Психологія Педагогіка Радіоелектроніка Реклама Релігія і міфологія Сексологія Соціологія Будівництво Митна система Технологія Транспорт Фізика Фізкультура і спорт Філософія Фінансові науки Хімія Екологія Економіка Економіко-математичне моделювання Етика Юриспруденція Мовознавство Мовознавство, філологія Контакти
Українські реферати та твори » Информатика, программирование » Розрахунок оптимального коду за методикою Шеннона-Фано

Реферат Розрахунок оптимального коду за методикою Шеннона-Фано

ЗМІСТ

Зміст

Анотація

Введення

Зміст завдання

Теоретична частина

Практична частина

а) розрахунки

б) програма

Висновок

а) результати роботи програми

б) блок-схема

Література


АНОТАЦІЯ

У цій роботі за даним числу символів в алфавіті розраховуються їх ймовірності, кількість інформації, якщо символи зустрічаються з рівними ймовірностями і з різними ймовірностями, Недовантаження символів, швидкість передачі повідомлень і надмірність повідомлень. Крім того, в даній роботі будується оптимальний двійковий код за методикою Шеннона - Фано. Виконання цієї курсової роботи закріплює наші знання з дисципліни В«Теорія інформаціїВ».

До роботи додається програма, написана на мові програмування високого рівня (Turbo Pascal).

SUMMARY

In this work on the given numbeof symbols in the alphabet their probabilities, amount of the information if symbols meet equal probabilities and with different probabilities, speed of message transfer and redundancy of messages pay off. Besides in the given work the optimum binary code by technique of Shennon and Fano is under construction. Performance of this course work fixes our knowledge on discipline В«The Theory of the InformationВ».


ВСТУП

Інформатика та обчислювальна техніка - це область науки і техніки, яка включає сукупність засобів, способів і методів людської діяльності, спрямованих на створення і застосування пристроїв зв'язку, систем збору, зберігання і обробки інформації.

У багатьох випадках бережена і передана інформація може становити інтерес для осіб, які бажають використовувати її в корисливих цілях.

Одним з методів захисту є кодування.

Кодування - це відображення повідомлень кодом по певним правилом присвоєння символів.

Код - це правило, яке описує відображення одного набору знаків в інший набір знаків (або слів). Кодом також називають і безліч образів при цьому відображенні.

Оптимальний код - це найбільш ефективний випадок кодування з нульовою надмірністю. При усуненні надмірності істотно знижується кількість символів, необхідних для кодованих повідомлень. Внаслідок цього зменшується час передачі, знижується необхідний обсяг пам'яті.

Таким чином, знання методів обробки інформації є базовим для інженерів, робота яких пов'язана з обчислювальними системами і мережами. Надмірність - додаткові засоби, що вводяться в систему для підвищення її надійності та захищеності.

Таким чином, інформатика займається вивченням обробки і передачі інформації.

У роботі відбивається застосування базових понять інформатики.


ЗМІСТ ЗАВДАННЯ

Для проведення розрахунків розробити програму на мові ПАСКАЛЬ.

1.1. Число символів алфавіту k = m (номер варіанта завдання) + 10. Визначити кількість інформації на символ повідомлення, складеного з цього алфавіту:

а) якщо символи алфавіту зустрічаються з рівними ймовірностями;

б) якщо символи алфавіту зустрічаються в повідомленні з імовірностями:

р 1 = 0,15; p 2 = p 1 /(k-1); p 3 = (p 1 + p 2 )/(k-2) ...

k-1

p k = ОЈ p n /(k - k + 1).

n = 1

Сума всіх ймовірностей повинна бути Равою одиниці, тому:

p i

р i = -----

k

ОЈ p j

j = 1

Визначити, наскільки недовантажені символи у другому випадку.

1.2. Число символів алфавіту = m (номер варіанта завдання). Ймовірності появи символів дорівнюють відповідно

р 1 = 0,15; p 2 = p 1 /(k-1); p 3 = (p 1 + p 2 )/(k-2) ...

k-1

p k = ОЈ p n /(k - k + 1).

n = 1

Тривалості символів П„ 1 = 1 сек; П„ 2 = 2 сек;

П„ k = П„ k -1 + 1.

Чому дорівнює швидкість передачі повідомлень, складених з таких символів?

Визначити кількість інформації на символ повідомлення, складеного з цього алфавіту:

а) якщо символи алфавіту зустрічаються з рівними ймовірностями;

Визначити, наскільки недовантажені символи у другому випадку.

1.3. Повідомлення складаються з алфавіту з числом символів = m. Імовірність появи символів алфавіту дорівнює відповідно:

р 1 = 0,15; p 2 = p 1 /(k-1); p 3 = (p 1 + p 2 )/(k-2) ...

k-1

p k = ОЈ p n /(k - k + 1).

n = 1

Знайти надмірність повідомлень, складених з даного алфавіту.

Побудувати оптимальний код повідомлення.


ТЕОРЕТИЧНА ЧАСТИНА

кількісні ОЦІНКА ІНФОРМАЦІЇ

Загальне число неповторюваних повідомлень, яке може бути складено з алфавіту m шляхом комбінування по n символів в повідомленні,

N = m n

Невизначеність, припадає на символ первинного (кодованого) алфавіту, складеного з рівноймовірно і взаємонезалежних символів,

H = log 2 m

Так як інформація є невизначеність, що знімається при отриманні повідомлення, то кількість інформації може бути представлене як добуток загального числа повідомлень k на середню ентропію H, що припадає на одне повідомлення:

I = k * H біт

Для випадків рівноймовірно і взаємонезалежних символів первинного алфавіту кількість інформації в k повідомленнях алфавіту m одно:

I = k * log 2 m біт

Для неравновероятних алфавітів ентропія на символ алфавіту:

m m

H = ОЈ p i * log 2 (1/2p i ) =-ОЈp i * log 2 p i біт/символ

i = 1 i = 1

А кількість інформації в повідомленні, складеному з k неравновероятних символів,

m

I =-k * ОЈ p i * log 2 p i біт

i = 1

ОБЧИСЛЕННЯ ШВИДКОСТІ ПЕРЕДАЧІ ІНФОРМАЦІЇ ТА пропускної спроможності каналів зв'язку

В умовах відсутності перешкод швидкість передачі інформації визначається кількістю інформації, стерпним символом повідомлення в одиницю часу, і дорівнює

C = n * H,

де n - кількість символів, що виробляються джерелом повідомлень за одиницю часу; H - ентропія (Невизначеність), що знімається при отриманні одного символу повідомлень, вироблюваних даним джерелом.

Швидкість передачі інформації також може бути представлена ​​як

біт/сек,

де тау - час передачі одного двійкового символу.

Для повідомлень, складених з рівноймовірно взаємонезалежних символів рівній тривалості, швидкість передачі інформації:


C = (1/П„) * log 2 m біт/сек

У разі неравновероятних символів рівній тривалості:

m

C = (1/П„) * ОЈp i * log 2 p i біт/сек

i = 1

У разі неравновероятних і взаємонезалежних символів різної тривалості:

Пропускна здатність (Або ємність каналу зв'язку) - є максимальна швидкість передачі інформації по даного каналу зв'язку. Під каналом зв'язку розуміють сукупність засобів, призначених для передачі інформації від даного джерела повідомлень до адресату. Вираз для пропускної здатності відрізняється тим, що пропускну спроможність характеризує максимальна ентропія:

З макс = біт/сек

Для двійкового коду:

З макс біт/сек

При наявності перешкод пропускна здатність каналу зв'язку обчислюється як добу...


Страница 1 из 9Следующая страница

Друкувати реферат
Замовити реферат
Товары
загрузка...
Наверх Зворотнiй зв'язок