Теория информации Практическая работа 1(2) Доцент каф. ЕНД и ИТ Шарапова ЛВ.

Презентация:



Advertisements
Похожие презентации
Теория информации Введение Доцент каф. ЕНД и ИТ Шарапова ЛВ.
Advertisements

«Энтропия и информация. Решение логических задач» «Кто владеет информацией, тот владеет миром!» Э.Талейран.
Тест по информатике «Информация и ее кодирование».
Различные подходы к измерению информации
«Кто владеет информацией, тот владеет миром!» Э.Тайлеран.
Есть ли связь между объемным подходом к измерению информации и содержанием информации? Объем информации не связан с ее содержанием. Говоря об объеме информации,
Имеется колода из 32 игральных карт (без шестерок). Задумана одна из карт. На заданные вопросы даются ответы "Да" или "Нет". Какое наименьшее число вопросов.
Алфавитный подход к определению количества информации Глава Н. Угринович. Базовый курс. 8 класс.
Проверка домашнего задания: 39 а) – 2 с – 14 б) – 2 а + 1 в) – 7 х 40 М.М. 40 – (х – 16)·7 = 12 х = 20 Ответ: задумали число 20.
Теория информации Практическая работа 1 3. Пример 1. Какую степень неопределенности содержит опыт извлечения карточки с простой цифрой, вынутой из разрезной.
Классификация сигналов Под сигналом обычно понимают величину, отражающую состояние физической системы. Поэтому естественно рассматривать сигналы как функции,
1. Из 27 монет одна фальшивая она легче остальных. За какое наименьшее число взвешиваний на чашечных весах без гирь можно определить фальшивую монету?
Тема: Двоичное кодирование звуковой информации. Глава: Кодирование и обработка графической и мультимедийной информации Учебник: Н.Угринович. Базовый курс.
Алфавитный подход к определению количества информации.
Кодирование информации. Кодирование и декодирование Для обмена информацией с другими людьми человек использует естественные языки. Наряду с естественными.
Подходы к определению количества информации СОДЕРЖАТЕЛЬНЫЙ АЛФАВИТНЫЙ Количество символов в сообщении * вес одного символа Смысл сообщения.
Анализ случайных величин. Опр. Случайной называется величина, которая в результате опыта может принять то или иное возможное значение, неизвестное заранее,
Измерение информации. Алфавитный подход. Алфавитный (объемный) подход к измерению информации применяется в цифровых (компьютерных) системах хранения и.
Кодирование и обработка звуковой информации. Звук – это волна с непрерывно меняющейся амплитудой и частотой.
Задание 1. У Буратино есть 27 золотых монет. Но известно, что Кот Базилио заменил одну монету на фальшивую, а она по весу тяжелее настоящих. Как за три.
Транксрипт:

Теория информации Практическая работа 1(2) Доцент каф. ЕНД и ИТ Шарапова ЛВ

Решение задач Определить количество информации, которое содержится в телевизионном сигнале, соответствующем одному кадру развертки. Пусть в кадре 625 строк, а сигнал, соответствующий одной строке, представляет собой последовательность из 600 случайных по амплитуде импульсов, причем амплитуда импульса может принять любое из 8 значений с шагом в 1 В.

Решение задач Определить минимальное число взвешиваний, которое необходимо произвести на равноплечих весах, чтобы среди 27 внешне неотличимых монет найти одну фальшивую, более легкую.

Решение задач Оцените с точностью до одного бита энтропию системы, которая может с равной вероятностью находится в 50 состояниях.

Решение задач Может ли энтропия системы, которая принимает случайным образом одно из 4-х состояний, равняться: а) 3; б) 2.1 в) 1.9 г) 1; д) 0.3? Ответ объяснить.

Решение задач Определить количество информации в плане застройки улицы 10 домами, среди которых 3 дома одного типа, 5 другого и 2 третьего.

Решение задач Заданы три случайных величины X, Y, Z, каждая из которых принимает по два значения с вероятностями: 1. P(X = x1) = 0.5; P(X = x2) = 0.5; 2. P(Y = y1) = 0.2; P(Y = y2) = 0.8; 3. P(Z = z1) = 0.3; P(Z = z2) = 0.7. Запись P(X = x1) = 0.5 означает, что случайная величина X принимает значение x1 с вероятностью 0.5. Требуется расположить энтропии этих систем в порядке возрастания.

Решение задач Получены три различных сообщения A, B, C: A= «прибытие в десять часов»; B= «прибытие в десять часов ноль минут»; C= «прибытие ровно в десять часов». Используя энтропийный подход Шеннона, сравните количество информации, содержащееся в этих сообщениях.

Решение задач По линии связи переданы сообщения: a) «начало_в_10»; b) «лоанча_1_в 0». Сравните количество информации в первом и втором сообщении.

Решение задач Заданы ансамбли Х и Y двух дискретных величин. Сравнить их энтропии. Случайные величины хi 0,50,70,90,3 Вероятности их появления 0,25 Случайные величины yi Вероятности их появления 0,25

Конец 2-й части За все решенные задачи - 10 баллов