ИНФОРМАЦИЯ Презентация к урокам 1,2 в 10 классе. И НФОРМАЦИЯ ( INFORMATIO ) – РАЗЪЯСНЕНИЕ, ОСВЕДОМЛЕНИЕ, ИЗЛОЖЕНИЕ ( БЫТОВОЕ ) Объект Сигналы, знаки Орган.

Презентация:



Advertisements
Похожие презентации
ИЗМЕРЕНИЕ ИНФОРМАЦИИ Какое количество информации содержится, к примеру, в тексте романа «Война и мир», в фресках Рафаэля или в генетическом коде.
Advertisements

Формулы Хартли и Шеннона Вероятностный подход к измерению количества информации.
ИЗМЕРЕНИЕ ИНФОРМАЦИИ Вероятностный подход Алфавитный подход ИНФОРМАЦИЯ по отношению к человеку – это ЗНАНИЯ по отношению к техническим устройствам – это.
Приготовила: учитель информатики МОУ «Гимназия г. Вольска Саратовской области» Кириченко Наталья Евгеньевна Для учащихся 10 класса.
Есть ли связь между объемным подходом к измерению информации и содержанием информации? Объем информации не связан с ее содержанием. Говоря об объеме информации,
Подходы к определению количества информации СОДЕРЖАТЕЛЬНЫЙ АЛФАВИТНЫЙ Количество символов в сообщении * вес одного символа Смысл сообщения.
ИНФОРМАЦИЯ Понятие информации Свойства информации Различные подходы к определению Количества информации.
Содержательный способ определения количества информации.
Человек Знания Информация Техническое устройство Подходы к измерению информации Содержательный (вероятностный) Алфавитный Последовательность символов,
Раздел 2. Информация и информационные процессы Глава 1. Информация, ее представление и измерение.
Измерение информации. Измерение информации Содержательный подход Алфавитный подход.
Количество информации как мера уменьшения неопределённости знания
Единицы измерения 1 килобайт = 1Кб=2 10 байт =1024 байта; 1 мегабайт = 1Мб= 2 10 Кб = 1024 Кб; 1 гигабайт = 1Гб = 2 10 Мб = 1024 Мб; 1 терабайт = 1 Тб.
Часто приходится слышать, что то или иное сообщение несет мало информации или, наоборот, содержит исчерпывающую информацию. При этом разные люди, получившие.
КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ Задача 1. При угадывании целого числа в диапазоне от 1 до N было получено 6 бит информации. Чему равно N ? Решение задачи.
Измерение и кодирование информации Справочные сведения Решение типовых задач.
Измерение информации ГБОУ Школа 2098 Учитель ИиИКТ Федорова С.В.
ИНФОРМАЦИЯ Выполнила ученица 10 класса Собенникова Евгения Учитель: Хлопков Алексей Михайлович.
Количество информации. Алфавитный и вероятностный подход к измерению информации.
Объем информации равен длине двоичного кода Основная единица: 1 бит- один разряд двоичного кода Длина кода символа(i бит) кодируемого алфавита мощностью.
Транксрипт:

ИНФОРМАЦИЯ Презентация к урокам 1,2 в 10 классе

И НФОРМАЦИЯ ( INFORMATIO ) – РАЗЪЯСНЕНИЕ, ОСВЕДОМЛЕНИЕ, ИЗЛОЖЕНИЕ ( БЫТОВОЕ ) Объект Сигналы, знаки Орган ы чувств Данные Обработка данных мозгом Информация об объекте

К ЛАССИФИКАЦИЯ ИНФОРМАЦИИ Основной признак Способ восприятия Форма представления Назначение Виды информации Визуальная Аудиальная Вкусовая Обонятельная Тактильная Текстовая Числовая Звуковая Графическая Комбинированная Личная Общественная Специальная (научная, управленческая, производственная и т.д.) Субъекты обмена (способы обмена информацией) Вид информации Представители человеческого обществаСоциальная Автоматы, люди и автоматыТ ехническая Представители живой природыБиологическая Клетки растительного или животного мираГенетическая

С ВОЙСТВА ИНФОРМАЦИИ Передавать Получать Преобразовывать Сохранять Использовать Измерять Оценивать Распространять Исследовать и т.д. Достоверность Доступность Полнота Актуальность Полезность Понятность Адекватность (уровень соответствия образа, информационного объекта, создаваемого с помощью полученной информации, реальному объекту) Информацию можно: Свойства (качественные)

ЭНТРОПИЯ Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний. Введем величину измеряющую неопределенность H (энтропию).Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию.

И ЗМЕРЕНИЕ ИНФОРМАЦИИ Неопределенность знания о результате некоторого события равна количеству возможных результатов события. Неопределенность знания о состоянии какого – либо объекта равна количеству различных состояний объекта. Минимальная единица измерения в 1 бит уменьшает неопределенность знания в 2 раза

П ОДХОДЫ К ОПРЕДЕЛЕНИЮ КОЛИЧЕСТВА ИНФОРМАЦИИ. Ф ОРМУЛЫ Х АРТЛИ И Ш ЕННОНА. Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Ф ОРМУЛА Х АРТЛИ Для равновероятных событий верна формула N=2 i, где N - количество вероятно возможных результатов события, а i (бит) - количество информации, содержащееся в сообщении о том, что произошло одно из N равновероятных событий. Можно воспользоваться формулой i=log 2 N.

П РИМЕРЫ В корзине 16 шаров разного цвета. Сколько информации несет сообщение о том, что из корзины достали красный шар? Результат вытаскивания из корзины любого из 16 шаров – событие равновероятное. Поэтому для ответа на вопрос задачи применима формула N=2 i, где N = 16, т.е. 2 i = 16 => i =4 бита. Задача 1Решение

П РИМЕРЫ При угадывании целого числа в диапазоне от 1 до N получено 6 битов информации. Укажите диапазон. i =6 битов. N=2 i => N =2 6, т.е. N=64. Диапазон [1,64]. Задача 2Решение

П РИМЕРЫ Какое минимальное количество вопросов надо задать, чтобы определить загаданное число из заданного набора 32 возможных чисел? N=2 i или i=log 2 N где N = 32, т.е. i = 5 => 5 битов или 5 вопросов. Задача 3Решение

П РИМЕРЫ Кодовый замок сейфа должен допускать не менее уникальных комбинаций. Сколько двухпозиционных переключателей необходимо включить в его конструкцию? 15000=2 i i=log получится дробное число 13,878, ближайшая степень числа 2 к есть число 16384, т.е. 2 14, т.о. i = 14 => в конструкцию нужно включить не менее 14 двухпозиционных переключателей. Задача 4Решение

П РИМЕРЫ Какое количество информации несет сообщение « Встреча назначена на 29 сентября»? Месяц встречи один из 12 месяцев года: N 1 =12, сообщение о выборе месяца содержит i 1 битов информации. В месяце 30 дней: N2=30, сообщение о выборе дня содержит i 2 битов. Все сообщение содержит i=i 1 +i 2 =log 2 N 1 + log 2 N 2 = log log 2 308, битов информации. Задача 5Решение

Р ЕШИТЕ ЗАДАЧИ Преподаватель договорился заниматься с учеником раз в неделю, причем день каждую неделю мог быть разный. Было составлено расписание на 20 недель и записано в некоторое электронное устройство, которое напоминало о занятиях. Оцените информационный объем этого расписания в байтах. День недели (из 7 возможных) 3 бита, 20 недель, 3 бита*20 недель =60 бит=7,5 байт. Ответ 8 байт.

Если к этой задаче добавить фразу «Информация о дне занятия записывалась минимально возможным количеством байтов», задача решалась бы по другому. 3 бита надо для кодирования дня недели, но записать это можно как 1 байт, следовательно 20 байт.

Р ЕШИТЕ ЗАДАЧИ Какое сообщение содержит большее количество информации? a) Монета упала «решкой» вверх b) В библиотеке книга нашлась в 5-м шкафу из восьми c) Вася получил за экзамен 3 балла (единицы не ставятся) по 5-балльной системе d) Из колоды карт (32 шт.) выпала 7 пик a ) N = 2, I =1 b ) N = 8, I =3 c ) N = 4, I = 2 d) N= 32, I = 5.

Р ЕШИТЕ ЗАДАЧИ Мощность алфавита N – количество букв в алфавите. Максимальное количество букв в слове, записанном с помощью этого алфавита m. Максимальное количество слов L=N m. 256=N 4, следовательно N=4. Словарный запас некоторого языка составляет 256 слов, каждое из которых состоит точно из 4 букв. Сколько букв в алфавите языка? a) 16 b) 256 c) 4 d) 8

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно о тветить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины. А если это магазин для женщин?

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. Формула Шеннона: I = ( p 1 log 2 p 1 + p 2 log 2 p p N log 2 p N ), где p i вероятность того, что именно i-е сообщение выделено в наборе из N сообщений. Легко заметить, что если вероятности p 1,..., p N равны, то каждая из них равна 1 / N, и формула Шеннона превращается в формулу Хартли.

И ЗМЕРЕНИЕ ИНФОРМАЦИИ. Н ЕРАВНОВЕРОЯТНЫЕ СОБЫТИЯ. Вероятность события p и количество информации i в сообщении о нем связаны формулой 1/p =2 i или i=log 2 (1/p) = - log 2 p

П РИМЕРЫ В коробке 8 красных, 12 белых и 12 синих платков. Сколько информации несет сообщение о том, что достали красный платок? Белый? Пусть p k – вероятность того, что из коробки достали красный платок. Всего платков 32, значит p k =8/32=1/4. Это доля красных платков в общем числе платков. Количество информации в сообщении i k = -log 2 p k = - log 2 1/4= log 2 4=2 (бит). ЗадачаРешение

З АДАЧА В коробе грибника лежат грибы: белые, подосиновики и мухоморы. Всего 32 гриба. Сообщение о том, что вынули мухомор, несет 4 бита информации. Мухоморов в 3 раза меньше, чем белых. Сколько грибов каждого типа? a) белых 6, подосиновиков 24, мухоморов 2 b) белых 12, подосиновиков 16, мухоморов 4 c) белых 3, подосиновиков 28, мухоморов 1 d) белых 9, подосиновиков 20, мухоморов 3 Формула 2 i =1/P. Мухомор – i=4 бит (по усл) P вероятность, что мухомор 2 4 =1/P, P=1/16 P=X/32 => X=2 количество мухоморов Белых 6 Подосиновиков 24 РЕШЕНИЕ