Измерение информации. Содержательный подход. Содержательный подход к измерению информации отталкивается от определения информации как содержания сообщения,

Презентация:



Advertisements
Похожие презентации
Вероятностный подход и формула Шеннона
Advertisements

Измерение информации: вероятностный подход Урок
Формула Шеннона. Задача: Какое сообщение содержит большее количество информации? В библиотеке 8 шкафов. Книга нашлась в 3-м шкафу; Вася получил за экзамен.
Вероятностный подход к измерению информации. Формула Шеннона МОУ «Февральская средняя общеобразовательная школа 1» Учитель информатики: Т.А. Батукова.
Вероятностный подход к определению количества информации. Формула Шеннона 10 класс.
Приготовила: учитель информатики МОУ «Гимназия г. Вольска Саратовской области» Кириченко Наталья Евгеньевна Для учащихся 10 класса.
В коробке имеется 50 шаров. Из них 40 белых и 10 черных. Если тащить «не глядя», какой шар вероятнее всего попадется: белый или черный? Сережа – лучший.
Есть ли связь между объемным подходом к измерению информации и содержанием информации? Объем информации не связан с ее содержанием. Говоря об объеме информации,
Информация и информационные процессы. знания Информация и знания незнание.
Вероятностный подход к определению количества информации. Формула Шеннона 10 класс.
Решение задач, в условии которых события не равновероятны.
ИЗМЕРЕНИЕ ИНФОРМАЦИИ. СОДЕРЖАТЕЛЬНЫЙ ПОДХОД ИНФОРМАЦИЯ.
Вероятностный подход к измерению информации. Формула Шеннона.
Количество информации. Вероятностный подход к определению количества информации. Решение задач Выполнила: Царева Валентина Владимировна Учитель информатики и ИКТ школа 578 Приморского.
РЕШЕНИЕ ЗАДАЧ. сформировать навыки и умения находить количество информации Цель:
Человек Знания Информация Техническое устройство Подходы к измерению информации Содержательный (вероятностный) Алфавитный Последовательность символов,
Вероятностный подход к определению количества информации Учитель информатики МОУ СОШ 34 г.Комсомольск-на-Амуре Шаповалова Г.Г г.
Измерение информации. Измерение информации Содержательный подход Алфавитный подход.
Содержательный подход к измерению информации. Формула Шеннона.
Цель урока: научиться решать задачи на определение количества информации по формулам Хартли и Шеннона. Тема. Формула Шеннона. Формула Хартли.
Транксрипт:

Измерение информации. Содержательный подход

Содержательный подход к измерению информации отталкивается от определения информации как содержания сообщения, получаемого человеком. Сущность содержательного подхода заключается в следующем: сообщение, информирующее об исходе какого-то события, снимает неопределенность знания человека об этом событии. Чем больше первоначальная неопределенность знания, тем больше информации несет сообщение, снимающее эту неопределенность.

Приведем примеры, иллюстрирующие данное утверждение. Ситуация 1. В ваш класс назначен новый учитель информатики; на вопрос «Это мужчина или женщина?» вам ответили: «Мужчина». Ситуация 2. На чемпионате страны по футболу играли команды «Динамо» и «Зенит». Из спортивных новостей по радио вы узнаете, что игра закончилась победой «Зенита». Ситуация 3. На выборах мэра города было представлено четыре кандидата. После подведения итогов голосования вы узнали, что избран Н. Н. Никитин. Вопрос: в какой из трех ситуаций полученное сообщение несет больше информации?

Неопределенность знания это количество возможных вариантов ответа на интересовавший вас вопрос. Еще можно сказать: возможных исходов события. В первой ситуации 2 варианта ответа: мужчина, женщина; во второй ситуации 3 варианта: выиграл «Зенит», ничья, выиграло «Динамо»; в третьей ситуации 4 варианта: 4 кандидата на пост мэра. Согласно данному выше определению, наибольшее количество информации несет сообщение в третьей ситуации, поскольку неопределенность знания об исходе события в этом случае была наибольшей.

В 40-х годах XX века проблема измерения информации была решена американским ученым Клодом Шенноном основателем теории информации. Согласно Шеннону, информация это снятая неопределенность знания человека об исходе какого-то события.

В теории информации единица измерения информации определяется следующим образом. Сообщение, уменьшающее неопределенность знания об исходе некоторого события в два раза, несет 1 бит информации. Обозначим буквой N количество возможных исходов события, или, как мы это еще называли, неопределенность знания. Буквой I будем обозначать количество информации в сообщении об одном из N результатов. N=2 I

Задача 1. В кинозале 16 рядов, в каждом ряду 32 места. Какое количество информации несет сообщение о том, что вам купили билет на 12-й ряд, 10-е место? Решение 1 способ Дано:Решение N=1632N=2 I Найти I16·32= =2 9 I=9 бит 2 способ Дано:Решение N 1 =16I 1 =4 бит N 2 =32I 2 =5 бит Найти II=I 1 +I 2 =9 бит.

Данный пример иллюстрирует выполнение закона аддитивности количества информации (правило сложения): количество информации в сообщении одновременно о нескольких результатах независимых друг от друга событий равно сумме количеств информации о каждом событии отдельно.

Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Например, если монета несимметрична (одна сторона тяжелее другой), то при ее бросании вероятности выпадения «орла» и «решки» будут различаться.

Пример 1. В коробке имеется 50 шаров. Из них 40 белых и 10 черных. Обозначим р ч – вероятность попадания при вытаскивании черного шара, р б - вероятность попадания белого шара. Тогда: Отсюда видно, что вероятность попадания белого шара в 4 раза больше, чем черного.

Пример 2. Представим себе, что мы изучили успеваемость Сережи за несколько лет учебы. За это время он получил по математике 100 оценок. Из них: 60 пятерок, 30 четверок, 8 троек и 2 двойки. Допуская, что такое распределение оценок может сохраниться и в дальнейшем, вычислим вероятность получения каждой из оценок.

Пример 3. В пруду живут 8000 карасей, 2000 щук и пескарей. Из предыдущих примеров можно догадаться, что вероятность попадания на удочку каждого из видов рыб равна его доле в общем количестве. Отсюда:

Из рассмотренных примеров можно сделать вывод: если N – это общее число возможных исходов какого-то процесса, и из них интересующее нас событие может произойти К раз, то вероятность этого события равна :

Вероятность выражается в долях единицы. В частном случае, вероятность достоверного события равна 1; вероятность невозможного события равна 0. Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить так: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.

Количественная зависимость между вероятностью события (р) и количеством информации в сообщении I выражается формулой:

Задача 2. В корзине лежат 32 клубка шерсти. Среди них – 4 красных. Сколько информации несет сообщение о том, что достали клубок красной шерсти? Решение Дано:Решение N=32 K=4 Найти: I.p=4/32=1/8 8=2 I, I=3 бит

Задача 3. В коробке лежат 64 цветных карандаша. Сообщение о том, что достали белый карандаш, несет 4 бита информации. Сколько белых карандашей было в корзине? Д/з. §4. Решение Дано:Решение N= 64 I=4 бит Найти K 1/p=2 4, p=1/16 1/16=K/64, K=64/16=4 Ответ: 4 карандаша.