Содержательный подход к измерению информации. Формула Шеннона.

Презентация:



Advertisements
Похожие презентации
Формула Шеннона. ФОРМУЛА ШЕННОНА Количество информации для событий с различными вероятностями определяется по формуле: Если события равновероятны ( p.
Advertisements

Вероятностный подход и формула Шеннона
Вероятностный подход к определению количества информации Учитель информатики МОУ СОШ 34 г.Комсомольск-на-Амуре Шаповалова Г.Г г.
Приготовила: учитель информатики МОУ «Гимназия г. Вольска Саратовской области» Кириченко Наталья Евгеньевна Для учащихся 10 класса.
Информация и информационные процессы. знания Информация и знания незнание.
Вероятностный подход к измерению информации. Формула Шеннона.
Количество информации, заключенное в сообщении, определяется объемом знаний, который несет это сообщение человеку. Этот подход субъективный (зависит от.
Решение задач, в условии которых события не равновероятны.
ИЗМЕРЕНИЕ ИНФОРМАЦИИ Вероятностный подход Алфавитный подход ИНФОРМАЦИЯ по отношению к человеку – это ЗНАНИЯ по отношению к техническим устройствам – это.
Формула Шеннона. Задача: Какое сообщение содержит большее количество информации? В библиотеке 8 шкафов. Книга нашлась в 3-м шкафу; Вася получил за экзамен.
Вероятностный подход к измерению информации. Формула Шеннона МОУ «Февральская средняя общеобразовательная школа 1» Учитель информатики: Т.А. Батукова.
Подходы к определению количества информации СОДЕРЖАТЕЛЬНЫЙ АЛФАВИТНЫЙ Количество символов в сообщении * вес одного символа Смысл сообщения.
Формула Шеннона. Цели урока: 1. Закрепление умений определять количество информации 2. Знакомство с формулой Шеннона для не равновероятных событий.
Количество информации, как мера уменьшения неопределенности знаний.
Щукина Т.И. г. Кудымкар, Пермский край. Раздел математики, в котором изучаются случайные события и закономерности, которым они подчиняются, называется.
Количество информации. Алфавитный и вероятностный подход к измерению информации.
Количество информации как мера уменьшения неопределенности знания.
Измерение информации. Содержательный подход. Содержательный подход к измерению информации отталкивается от определения информации как содержания сообщения,
Количество информации как мера уменьшения неопределенности знания Практическая работ 0.1 Измерение информации.
Формулы Хартли и Шеннона Вероятностный подход к измерению количества информации.
Транксрипт:

Содержательный подход к измерению информации. Формула Шеннона.

Информация для человека Информация для человека – это мера уменьшения неопределенности знаний. Единица количества информации, которое содержит сообщение, уменьшающее неопределенность в два раза.

Вероятность и информация. События равновероятны, События равновероятны, если ни одно из них не имеет преимущества перед другими. Выпадение орла или решки при бросании монеты. Выпадение одной из шести граней кубика. Выпадение шара при розыгрыше лотереи.

Вероятность и информация. События неравновероятны, События неравновероятны, если одно из событий имеет преимущества перед другими. Выпадение дождя или снега летом. Получение пятерки и двойки для ученика – отличника. Выпадение грани при бросании несимметричной монеты.

Количество информации Если события равновероятны, то: I = Log 2 N I – количество информации N – количество возможных событий Формула получена Ричардом Хартли (1928 год).

Количество информации Если события неравновероятны, то: I – количество информации N – количество возможных событий Формула получена Клодом Шенноном (1948 год). I = - P i * Log 2 P i P i – вероятность i-го события

Вероятность i - го события P i – вероятность i-го события – численная мера объективной возможности появления этого события. Pi =Pi =Pi =Pi =mn m – число элементарных событий, благоприятствующих этому событию. n – общее число всех элементарных событий.

Объявляются оценки экзамена по информатике (2, 3, 4 или 5). Какое количество информации будет нести сообщение об оценке учащегося А, который выучил половину билетов, и сообщение об оценке учащегося В, который выучил все билеты.

1. Опыт показывает, что для учащегося A все четыре оценки (события) равновероятны и тогда количество информации, которое несет сообщение об оценке можно вычислить по формуле Хартли: I = Log 2 N = Log 2 4 = 2 бит. Ответ: I (А)= 2 бит

2. На основании опыта можно также предположить, что для учащегося B наиболее вероятной оценкой является «5». Вероятность оценки «4» в два раза меньше, а вероятности оценок «2» и «3» еще в два раза меньше. P 1 = 1 / 2P 2 = 1 / 4 P 3 = Р 4 = 1 / 8

3. Так как события неравновероятны, воспользуемся для подсчета количества информации в сообщении формулой Шеннона: I = -(1/2*log 2 1/2 + 1/4*log 2 1/4 + 1/8*log 2 1/8 + 1/8*log 2 1/8) Ответ: I (В)= 1,75 бит

В непрозрачном мешочке хранятся 10 белых, 20 красных, 30 синих и 40 зеленых шариков. Какое количество информации будет содержать зрительное сообщение о цвете вынутого шарика. Ответ: I = 1,85 бит

Какое количество вопросов достаточно задать вашему собеседнику, чтобы точно определить день и месяц его рождения? Ответ: 5 вопросов о дне 4 вопроса о месяце 5 вопросов о дне 4 вопроса о месяце