Приготовила: учитель информатики МОУ «Гимназия г. Вольска Саратовской области» Кириченко Наталья Евгеньевна Для учащихся 10 класса.

Презентация:



Advertisements
Похожие презентации
Информация и информационные процессы. знания Информация и знания незнание.
Advertisements

Решение задач, в условии которых события не равновероятны.
Измерение информации: вероятностный подход Урок
Содержательный подход к измерению информации. Формула Шеннона.
Информация и кодирование информации Формула Шеннона 10 класс, профильЗахарова О.Н.
Количество информации, заключенное в сообщении, определяется объемом знаний, который несет это сообщение человеку. Этот подход субъективный (зависит от.
Информация (informatio) – сведение, разъяснение, ознакомление. Информация – общенаучное понятие. Используется в различных науках (информатике, кибернетике,
Количество информации как мера уменьшения неопределённости знания
Вероятностный подход к определению количества информации. Автор: Короткова Светлана Ивановна - учитель информатики МБОУ "Шаховская СОШ 1"
Измерение информации ГБОУ Школа 2098 Учитель ИиИКТ Федорова С.В.
Измерение информации. Содержательный подход. Содержательный подход к измерению информации отталкивается от определения информации как содержания сообщения,
Количество информации. Алфавитный и вероятностный подходы к измерению информации.
Формула ШЕННОНА Мясникова О.К.. Формула Шеннона где I количество информации; N –– количество возможных событий; р i вероятность i-го события.
Язык Знаковая система. Строится на основе алфавита и правилах операций над знаками этого алфавита. Виды языков Естественные (появились в результате исторического.
Вероятностный подход и формула Шеннона
Измерение информации Содержательный подход.. Пусть в некотором сообщении содержатся сведения о том, что произошло одно из N равновероятных событий (ни.
Презентация к уроку (информатика и икт, 8 класс) на тему: Определение количества информации
Измерение объёма информации.. Алфавитный подход Вероятностный подход Содержательный подход.
1 Понятие «информация» и свойства информации. 2 «Информация» - от лат. Informatio означает сведение, разъяснение, ознакомление. В биологии понятие «информация»
Информатика 8 класс Измерение информации. Подходы к измерению информации Содержательный подход. Сообщение – информационный поток, который в процессе передачи.
Транксрипт:

Приготовила: учитель информатики МОУ «Гимназия г. Вольска Саратовской области» Кириченко Наталья Евгеньевна Для учащихся 10 класса.

1)алфавитный (т.е. количество информации зависит от последовательности знаков); 2)содержательный или вероятностный (т.е. количество информации зависит от ее содержания).

Орел Монета упала на поверхность земли той стороной вверх, на которой изображен орел Однако при хранении и передаче информации с помощью технических устройств целесообразно отвлечься от содержания информации и рассматривать ее как последовательность знаков (букв, цифр, кодов цветов точек изображения и т.д.).

Множество используемых в тексте символов называется алфавитом. У алфавита есть размер (полное количество его символов), который называется мощностью алфавита. Набор символов знаковой системы (алфавит) можно рассматривать как различные возможные состояния (события). Тогда, если считать, что появление символов в сообщении равновероятно, по формуле (2.1) можно рассчитать, какое количество информации несет каждый символ. Так, в русском алфавите, если не использовать букву ё, количество событий (букв) будет равно 32. Тогда:, откуда I = 5 битов. Каждый символ несет 5 битов информации (его информационная емкость равна 5 битов). Количество информации в сообщении можно подсчитать, умножив количество информации, которое несет 1 символ, на количество символов:

Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Например: 1.Когда сообщают прогноз погоды, то сведения о том, что будет дождь, более вероятно летом, а сообщение о снеге – зимой. 2.Если вы – лучший ученик в классе, то вероятность сообщения о том, что за контрольную работу вы получили 5, больше, чем вероятность получения двойки. 3.Если на озере живет 500 уток и 100 гусей, то вероятность подстрелить на охоте утку больше, чем вероятность подстрелить гуся. 4.Если в мешке лежат 10 белых шаров и 3 черных, то вероятность достать черный шар меньше, чем вероятность вытаскивания белого. 5.Если монета несимметрична (одна сторона тяжелее другой), то при ее бросании вероятности выпадения «орла» и «решки» будут различаться.

– один из создателей математической теории информации. Родился в 1916 г. Клод Элвуд Шеннон

(2) где I - количество информации; N - количество возможных событий; p i - вероятность i-го события. Американский инженер и математик Клод Элвуд Шеннон в 1948 г. предложил формулу для вычисления количества информации в случае различных вероятностей событий: k - количество конкретных событий, т.е. величина, показывающая, сколько раз произошло интересующее нас событие. (3) Знак минус в формуле Шеннона не означает, что количество информации в сообщении – отрицательная величина. Объясняется это тем, что вероятность р, согласно определению, меньше единицы, но больше нуля. Так как логарифм числа, меньшего единицы, т.е. log p i – величина отрицательная, то произведение вероятности на логарифм числа будет положительным.

пусть при бросании несимметричной 4-хгранной пирамидки вероятности отдельных событий будут равны: Тогда Этот подход к определению количества информации называется вероятностным.

Если, следовательно исходы равновероятны, то вероятность каждого исхода – это число, то (4) формула Хартли (американский инженер – связист) - предложена в 1928 г.

Определим количество информации, которое мы получим при бросании симметричной и однородной 4-хгранной пирамидки: Таким образом, при бросании симметричной пирамидки, когда события равновероятны, получим большее количество информации (2 бита), чем при бросании несимметричной (1,75 бита), когда события неравновероятны.

Ясно, что ликвидировать неопределенность – это и значит получить информацию. Следовательно, формула (1) показывает, какое количество информации можно получить для любой конкретной системы. Или: формула (1) показывает, каким количеством информации нужно располагать, чтобы полностью снять неопределенность. Итак, если информация понимается как отражение разнообразия, то мерой для ее количества выступает мера неопределенности, которой обладает рассматриваемая в этот момент ситуация. Описывая неопределенность на языке вероятностей, мы приходим к формуле Шеннона. Количество информации, которое мы получаем, достигает максимального значения, если события равновероятны. Вероятностный подход к измерению информации для конкретного события:

Какие существуют два подхода к измерению информации? Что такое алфавит? Какой величиной характеризуется алфавит? Каким образом можно подсчитать количество информации в сообщении? Одинаковую ли вероятность реализации имеют события? Приведите примеры событий с одинаковой вероятностью, с разной вероятностью. Как определить количество информации при равновероятных событиях? Как определить количество информации при неравновероятных событиях? По какой формуле вычисляется вероятность? Как при вероятностном подходе можно измерить информацию для конкретного события?

1.Вероятность первого события составляет 0,5, а второго и третьего – 0,25. Какое количество информации мы получим после реализации одного из них? 2.В мешке находятся 20 шаров. Из них 15 белых и 5 красных. Какое количество информации несет сообщение о том, что достали: а) белый шар; б) красный шар. Сравните ответы. 3.В коробке лежат кубики: 10 красных, 8 зеленых, 5 желтых, 12 синих. Вычислите вероятность доставания кубика каждого цвета и количество информации, которое при этом будет получено.

§ 2.3, 2.4, 2.5 (с. 82), Задача. Мощность некоторого алфавита равна 64 символам. Каким будет объем информации в тексте, состоящем из 100 символов.