Тема:«Информация как снятая неопределенность. Единицы измерения информации. Виды информации»

Презентация:



Advertisements
Похожие презентации
Количество информации как мера уменьшения неопределённости знания
Advertisements

Формула Шеннона. ФОРМУЛА ШЕННОНА Количество информации для событий с различными вероятностями определяется по формуле: Если события равновероятны ( p.
ИЗМЕРЕНИЕ ИНФОРМАЦИИ Вероятностный подход Алфавитный подход ИНФОРМАЦИЯ по отношению к человеку – это ЗНАНИЯ по отношению к техническим устройствам – это.
Вероятностный подход к определению количества информации Автор: Косякина С.А., учитель информатики МБОУ гимназия 26 г. Томск.
Информация. Двоичное кодирование информации. Информация -это сведения об окружающем нас мире Информацию можно собирать, хранить, передавать, обрабатывать.
Вероятностный подход и формула Шеннона
Приготовила: учитель информатики МОУ «Гимназия г. Вольска Саратовской области» Кириченко Наталья Евгеньевна Для учащихся 10 класса.
Существуют два основных подхода к определению понятия «измерение информации.» Содержательный подход. (определение К. Шеннона, применяемое в матем. теории.
Измерение и кодирование информации Справочные сведения Решение типовых задач.
(презентация составлена по материалам Н.Д. Угриновича) Подготовила учитель информатики МОУ СОШ 58 Иванцова С.А г.
Содержательный подход к измерению информации. Формула Шеннона.
Формула Шеннона. Цели урока: 1. Закрепление умений определять количество информации 2. Знакомство с формулой Шеннона для не равновероятных событий.
С позиции содержательного подхода к измерению информации решается вопрос о количестве информации в сообщении, получаемом человеком. Рассматривается следующая.
Количество информации. Процесс познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.). Получение новой.
Раздел 2. Информация и информационные процессы Глава 1. Информация, ее представление и измерение.
Количество информации 1. Количество информации как мера уменьшения неопределённости знания Если некоторое сообщение приводит к уменьшению неопределённости.
Вероятностный подход к определению количества информации Учитель информатики МОУ СОШ 34 г.Комсомольск-на-Амуре Шаповалова Г.Г г.
Человек Знания Информация Техническое устройство Подходы к измерению информации Содержательный (вероятностный) Алфавитный Последовательность символов,
ИЗМЕРЕНИЕ ИНФОРМАЦИИ Любой вещественный объект можно измерить: УСТАНОВИТЬ ЕГО ДЛИНУ, ШИРИНУ, ВЫСОТУ; ОПРЕДЕЛИТЬ ЕГО ВЕС.
ИНФОРМАЦИЯ. ИНФОРМАТИКА. Что такое информация? Можно ли дать четкое однозначное определение этому понятию? Что человеку приходится делать с информацией?
Транксрипт:

Тема:«Информация как снятая неопределенность. Единицы измерения информации. Виды информации»

План: 1.Понятие информации. 2.Единицы измерения информации. 3.Как компьютер хранит информацию. 4.Способы измерения информации. 5.Виды информации, выделяемые по функциональному назначению.

Информация Информация первичное понятие информатики. Хранить Передавать Обрабатывать информация это знания, сведения, которыми обладает человек, которые он получает из окружающего мира. информация это содержание последовательностей символов (сигналов) из некоторого алфавита. МОЖНОИНФОРМАЦИЮ

Виды информации 1.Информация, воспринимаемая органами чувств 2.Объективная и субъективная 3.Аналоговая и цифровая 4.Текстовая, графическая, звуковая и так далее…

ИНФОРМАЦИЯ – ЭТО МЕРА РАЗРЕШЕНИЯ НЕОПРЕДЕЛЕННОСТИ. Единицы измерения информации

Номер < 2 Номер < 4 Номер< 6 Номер< 8 Номер 2 Номер 6 Номер 4 ДА НЕТ ДА НЕТ ДА НЕТ ДА НЕТ ДА НЕТ ДА НЕТ ДА НЕТ

БИТ – единица измерения: 1. ИНФОРМАЦИИ 2. НЕОПРЕДЕЛЁННОСТИ 1 бит = [ да, нет] 1 бит = [ 0,1]

N бит позволяет закодировать 2 N различных чисел. 1 бит – 2 комбинации 2 бит – 4 комбинации 3 бит – 8 комбинаций 4 бит – 16 комбинаций Как компьютер хранит информацию?

Сколько двоичных цифр (бит) необходимо, чтобы закодировать одну школьную оценку? Дано: N= I-? Решение: 1.Всего существует пять школьных оценок: 1, 2, 3, 4, 5 (N=5). 2.2 бита позволяют закодировать 2 2 =4 комбинации. 45, следовательно, трех бит будет достаточно. 4.Таким образом, 4

Существует несколько способов измерения информации: 1.Объемный (технический) 2.Алгоритмический 3.Вероятностный Способы измерения информации

Объемный (технический). Каждый символ языка кодируется определенной последовательностью бит, и затем подсчитывается полное количество бит в сообщении. Смысловое содержание сообщения в этом случае не играет никакой роли.

Алгоритмический. Предполагает выбор оптимального способа кодировки, поиск оптимального алгоритма который воспроизвел заданную закодированную последовательность, и определение того, о чем надо предварительно сообщить получателю сообщения для декодирования последнего.

Вероятностный Считается, что двумя двоичными словами исходной длины N или словом длины 2N можно передать в два раза больше информации, чем одним исходным словом. Число возможных равновероятных выборов при этом увеличивается в 2 N раз

N=2 1 =2, I=1 N=2 5 =32, I= 6 N=2 2 =4, I=2 N=2 3 =8, I=3 N=2 4 =16, I=4 N=2 6 =64, I=6 N1=2 k, I1=k N 2 =2 2k, I 2 =2k k 2k2k 2 I =N

формула Хартли N – число возможных исходов опыта I –неопределенность результатов опыта

Сколько бит информации несет сообщение о том, что из колоды в 36 карт достали даму пик? Дано: N= I-? Решение: 1.Согласно формуле Хартли: 2.Таким образом, I=log 2 36=log 10 36/log ,17 бит Ответ: I 5,17 бит

Аво лвадд лоыла оы влаод… символов «а» 200 раз P(a) 0,2 «о» 90 раз P(о) 0,09 «р» 40 раз P(p) 0,04 «ф» 2 раза P(ф) 0,002

I – среднее значение количества информации, приходящейся на 1 символ алфавита формула Шеннона P 1 =1/2, P 2 =1/4, P 3 =1/8, P 4 =1/8. I=-(1/2 · log 2 1/2+1/4 · log 2 1/4+1/8 · log 2 1/8)[бит] =(1/2+2/4+3/8+3/8)[бит]=14/8[бит]=1,75[бит].

Решение: 1.Согласно формуле Шеннона: 2.P ч =P к =P с =0,3; P з =0,1 3.Таким образом, I=-3·(0,3 · log 2 0,3)-0,1 · log 2 0,3 1,74 бит Какое количество информации будет содержать зрительное сообщение о цвете вынутого шарика, если в непрозрачном мешочке хранятся: 30 красных, 30 синих, 30 черных и 10 зеленых шариков. Дано: N= I-? Ответ: I 1,74 бит

1.Текстовая информация. Каждому символу сопоставляется его код – последовательность из фиксированного количества нулей и единиц. 2.Графическая информация. Любое графическое изображение хранится в памяти в виде информации о каждом пикселе на экране. 3.Звуковая информация. Реальные звуковые волны преобразуются в цифровую информацию путем измерения звука тысячи раз в секунду. a)цифровая b)MIDI Виды информации (по назначению)

Задания 1.Сколько бит потребуется для того, чтобы закодировать 54 игральных карты?. 2.Какое количество информации получит второй игрок в игре «Угадай число» при оптимальной стратегии, если первый игрок загадал число от 1 до 32?

Домашнее задание 1.Человек способен различать 100 градаций яркости. Сколько бит необходимо, чтобы закодировать конкретное значение яркости? 2.Вероятность первого события 0,4, а второго и третьего – 0,3. Какое количество информации мы получим после реализации одного из них?