Скачать презентацию
Идет загрузка презентации. Пожалуйста, подождите
Презентация была опубликована 11 лет назад пользователемwww.pokori.net
1 ИНФОРМАЦИЯ Презентация к урокам 1,2 в 10 классе
2 И НФОРМАЦИЯ ( INFORMATIO ) – РАЗЪЯСНЕНИЕ, ОСВЕДОМЛЕНИЕ, ИЗЛОЖЕНИЕ ( БЫТОВОЕ ) Объект Сигналы, знаки Орган ы чувств Данные Обработка данных мозгом Информация об объекте
3 К ЛАССИФИКАЦИЯ ИНФОРМАЦИИ Основной признак Способ восприятия Форма представления Назначение Виды информации Визуальная Аудиальная Вкусовая Обонятельная Тактильная Текстовая Числовая Звуковая Графическая Комбинированная Личная Общественная Специальная (научная, управленческая, производственная и т.д.) Субъекты обмена (способы обмена информацией) Вид информации Представители человеческого обществаСоциальная Автоматы, люди и автоматыТ ехническая Представители живой природыБиологическая Клетки растительного или животного мираГенетическая
4 С ВОЙСТВА ИНФОРМАЦИИ Передавать Получать Преобразовывать Сохранять Использовать Измерять Оценивать Распространять Исследовать и т.д. Достоверность Доступность Полнота Актуальность Полезность Понятность Адекватность (уровень соответствия образа, информационного объекта, создаваемого с помощью полученной информации, реальному объекту) Информацию можно: Свойства (качественные)
5 ЭНТРОПИЯ Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний. Введем величину измеряющую неопределенность H (энтропию).Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию.
6 И ЗМЕРЕНИЕ ИНФОРМАЦИИ Неопределенность знания о результате некоторого события равна количеству возможных результатов события. Неопределенность знания о состоянии какого – либо объекта равна количеству различных состояний объекта. Минимальная единица измерения в 1 бит уменьшает неопределенность знания в 2 раза
7 П ОДХОДЫ К ОПРЕДЕЛЕНИЮ КОЛИЧЕСТВА ИНФОРМАЦИИ. Ф ОРМУЛЫ Х АРТЛИ И Ш ЕННОНА. Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.
8 Ф ОРМУЛА Х АРТЛИ Для равновероятных событий верна формула N=2 i, где N - количество вероятно возможных результатов события, а i (бит) - количество информации, содержащееся в сообщении о том, что произошло одно из N равновероятных событий. Можно воспользоваться формулой i=log 2 N.
9 П РИМЕРЫ В корзине 16 шаров разного цвета. Сколько информации несет сообщение о том, что из корзины достали красный шар? Результат вытаскивания из корзины любого из 16 шаров – событие равновероятное. Поэтому для ответа на вопрос задачи применима формула N=2 i, где N = 16, т.е. 2 i = 16 => i =4 бита. Задача 1Решение
10 П РИМЕРЫ При угадывании целого числа в диапазоне от 1 до N получено 6 битов информации. Укажите диапазон. i =6 битов. N=2 i => N =2 6, т.е. N=64. Диапазон [1,64]. Задача 2Решение
11 П РИМЕРЫ Какое минимальное количество вопросов надо задать, чтобы определить загаданное число из заданного набора 32 возможных чисел? N=2 i или i=log 2 N где N = 32, т.е. i = 5 => 5 битов или 5 вопросов. Задача 3Решение
12 П РИМЕРЫ Кодовый замок сейфа должен допускать не менее уникальных комбинаций. Сколько двухпозиционных переключателей необходимо включить в его конструкцию? 15000=2 i i=log получится дробное число 13,878, ближайшая степень числа 2 к есть число 16384, т.е. 2 14, т.о. i = 14 => в конструкцию нужно включить не менее 14 двухпозиционных переключателей. Задача 4Решение
13 П РИМЕРЫ Какое количество информации несет сообщение « Встреча назначена на 29 сентября»? Месяц встречи один из 12 месяцев года: N 1 =12, сообщение о выборе месяца содержит i 1 битов информации. В месяце 30 дней: N2=30, сообщение о выборе дня содержит i 2 битов. Все сообщение содержит i=i 1 +i 2 =log 2 N 1 + log 2 N 2 = log log 2 308, битов информации. Задача 5Решение
14 Р ЕШИТЕ ЗАДАЧИ Преподаватель договорился заниматься с учеником раз в неделю, причем день каждую неделю мог быть разный. Было составлено расписание на 20 недель и записано в некоторое электронное устройство, которое напоминало о занятиях. Оцените информационный объем этого расписания в байтах. День недели (из 7 возможных) 3 бита, 20 недель, 3 бита*20 недель =60 бит=7,5 байт. Ответ 8 байт.
15 Если к этой задаче добавить фразу «Информация о дне занятия записывалась минимально возможным количеством байтов», задача решалась бы по другому. 3 бита надо для кодирования дня недели, но записать это можно как 1 байт, следовательно 20 байт.
16 Р ЕШИТЕ ЗАДАЧИ Какое сообщение содержит большее количество информации? a) Монета упала «решкой» вверх b) В библиотеке книга нашлась в 5-м шкафу из восьми c) Вася получил за экзамен 3 балла (единицы не ставятся) по 5-балльной системе d) Из колоды карт (32 шт.) выпала 7 пик a ) N = 2, I =1 b ) N = 8, I =3 c ) N = 4, I = 2 d) N= 32, I = 5.
17 Р ЕШИТЕ ЗАДАЧИ Мощность алфавита N – количество букв в алфавите. Максимальное количество букв в слове, записанном с помощью этого алфавита m. Максимальное количество слов L=N m. 256=N 4, следовательно N=4. Словарный запас некоторого языка составляет 256 слов, каждое из которых состоит точно из 4 букв. Сколько букв в алфавите языка? a) 16 b) 256 c) 4 d) 8
18 Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно о тветить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины. А если это магазин для женщин?
19 Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. Формула Шеннона: I = ( p 1 log 2 p 1 + p 2 log 2 p p N log 2 p N ), где p i вероятность того, что именно i-е сообщение выделено в наборе из N сообщений. Легко заметить, что если вероятности p 1,..., p N равны, то каждая из них равна 1 / N, и формула Шеннона превращается в формулу Хартли.
20 И ЗМЕРЕНИЕ ИНФОРМАЦИИ. Н ЕРАВНОВЕРОЯТНЫЕ СОБЫТИЯ. Вероятность события p и количество информации i в сообщении о нем связаны формулой 1/p =2 i или i=log 2 (1/p) = - log 2 p
21 П РИМЕРЫ В коробке 8 красных, 12 белых и 12 синих платков. Сколько информации несет сообщение о том, что достали красный платок? Белый? Пусть p k – вероятность того, что из коробки достали красный платок. Всего платков 32, значит p k =8/32=1/4. Это доля красных платков в общем числе платков. Количество информации в сообщении i k = -log 2 p k = - log 2 1/4= log 2 4=2 (бит). ЗадачаРешение
22 З АДАЧА В коробе грибника лежат грибы: белые, подосиновики и мухоморы. Всего 32 гриба. Сообщение о том, что вынули мухомор, несет 4 бита информации. Мухоморов в 3 раза меньше, чем белых. Сколько грибов каждого типа? a) белых 6, подосиновиков 24, мухоморов 2 b) белых 12, подосиновиков 16, мухоморов 4 c) белых 3, подосиновиков 28, мухоморов 1 d) белых 9, подосиновиков 20, мухоморов 3 Формула 2 i =1/P. Мухомор – i=4 бит (по усл) P вероятность, что мухомор 2 4 =1/P, P=1/16 P=X/32 => X=2 количество мухоморов Белых 6 Подосиновиков 24 РЕШЕНИЕ
Еще похожие презентации в нашем архиве:
© 2024 MyShared Inc.
All rights reserved.