Количество информации. Процесс познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.). Получение новой.

Презентация:



Advertisements
Похожие презентации
Двоичное кодирование текстовой информации Информация и информационные процессы.
Advertisements

Двоичное кодирование текстовой информации Информация и информационные процессы.
Количество информации Выполнил учитель информатики АСОШ 2: Шарипов И.И.
Кодирование информации. Кодирование и декодирование Для обмена информацией с другими людьми человек использует естественные языки. Наряду с естественными.
Кодирование информации Подготовила: учитель информатики Ефимова Н.Ю.
Информация и информационные процессы. Кодирование и декодирование Для обмена информацией с другими людьми человек использует естественные языки. Наряду.
Двоичное кодирование текстовой информации Информация и информационные процессы.
Двоичное кодирование текстовой информации Информация и информационные процессы Скачать конспект к данной презентации Qo.do.aM - >>>мир предметника
Количество информации. Единицы измерения количества информации 7 класс.
Тема: Двоичное кодирование звуковой информации. Глава: Кодирование и обработка графической и мультимедийной информации Учебник: Н.Угринович. Базовый курс.
Измерение информации Алфавитный подход Содержательный подход.
Количество информации 1. Количество информации как мера уменьшения неопределённости знания Если некоторое сообщение приводит к уменьшению неопределённости.
Проверочная работа 1. Какие знаковые системы вы знаете? 2. Приведите примеры (3) формальных языков. 3. Какие знаки называются иконическими? Приведите пример.
Кодирование информации Цель Рассмотреть процессы кодирования и декодирования информации.
В технических устройствах широко используется преобразование информации в двоичный код. С помощью двух цифр 0 и 1 можно закодировать любое сообщение Символы.
Содержание: 1.Количество информации как мера уменьшения неопределённости знания: количество информации; бит; производные единицы измерения количества.
Количество информации Количество информации как мера уменьшения неопределённости знания Количество информации как мера уменьшения неопределённости знания.
Алфавитный подход к определению количества информации.
Алфавитный подход к определению количества информации Глава Н. Угринович. Базовый курс. 8 класс.
Кодирование информации Информация и информационные процессы.
Транксрипт:

Количество информации

Процесс познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.). Получение новой информации приводит к расширению знаний (уменьшению неопределенности знания) Если некоторое сообщение приводит к уменьшению неопределенности нашего знания, то можно говорить, что такое сообщение содержит информацию.

Пример 1 Сдали зачет Мучаетесь: зачет? или незачет? Учитель объявил результат. Информационное сообщение об оценке приводит к уменьшению неопределенности вашего знания в 2 раза, так как получено одно из двух возможных информационных сообщений.

Пример 2 Прошла контрольная работа Мучаетесь: 2?, 3?, 4?, 5? Учитель объявил результат Информационное сообщение об оценке за контрольную работу приводит к уменьшению неопределенности вашего знания в 4 раза, так как получено одно из четырех возможных информационных сообщений.

Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений.

N = 2 I где N – количество возможных информационных сообщений; I – количество информации

Единицы измерения Длина – метр Масса – килограмм Количество информации – бит За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в 2 раза. Такая информация называется битом.

Пример с зачетом N = 2 2 I = 2 I = 1 Количество информации, которое несет сообщение, равно 1 биту.

Двоичное кодирование в компьютере Вся информация, которую обрабатывает компьютер должна быть представлена двоичным кодом с помощью двух цифр: 0 и 1. Эти два символа принято называть двоичными цифрами или битами. С помощью двух цифр 0 и 1 можно закодировать любое сообщение. Это явилось причиной того, что в компьютере обязательно должно быть организованно два важных процесса: кодирование и декодирование. Кодирование – преобразование входной информации в форму, воспринимаемую компьютером, т.е. двоичный код. Декодирование – преобразование данных из двоичного кода в форму, понятную человеку. Привет!

Почему двоичное кодирование С точки зрения технической реализации использование двоичной системы счисления для кодирования информации оказалось намного более простым, чем применение других способов. Действительно, удобно кодировать информацию в виде последовательности нулей и единиц, если представить эти значения как два возможных устойчивых состояния электронного элемента: 0 – отсутствие электрического сигнала; 1 – наличие электрического сигнала. Эти состояния легко различать. Недостаток двоичного кодирования – длинные коды. Но в технике легче иметь дело с большим количеством простых элементов, чем с небольшим числом сложных. Способы кодирования и декодирования информации в компьютере, в первую очередь, зависит от вида информации, а именно, что должно кодироваться: числа, текст, графические изображения или звук.

Единицы измерения количества информации 1 байт = 8 бит = 2 3 битов 1 килобайт = 2 10 байт = 1024 байт 1 мегабайт = 2 10 Кбайт = 1024 Кбайт 1 гигабайт = 2 10 Мбайт = 1024 Мбайт

Определение количества информационных сообщений Пример: На экзамене берем билет. Учитель сообщает, что зрительное информационное сообщение о его номере несет 5 битов информации. Какое общее количество экзаменационных билетов? Решение: N = 2 5 = 32

Определение количества информации Пример: Вы управляете движением робота (8 направлений). Какое количество информации будут получать робот после каждого сообщения? Решение: 8 = 2 I I = 3 3 бита информации несет роботу каждое информационное сообщение.

Алфавитный подход к определению количества информации N – количество знаков в алфавитной знаковой системе. I – количество информации, которое несет каждый знак В двоичной системе: N = 2 I = 1 бит В русском алфавите: N = 32 I = 5 бит

Количество информации в сообщении Если знаки несут одинаковое количество информации, то количество информации I c в сообщении вычисляется по формуле: I c = I з · K I з - количество информации, которое несет один знак K – количество знаков в сообщении

Практическая работа