Двоичное кодирование информации Давыдова Елена Владимировна, школа 444 города Москвы.

Презентация:



Advertisements
Похожие презентации
Двоичное кодирование информации Давыдова Елена Владимировна, школа 444 города Москвы.
Advertisements

Двоичное кодирование информации Давыдова Елена Владимировна, школа 444 города Москвы.
Информация. Двоичное кодирование информации. Информация -это сведения об окружающем нас мире Информацию можно собирать, хранить, передавать, обрабатывать.
ИЗМЕРЕНИЕ ИНФОРМАЦИИ Вероятностный подход Алфавитный подход ИНФОРМАЦИЯ по отношению к человеку – это ЗНАНИЯ по отношению к техническим устройствам – это.
Измерение информации Алфавитный подход Содержательный подход.
(презентация составлена по материалам Н.Д. Угриновича) Подготовила учитель информатики МОУ СОШ 58 Иванцова С.А г.
Кодирование текстовой, графической и звуковой информации.
Раздел 2. Информация и информационные процессы Глава 1. Информация, ее представление и измерение.
Количество информации как мера уменьшения неопределённости знания
Презентация к уроку по теме: Алфавитный подход к измерению информации. Учителя информатики ГБОУ СОШ 494 имени Героя РФ им. А.Н. Рожкова Кирюхиной Ольги.
Количество информации. Единицы измерения количества информации 7 класс.
Кодирование информации. Существуют три основных способа кодирования текста: графический – с помощью специальных рисунков или значков;графический – с помощью.
Презентация к уроку (информатика и икт, 8 класс) на тему: Определение количества информации
Единицы измерения 1 килобайт = 1Кб=2 10 байт =1024 байта; 1 мегабайт = 1Мб= 2 10 Кб = 1024 Кб; 1 гигабайт = 1Гб = 2 10 Мб = 1024 Мб; 1 терабайт = 1 Тб.
Кодирование информации. Правила отображение информации тем или иным способом называется кодом. Каждый образ при кодировании представлен отдельным знаком.
Представление информации в памяти компьютера Расчёт информационного объёма Татьяна Геннадьевна Яковлева, учитель информатики высшей категории МОУ гимназия.
Алфавитный подход к количества информации Алфавитный подход к измерению количества информации.
Количество информации. Процесс познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.). Получение новой.
Вопросы для повторения 1. Какая формула связывает между собой количество возможных информационных сообщений и количество информации, которое несет полученное.
Измерение информации. Подходы к измерению информации Содержательный Количество информации в сообщении, получаемом человеком или системой. зависит от содержания.
Транксрипт:

Двоичное кодирование информации Давыдова Елена Владимировна, школа 444 города Москвы

Виды информации

Единицы измерения количества информации

Производные единицы измерения количества информации Бит (Binary DigiT - двойная цифра) В теории информации – наименьшая единица количества информации. В вычислительной технике – двоичная цифра (может принимать значения 0 и 1), двоичный разряд. За единицу измерения количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза. Такая единица названа бит. Байт (Byte) В теории информации – восемь подряд идущих бит. В вычислительной технике – наименьшая адресуемая единица данных или памяти, равная восьми битам,

Байт, килобайт, мегабайт, … Название БайтКбайт МбайтГбайт Килобайт, Кбайт 2 10 = 1024 Мегабайт, Мбайт 2 20 = = 1024 Гигабайт, Гбайт = = 1024 Терабайт, Тбайт = = 1024 Петабайт, Пбайт = Эксабайт, Эбайт Зеттабайт, Збайт Йоттабайт, Йбайт

Связь между единицами измерения Бит Бит Байт Кбайт Мбайт Гбайт :8 :1024 ×1024 ×8

Определение количества информации

Количество информации Процесс познания приводит к накоплению информации (знаний), то есть к уменьшению незнания. Измерить объём накопленных знаний нельзя, а вот оценить уменьшение незнания можно, если известно количество возможных вариантов исходного состояния.

Подходы к измерению информации Алфавитный (объемный) Содержательный (вероятностный) Через неопределенность знаний с учетом вероятности событий. Применяется для измерения информации, используемой человеком. Через количество символов с учетом информационного веса символа. Применяется для измерения информации, используемой компьютером. Измерение

Пример Представьте, что вы зашли в магазин и попросили продать вам жевательную резинку. Продавщица, у которой, скажем, 16 сортов жевательной резинки, находится в состоянии неопределенности. Она не может выполнить вашу просьбу без получения дополнительной информации. Если вы уточнили, скажем, - «Orbit», и из 16 первоначальных вариантов продавщица рассматривает теперь только 8, вы уменьшили ее неопределенность в два раза (забегая вперед, скажем, что уменьшение неопределенности вдвое соответствует получению 1 бита информации). Если вы, не мудрствуя лукаво, просто указали пальцем на витрине, - «вот эту!», то неопределенность была снята полностью. Опять же, забегая вперед, скажем, что этим жестом в данном примере вы сообщили продавщице 4 бита информации. Попова Ольга Владимировна, Информатика

Содержательный (вероятностный) подход Содержательный (вероятностный) Через неопределенность знаний с учетом вероятности событий Количество информации рассматривается как мера уменьшения неопределенности знания при получении информационных сообщений. За единицу измерения количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза. Бит (от binary digit - двоичная цифра)

Формула Ральфа Хартли N - количество возможных событий (информационная неопределенность) I - количество информации (количество бит необходимых для кодирования одного события) N = 2 I Формула позволяет определять: Количество событий ? Количество информации ? Количество возможных событий

Задачи 1 Учитель объявляет результаты зачета: одно из двух – «зачет», «незачет». Сколько возможных событий может произойти? Какова информационная неопределенность сообщения? N = 2 I Дано: N = 2 – количество возможных событий I = ? 2 = 2 I I = 1 бит – количество информации

Задачи 2 Учитель объявляет результаты зачета: одно из четырех – «2», «3», «4», «5». Сколько возможных событий может произойти? Каково количество информации несет сообщение? N = 2 I Дано: N = 4 – количество возможных событий I = ? 4 = 2 I I = 2 бит – количество информации

Задачи 3 Игра крестики-нолики. Поле 8 х 8. Сколько бит необходимо для представления информации о возможных вариантах постановки «крестика» перед первым ходом? N = 2 I Дано: N = 64 – количество возможных событий I = ? 64 = 2 I I = 6 бит – количество информации

Задачи 4 Игра крестики-нолики. Поле 8 х 8. Сколько бит необходимо для представления информации о возможных вариантах постановки «крестика» после 35 хода? N = 2 I Дано: N = 64 – 35 = 29 – количество возможных событий I = ? 2 I 29 I = 5 бит – количество информации

Задачи 5 Сколько бит информации получено из сообщения «Вася живёт на пятом этаже», если в доме 16 этажей? N = 2 I Дано N = 16 – количество возможных событий I = ? I = 5 бит – количество информации

Задачи 6 При приёме некоторого сообщения получили 7 бит информации. Сколько вариантов исхода было до получения сообщения? N = 2 I Дано I = 7 – количество информации N = ? N = 2 7 – количество возможных событий N = 128

Задачи на дом 1. Шарик находится в одной из 32 урн. Сколько единиц информации будет содержать сообщение о том, где он находится? 2. После реализации одного из возможных событий получили количество информации равное 15 бит. Какое количество возможных событий было первоначально? 3. При угадывании целого числа в диапазоне от 1 до N было получено 10 битов информации. Чему равно N?

Алфавитный (объёмный) подход При определении количества информации, отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность символов определенной знаковой системы. Объем информации связан с общим числом символов и «мощностью» алфавита («информационная емкость» символа) и не учитывает содержание сообщения. Алфавитный (объемный) Через количество символов с учетом информационного веса символа

Определение количества текстовой информации

Формула Ральфа Хартли N – мощность алфавита (количество знаков в алфавите) I – информационная ёмкость символа (количество информации, которое несет один знак) N = 2 I Мощность русского алфавита – 33 знака Информационная емкость буквы в русском алфавите составляет: 2 I 33, т.е. I = 6 бит

Количество информации в сообщении P – количество информации в сообщении I – информационная ёмкость символа (количество информации, которое несет один знак) K – длина сообщения Примечание Знаки несут одинаковое количество информации. P = I K

Задачи 6 Алфавит племени Мумбо-Юмбо составляет 6 символов. Сколько битов информации содержится в слове длиной в 12 символов. N = 2 I Дано: N = 6 – мощность алфавита K = 12 символов – длина сообщения P - ? 2 I 6 I = 3 бита – информационная ёмкость символа P = I K P = 3 12 = 36 бит – количество информации в сообщении

Задачи на дом 1. Объем сообщения равен 300 бит. Сообщение содержит 50 символов. Какова мощность алфавита? 2. Для кодирования секретного сообщения используются 12 специальных значков-символов. При этом символы кодируются одним и тем же минимально возможным количеством бит. Чему равен информационный объем сообщения длиной в 256 символов?

Определение количества графической информации

Формула Ральфа Хартли N – количество цветов (палитра) I – глубина цвета (количество информации, которое несет один цвет) N = 2 I Палитра содержит 60 цветов. Глубина цвета этой палитры составляет: 2 I 60, т.е. I = 6 бит

Объём изображения P – объём изображения I – глубина цвета в битах M × L – разрешение изображения (в пикселях) P = I M L L M

Задачи 6 Изображение размером 640 х 320 пикселей представлено 128 цветной палитрой. Каков объём этого изображения? N = 2 I Дано: N = 128 – цветов в палитре M×L = 640×320 пикселей – разрешение P - ? 2 I 128 I = 7 битов – глубина цвета P = I M L P = = бит = 175 Кбайт

Объём видеопамяти P – объём видеопамяти I – глубина цвета в битах M×L – разрешение монитора (в пикселях) C – количество видеостраниц P = I M L С L M

Определение количества звуковой информации

Формула Ральфа Хартли N – количество уровней звукового сигнала I – глубина звука (информационная ёмкость) N = 2 I

© Ю.А. Чиркин МОУ СОШ 19 г. Мичуринск, Расчёт объёма звукового файла P – размер (объём) звукового файла (в битах) I – глубина кодирования (в битах) V – частота дискретизации (в Герцах) C – количество дорожек в записи (C=1 – моно, C=2 – стерео) T – время звучания (в секундах) P = I V C T

Задачи 7 Дано: I = 16 бит V = 44,1 КГц T = 3 мин 18 сек С = 2 P - ? 44,1 КГц = Гц 3 мин 18 с = 198 сек P = I V C T = 2·44100 Гц·16 бит·198 сек = = бит = байт 34108,6 Кб 33,3 Мб P = I V C T Определить объём звукового стерео файла записанного разрядностью 16 бит с частотой дискретизации 44,1 КГц, если время его звучания составляет 3 мин 18 сек.

Подходы к измерению информации Алфавитный (объемный) Содержательный (вероятностный) Через неопределенность знаний с учетом вероятности событий Через количество символов с учетом информационного веса символа Измерение Количество информации ( I ) Информационная емкость символа, глубина цвета, глубина звука ( I ) N = 2 I Количество возможных событий (N) Мощность алфавита, палитра, количество уровней звукового сигнала (N) N = 2 I Количество информации (P) P = I K P = I M L C P = I V C T