Измерение информации © Мошенец Надежда Константиновна, учитель информатики школы 92 г. Красноярска.

Презентация:



Advertisements
Похожие презентации
Алфавитный подход к определению количества информации.
Advertisements

Алфавитный подход к определению количества информации Глава Н. Угринович. Базовый курс. 8 класс.
Подходы к определению количества информации СОДЕРЖАТЕЛЬНЫЙ АЛФАВИТНЫЙ Количество символов в сообщении * вес одного символа Смысл сообщения.
Алфавитный подход к определению количества информации Автор: учитель информатики и ИКТ ГБОУ ЦО 1456 ЮЗОУО г.Москвы Кулешова Е.В.
Глава 1.3. Н. Угринович. Базовый курс. 8 класс. Количество информации как мера уменьшения неопределенности знания.
Единицы измерения 1 килобайт = 1Кб=2 10 байт =1024 байта; 1 мегабайт = 1Мб= 2 10 Кб = 1024 Кб; 1 гигабайт = 1Гб = 2 10 Мб = 1024 Мб; 1 терабайт = 1 Тб.
ИЗМЕРЕНИЕ ИНФОРМАЦИИ Вероятностный подход Алфавитный подход ИНФОРМАЦИЯ по отношению к человеку – это ЗНАНИЯ по отношению к техническим устройствам – это.
Цель урока: научиться решать задачи на определение количества информации по формулам Хартли и Шеннона. Тема. Формула Шеннона. Формула Хартли.
Измерение информации ГБОУ Школа 2098 Учитель ИиИКТ Федорова С.В.
Информация и кодирование информации Количество информации как мера уменьшения неопределенности знания 10 класс (профиль)
Вопрос «Как измерить информацию?» очень непростой. Ответ зависит от того, что понимать под информацией. Но поскольку определять информацию можно по-разному,
Объем информации равен длине двоичного кода Основная единица: 1 бит- один разряд двоичного кода Длина кода символа(i бит) кодируемого алфавита мощностью.
Тема: Различные подходы к измерению количества информации. На дом: конспект, задачи.
Раздел 2. Информация и информационные процессы Глава 1. Информация, ее представление и измерение.
Измерение информации © Мошенец Надежда Константиновна, учитель информатики школы 92 г. Красноярска.
Есть ли связь между объемным подходом к измерению информации и содержанием информации? Объем информации не связан с ее содержанием. Говоря об объеме информации,
Количество информации Количество информации как мера уменьшения неопределенности знаний Автор: учитель информатики и ИКТ ГБОУ ЦО 1456 ЮЗОУО г.Москвы Кулешова.
Информация это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости,
Приготовила: учитель информатики МОУ «Гимназия г. Вольска Саратовской области» Кириченко Наталья Евгеньевна Для учащихся 10 класса.
Измерение информации: содержательный подход Информация и информационные процессы.
Транксрипт:

Измерение информации © Мошенец Надежда Константиновна, учитель информатики школы 92 г. Красноярска

Содержание Количество информации как мера уменьшения неопределенности знаний Определение количества информации Алфавитный подход к определению количества информации

Количество информации как мера уменьшения неопределенности знаний

Сообщение Люди обмениваются информацией в форме сообщений. Сообщение – это и речь, которую мы слушаем (радиосообщение, объяснение учителя), и воспринимаемые нами зрительные образы (фильм по телевизору, сигнал светофора), и текст книги, которую мы читаем и т. д. Информативным назовем сообщение, которое пополняет знания человека, то есть несет для него информацию.

Информативность сообщения Для разных людей одно и то же сообщение с точки его информативности может быть разным. Если сведения «старые», то есть человек это уже знает, или содержание сообщения непонятно человеку, то для него это сообщение неинформативно. Информативно то сообщение, которое содержит новые и понятные сведения.

Примеры Вопрос: - Содержит ли информацию вузовский учебник по высшей математике с точки зрения первоклассника? Ответ: - Да, содержит с любой точки зрения! Потому что в учебнике заключены знания людей: авторов учебника, создателей математического аппарата (Ньютона, Лейбница и др.), современных математиков. Другой вопрос: - Будет ли информативным текст этого учебника для первоклассника, если он попытается его прочитать? Иначе говоря, может ли первоклассник с помощью этого учебника пополнить собственные знания? Очевидно, что ответ отрицательный. Читая учебник, то есть, получая сообщения, первоклассник ничего не поймет, а, стало быть, не обратит его в собственные знания.

Примеры Вопрос: - Какой город является столицей Франции? Ответ: - Столица Франции – Париж. Сообщение информативно? - Нет, так как известно.

Примеры Вопрос: - Что изучает коллоидная химия? Ответ: - Коллоидная химия изучает дисперсионные состояния систем, обладающих высокой степенью раздробленности. Сообщение информативно? - Нет, так не понятно.

Примеры Вопрос: - Какую высоту и вес имеет Эйфелева башня? Ответ: - Эйфелева башня имеет высоту 300 метров и вес 9000 тонн. Сообщение информативно: - Да.

Информативность сообщения Если сообщение неинформативно для человека, то количество информации в нем с точки зрения этого человека равно нулю. Количество информации в информативном сообщении больше нуля.

Информация и неопределенность Допустим, вы оказались на перекрестке в незнакомом городе и не знаете, как пройти к вокзалу. Ваше состояние можно охарактеризовать, как состояние неопределенности. Но вот прохожий объяснил дорогу к вокзалу. Теперь у вас появилась информация, а неопределенность пропала.

Информация и неопределенность Пример: вы услышали по телевизору, что завтра будет солнечная погода. Ваше состояние изменилось: вы стали обладателем информации, а неопределенность, которая до этого существовала, исчезла.

Информация и неопределенность Подобное происходит всякий раз, когда у вас появляется та или иная информация, неопределенность, если она до этого имела место, уменьшается или вовсе ликвидируется.

Информация и неопределенность Эту интуитивно ясную связь между обыденными представлениями об информации и о неопределенности можно сформулировать так: Появление информации суть уменьшение неопределенности.

Неопределенность знаний Неопределенность знаний - сообщение, которое содержит сведения о том, что произошло одно из конечного множества (N) возможных событий.

Информация и неопределенность Таким образом, если мы хотим получить более отчетливое представление об информации, стоит поразмышлять о том, что же такое неопределенность и можно ли каким-то образом оценить ее количественно.

Информация и неопределенность Сделаем это на моделях простейших систем. Пусть в нашем распоряжении имеются монета и игральный кубик.

Бросание монет У монеты, как известно, две стороны: «герб» «решка» Если бросить ее на стол, монета обязательно упадет вверх либо «гербом», либо «решкой». Таким образом, монету, лежащую на столе, можно рассматривать как простейшую систему, которая может находиться в одном из двух возможных состояний.

Бросание кубика Игральный кубик это кубик, грани которого пронумерованы от 1 до 6. Аналогично монете игральный кубик, лежащий на столе, это система, находящаяся в одном из шести возможных состояний (по номерам граней, обращенных вверх).

Неопределенность знаний Неопределенность знания о результате некоторого события – это число возможных вариантов результата. Для монеты – 2, для кубика – 6, для билетов – 30 (если на столе лежало 30 билетов). Чем больше равновозможных событий, тем больше неопределенность ситуации. Выбор одного из возможных состояний ликвидирует неопределенность, создавая тем самым информацию.

Случайность выбора Есть еще одна особенность возникновения информации – случайность выбора, которая в полной мере демонстрируется на наших примерах. Ну а если бы Вы, стоя на перекрестке, так и не дождались ни одного прохожего, Вам ничего не оставалось бы делать, как положиться на счастливый случай и выбрать дорогу наугад. Тогда характер Вашего поведения при наличии двух возможных направлений движения в точности совпал бы с характером поведения монеты.

Равновероятные события События равновероятны, если ни одно из них не имеет преимущества перед другими. С этой точки зрения выпадение «герба» или «решки» – равновероятно.

Неравновероятностные события Неравновероятные события: в сообщении о погоде в зависимости от сезона сведения о том, что будет дождь или снег, могут иметь разную вероятность. Летом наиболее вероятно сообщение о дожде, зимой – о снеге, а в переходный период (в марте или ноябре) они могут оказаться равновероятными.

Симметричные события Выбор состояния после подбрасывания монеты или кубика происходит симметрично. Это значит, что отсутствуют какие-либо факторы, способные обусловить преимущественное попадание системы в то или иное состояние: выбор происходит случайно, причем все состояния равно возможны. Проверить, так ли это на самом деле, можно, проделав большое число бросаний, регистрируя каждый раз состояние, в котором оказалась монета. По мере роста количества бросаний доли «гербов» и «решек» в общем числе бросаний будут все меньше и меньше отличатся друг от друга.

Симметричные события не всегда симметричны! «Однажды в детстве я уронил бутерброд. Глядя, как я виновато вытираю масляное пятно, оставшееся на полу, старший брат успокоил меня: - Не горюй, это сработал закон бутерброда. - Что еще за закон такой? - спросил я. - Закон, который гласит: "Бутерброд всегда падает маслом вниз". Впрочем, это шутка, - продолжал брат.- Никакого закона нет. Просто бутерброд действительно ведет себя довольно странно: большей частью масло оказывается внизу. - Давай-ка еще пару раз уроним бутерброд, проверим, - предложил я. - Все равно ведь его придется выкидывать. Проверили. Из десяти раз восемь бутерброд упал маслом вниз. И тут я задумался: а можно ли заранее узнать, как сейчас упадет бутерброд маслом вниз или вверх? Наши опыты прервала мать…" ( Отрывок из книги "Секрет великих полководцев", В.Абчук).

Задания для закрепления Определите, какое из сообщений является для Вас информативным: 1.Площадь Тихого океана – 179 млн. кв. км. 2.Москва – столица России. 3.Вчера весь день шел дождь. 4.Завтра ожидается солнечная погода. 5.Дивергенция однородного векторного поля равна нулю. 6.Dog – собака (по-английски). 7.Ro do, may si, lot do may. 8.2*2 = 4. Содержание

Задания для закрепления Дайте следующим сообщениям оценки «важная», «полезная», «безразличная», «вредная» информации: 1.Сейчас идет дождь. 2.Занятия факультатива по информатике проводятся каждый вторник. 3.IBM – это первые буквы английских слов, которые звучат как «интернешнел бизнес машина», что по-русски означает «машины для международного бизнеса». 4.Завтра будет контрольная работа по физике. 5.Чтобы родители не узнали про двойку, надо вырвать страницу из дневника. 6.Лед – это твердое состояние воды. 7.Первым человеком, полетевшим в космос, был Юрий Гагарин. 8.Номер телефона скорой помощи 02 Содержание

Задания для закрепления Вероятность какого события больше: 1.В коробке имеется 50 шаров. Из них 40 белых и 10 черных. Вероятность вытащить белый или черный шар. 2.Сереже – лучший ученик в классе. Вероятность получения за контрольную по математике 5 или 2. 3.В пруду живут 8000 карасей, 2000 щук и пескарей. Вероятнее наловить больше карасей, щук или пескарей. Содержание

Определение количества информации

Как же измерить количество информации? Да также, как мы измеряем длину или массу чего-нибудь: сравнить с соответствующим эталоном. Надо только выбрать эталон. Например, в мультфильме «38 попугаев» эталоном длины служит длина шага попугая. Каков же эталон для измерения информации? Давайте в этом разберемся.

Достоверное и невозможные события Достоверное событие - событие, которое обязательно происходит Невозможное событие – никогда не произойдет. Вероятность достоверного события равна 1, а невозможного – 0. Это крайние значения, то есть во всех других «промежуточных» случаях значение вероятности лежит между нулем и единицей. Вероятность каждого из двух равновероятных событий равна ½.

1 бит информации Сообщение, уменьшающее неопределенность знаний в 2 раза, несет 1 бит информации. Сообщение о том, что произошло одно событие из двух равновероятных, несет 1 бит информации. Бит - binary digit (двоичный знак).

Определение информации Если «Ваньку-Встаньку» качнуть, то сколько различных вариантов его конечного состояния получим? - Один вариант («Ванька- Встанька» всегда встает). То есть вероятность события равна 1 (100% выполнение). И мы не получаем ни чего нового и неизвестного при этом, то есть информация равна 0.

Определение информации Будем бросать монету. Сколько вариантов выпадения может быть? – 2 Вероятность выпадения «герба» или «решки» - ½. Количество информации – 1 бит.

Определение информации Будем бросать 2 монеты. Бросание 2 монет должно принести 2 бита информации, так количество монет увеличилось в 2 раза. Количество различных вариантов выпадения по две монеты: 4. Вероятность появления 1 варианта – ¼

Определение информации Будем бросать 3 монеты. При бросание 3 монет количество информации увеличится в 3 раза по сравнению с бросанием 1 монеты. Количество различных вариантов выпадения по 3 монеты: 8 Вероятность выпадения 1 варианта: 1/8.

Отгадывание чисел Допустим кто-то загадал число от 1 до 16. Сколько чисел можно загадать? Вероятность загадать любого числа из этого промежутка: 1/16. Отгадывание происходит по такому сценарию: Задается такой вопрос на который можно получить один из вариантов ответа: «да» или «нет».

Стратегия отгадывания чисел Как оптимально отгадывать загаданное число? Правильная стратегия состоит в том, что вопросы нужно задавать так, чтобы количество возможных вариантов каждый раз уменьшалось вдвое. Тогда количество возможных событий в каждом из полученных подмножеств будет одинаково, и их отгадывание - равновероятно.

Сценарий отгадывания числа Пусть загадано число 5 (мы не знаем это). 1 вопрос (даст 1 бит информации): - Больше 8? – Нет. 2 вопрос (даст 2 бит информации): - Больше 4? – Да. 3 вопрос (даст 3 бит информации): -Больше 6? – Нет. 4 вопрос (даст 4 бит информации): -Больше 5? – Нет. Ответ: Задуманное число 5. Вывод: При отгадывании задуманного числа в диапазоне от 1 до 16, достаточно 4 вопроса (получение 4 бита информации).

Определение информации А если мы будем бросать 6-гранный кубик? Количество вариантов выпадения одной из 6 сторон: 6. Вероятность выпадения одной из 6 сторон: 1/6. Сколько же будет получено информации при выпадении одной из 6 сторон?

Определение информации Составим таблицу из предыдущих примеров: СобытияКол-во вариантов Вероятность события Бит информации Ванька-Встанька110 Бросание 1 монеты 21/21 Бросание 2 монет 41/42 Бросание 3 монет 81/83 Отгадывание числа от 1 до /164 Бросание шестигранного кубика 61/6?

Определение информации Если посмотреть таблицу, то можно заметить закономерность. От частных примеров приходим к обобщенной формуле: Если ввести обозначения: N – число вариантов равновероятных событий (неопределенность знаний), i – количество информации в сообщении о том, что произошло одно из N событий. N = 2 i Если N известно, а i является неизвестной величиной, то данная формула превращается в показательное уравнение, которое решается с помощью функции логарифма: i = log 2 N.

Определение информации Если N = 2 (2=2 1 ), то уравнение примет вид 2 i = 2 1, отсюда i = 1. Если N = 4 (4=2 2 ), то уравнение примет вид 2 i = 2 2, отсюда i = 2. Если N = 8 (8=2 3 ), то уравнение примет вид 2 i = 2 3, отсюда i = 3. В общем случае, если N = 2 k, где k- целое число, то уравнение примет вид 2 i = 2 k, отсюда i = k.

Определение информации Для тех значений N, которые не являются целыми степенями двойки, решение уравнения можно получить из приведенной в учебнике таблицы. Например, желая определить, сколько же бит информации несет сообщение о результате бросания шестигранного кубика, нужно решить уравнение 2 i = 6. Поскольку 2 2 < 6 < 2 3, то получаем 2 < i < 3. Заглянув в таблицу, узнаем, что i=2,58496.

Задания для закрепления Пример 1. Сколько информации несет сообщение о том, что из колоды карт достали карту красной масти? Решение: 1 бит, т. к. красных и черных карт одинаковое количество. Содержание

Задания для закрепления Пример 2. Сколько информации несет сообщение о том, что из колоды карт достали карту бубновой масти? Решение: 2 бита, так как всего в колоде 4 масти, и количество карт в них одинаковое. Содержание

Задания для закрепления Пример 3. Проводятся две лотереи «4 из 32» и «5 из 64». Сообщение о результатах, какой из лотерей несет больше информации? Содержание

1 вариант решения: Вытаскивание любого номера из лотерейного барабана – события равновероятные. Поэтому в первой лотерее количество информации в сообщении об одном номере равно 5 бит (2 5 = 32), а во втором – 6 бит (2 6 = 64). Сообщение о 4-х номерах в первой лотерее несет 5 * 4 = 20 бит. Сообщение о 5-ти номерах второй лотереи несет 6 * 5 = 30 бит. Следовательно, сообщение о результатах второй лотереи несет больше информации, чем первой. Содержание

Выбор первого шара производится из 32-х шаров в барабане. Результат несет 5 бит информации. Но 2-й шар будет выбираться уже из 31 номера, 3-й – из 30 номеров, 4-й – из 29 номеров. Значит, количество информации, которое несет 2-й номер, находится из уравнения 2 i = 31 (i = 5,95420 бит). Для 3-го номера 2 i = 30 (i = 4,90689 бит). Для 4-го номера 2 i =29 (i = 4,85798 бит). В сумме получаем: 5 + 4, , ,85798 = 19, Аналогично и для второй лотереи. Окончательный вывод получается тот же, но результат вычислений более точен. Содержание 2 вариант решения:

Задания для закрепления Пример 4. В течение четверти ученик получил 100 оценок. Сообщение о том, что он получил четверку, несет 2 бита информации. Сколько четверок ученик получил за четверть? Решение: Данный результат мог быть получен путем следующих рассуждений: 2 бита информации несет сообщение об одном из четырех равновероятных событий (2 2 = 4). То есть вероятность получения четверок равна ¼. Тогда количество четверок определится как: 100 / 4 = 25. Таким образом, в течение четверти ученик получил 25 четверок. Содержание

Самостоятельное решение Задача 1. Вы подошли к светофору, когда горел желтый свет. После этого загорелся зеленый. Какое количество информации вы при этом получили? Содержание

Самостоятельное решение Задача 2. Вы подошли к светофору, когда грел красный свет. После этого загорелся желтый свет. Сколько информации вы при этом получили? Содержание

Самостоятельное решение Задача 3. В корзине 8 шаров. Все шары разного цвета. Сколько информации несет сообщение о том, что из корзины достали красный шар? Содержание

Самостоятельное решение Задача 4. Сколько бит информации несет сообщение о том, что из колоды в 32 карты достали даму крести? Содержание

Самостоятельное решение Задача 5. в школьной библиотеке 16 стеллажей с книгами. На каждом стеллаже 8 полок. Библиотекарь сообщил Пете, что нужная ему книга находится на пятом стеллаже на третьей сверху полке. Какое количество информации библиотекарь передал Пете? Содержание

Самостоятельное решение Задача 6. При угадывании целого числа в некотором диапазоне было получено 6 бит информации. Сколько чисел содержится в этом диапазоне? Содержание

Самостоятельное решение Задача 7. Сообщение о том, что Петя живет во втором подъезде, несет 3 бита информации. Сколько подъездов в доме? Содержание

Ответы Задача 1. 1 бит. Задача 2. 0 бит. Задача 3. 3 бита. Задача 4. 5 бит. Задача 5. 7 битов. Задача числа. Задача 7. 8 подъездов. Содержание

Алфавитный подход к определению количества информации

Существует и другой способ измерения количества информации – алфавитный. Это - измерение количества информации в тексте (символьном сообщении), составленном из символов некоторого алфавита. К содержанию текста такая мера информации отношения не имеет. Поэтому такой подход можно назвать объективным, то есть не зависящим от воспринимающего его субъекта.

Алфавитный подход удобен при подсчете количества информации, хранимого, передаваемого и обрабатываемого техническими устройствами. Устройствам нет дела до содержательной стороны сообщений. Компьютеры, принтеры, модемы работают не с самой информацией а с ее представлением в виде сообщений. Оценить информационные результаты их работы как полезные или бесполезные может только человек.

Алфавит Алфавит – конечное множество символов, используемых для представления информации.

Мощность алфавита Число символов в алфавите называется мощностью алфавита. Чем меньше знаков в используемом алфавите, тем длиннее сообщение. Так, например, в алфавите азбуки Морзе всего три знака (точка, тире, пауза), поэтому для кодирования каждой русской или латинской буквы нужно использовать несколько знаков, и текст, закодированный по Морзе, будет намного длиннее, чем при обычной записи. Пример: Сигнал SOS: 3 знака в латинском алфавите; 11 знаков в алфавите Морзе: ··· пауза – – – пауза ···.

Количество информации, которое несет в тексте каждый символ (i), вычисляется из уравнения Хартли: 2 i = N, где N – мощность алфавита. Величину i можно назвать информационным весом символа. Отсюда следует, что количество информации во всем тексте (I), состоящем из К символов, равно произведению информационного символа на К: I = i * K. Эту величину можно назвать информационным объемом текста.

Какова минимальная мощность алфавита, с помощью которого можно записывать (кодировать информацию)?

Односимвольный алфавит Сообщение любой длины, использующее односимвольный алфавит, содержит нулевую информацию. Доказательство: Предположим, что используемый алфавит состоит из одного символа, например, «1». Интуитивно понятно, что сообщить что-либо с помощью единственного символа невозможно. Но это же доказывается строго с точки зрения алфавитного подхода. Информационный вес символа в таком алфавите находится из уравнения: 2 i = 1 Но поскольку 1 = 2 0, то отсюда следует, что i = 0 бит

Пример Представьте себе толстую книгу в 1000 страниц, на всех страницах которой написаны одни единицы (единственный символ используемого алфавита). - Сколько информации в ней содержится? Ответ: Нисколько, ноль

Минимальная мощность алфавита Минимальная мощность алфавита, пригодного для передачи информации, равна 2. Такой алфавит называется двоичным алфавитом. Информационный вес символа в двоичном алфавите легко определить. Поскольку 2 i = 2, то i = 1 бит Итак, один символ двоичного алфавита несет 1 бит информации. 1 бит – исходная единица измерения информации.

Мощность русского алфавита Каждая буква русского алфавита (если считать, что е = ё) несет информацию 5 бит (32 = 2 5 ).

Компьютерный алфавит Современный компьютер может обрабатывать числовую, текстовую, графическую, звуковую и видео информацию. Все эти виды информации в компьютере представлены в двоичном коде, т. е. используется алфавит мощностью два (всего два символа 0 и 1). Связано это с тем, что удобно представлять информацию в виде последовательности электрических импульсов: импульс отсутствует (0), импульс есть (1). Такое кодирование принято называть двоичным, а сами логические последовательности нулей и единиц - машинным языком.

Байт Компьютер для внешнего представления текстов и другой символьной информации использует алфавит мощностью 256 символов. Байт вводится как информационный вес символа из алфавита мощностью 256. Так как 256 = 2 8, то 1 байт = 8 бит.

Производные единицы измерения информации Килобайт больше байта в 1024 раза, а число 1024 = При приближенных вычислениях можно использовать коэффициент Мегабайт (1 Мб) = 1024 Кбайт 1000 Кб 1 Гигабайт (1Гб) = 1024 Мбайт 1000 Мб 1 Терабайт (1Тб) = 1024 Гигабайт 1000 Гб 1 Петабайт (Пб) = 1024 Терабайт 1000 Тб

Задачи для закрепления Задача 1. Книга, набранная с помощью компьютера, содержит 159 страниц. На каждой странице – 40 строк. В каждой строе – 60 символов. Каков объем информации в книге? Решение: Мощность компьютерного алфавита равна 256. Один символ несет 1 байт информации. Значит, страница содержит 40 * 60 = 2400 байт информации. Объем всей информации в книге (в разных единицах): 2400 * 150 = байт /1024 = 351,5625 Кбайт 351,5625/1024 = 0,3433 Мбайт. Содержание

Задачи для закрепления Задача 2. Объем сообщения, содержащего 2048 символов, составил 1/512 часть Мбайта. Каков размер алфавита, с помощью которого записано сообщение? Решение: Переведем информационный объем сообщения в биты: I = 1/512 * 1024 * 1024 * 8 = бит. Поскольку такой объем информации несут 1024 символа (К), то на один символ приходится: i = I/K = 16384/1024 = 16 бит. Отсюда следует, что размер (мощность) использованного алфавита равен 216 = символов. Содержание

Задачи для самостоятельного решения Задача 1. Алфавит племени Мульти состоит из 8 букв. Какое количество информации несет одна буква этого алфавита? Задача 2. Сообщение, записанное буквами из 64-х символьного алфавита, содержит 20 символов. Какой объем информации оно несет? Содержание

Задачи для самостоятельного решения Задача 3. Племя Мульти имеет 32-х символьный алфавит. Племя Пульти использует 64-х символьный алфавит. Вожди племен обменялись письмами. письмо племени мульти содержало 80 символов, а письмо племени Пульти – 70 символов. Сравните объем информации, содержащейся в письмах. Содержание

Задачи для самостоятельного решения Задача 4. Информационное сообщение объемом 1,5 Кбайт содержит 3072 символа. Сколько символов содержит алфавит, при помощи которого было записано это сообщение? Задача 5. Сколько килобайтов составляет сообщение, содержащее битов? Содержание

Задачи для самостоятельного решения Задача 6. Сколько килобайтов составит сообщение из 384 символов 16-ти символьного алфавита? Задача 7. Для записи текста использовался 256- символьный алфавит. Каждая страница содержит 30 строк по 70 символов в строке. Какой объем информации содержат 5 страниц текста? Содержание

Задачи для самостоятельного решения Задача 8. Сообщение занимает 3 страницы по 25 строк. В каждой строке записано по 60 символов. Сколько символов в использованном алфавите, если все сообщение содержит 1125 байтов? Содержание

Задачи для самостоятельного решения Задача 9. Для записи сообщения использовался 64-х символьный алфавит. Каждая страница содержит 30 строк. Все сообщение содержит 8775 байтов информации и занимает 6 страниц. Сколько символов в строке? Содержание

Используемая литература И. Семакин. Информатика. Базовый курс. 7 – 9 классы. – М.: Лаборатория Базовых Знаний, – 364 с.: ил. Информатика. Задачник-практикум в 2 т./Под ред. И.Г. Семакина, Е.К. Хеннера: Том 1. – М.: Лаборатория Базовых Знаний, – 304 с.: ил. Интернет-ресурсы