Что такое информация? 1.Информация от латинского слова "information", что означает сведения, разъяснения, изложение. 2.Информацией называют любые данные.

Презентация:



Advertisements
Похожие презентации
Содержание: Что такое информация? Формы представления информации Свойства информации.
Advertisements

Что такое инфоpмация?. Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложени е. Применительно.
Алфавитный подход к определению количества информации.
Кодирование текстовой, графической и звуковой информации.
Кодирование информации 9 класс (повторение). Кодирование информации Кодирование числовой информации Диапазон целых чисел, кодируемых одним байтом, определяется.
Что такое инфоpматика? Инфоpматика это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а.
Алфавитный подход к определению количества информации Глава Н. Угринович. Базовый курс. 8 класс.
Количество информации. Процесс познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.). Получение новой.
Информация. Двоичное кодирование информации. Информация -это сведения об окружающем нас мире Информацию можно собирать, хранить, передавать, обрабатывать.
Информация – это отражение внешнего мира с помощью знаков и сигналов. Слово "информация" происходит от латинского слова informatio, что в переводе означает.
(презентация составлена по материалам Н.Д. Угриновича) Подготовила учитель информатики МОУ СОШ 58 Иванцова С.А г.
Тема: Двоичное кодирование звуковой информации. Глава: Кодирование и обработка графической и мультимедийной информации Учебник: Н.Угринович. Базовый курс.
ОСНОВЫ ИНФОРМАТИКИ.. ОГЛАВЛЕНИЕ: УРОК 1. ТЕМА:»ОСНОВНЫЕ ПОНЯТИЯ ИНФОРМАТИКИ»УРОК 1. Урок 2.ТЕМА: «ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ». УРОК 3 ТЕМА: «КОДИРОВАНИЕ.
Кодирование информации. Кодирование и декодирование Для обмена информацией с другими людьми человек использует естественные языки. Наряду с естественными.
Для представления текстовой информации в ПК используется 256 различных знаков ( прописные и строчные буквы русского и латинского алфавитов, цифры, знаки.
Информация. Информационные объекты различных видов. Основные информационные процессы: хранение, передача и обработка информации.
Знаковая система представления информации Измерение объёма текстовой информации.
Информатика 8 класс Измерение информации. Подходы к измерению информации Содержательный подход. Сообщение – информационный поток, который в процессе передачи.
Понятие «информация» Слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение Понятие «информация»
Кодирование информации. На клавиатуре ПК используется 256 различных знаков. I = log = 8 бит 2 8 = 256. Т. е. каждый символ кодируется последовательностью.
Транксрипт:

Что такое информация? 1.Информация от латинского слова "information", что означает сведения, разъяснения, изложение. 2.Информацией называют любые данные или сведения, которые кого-либо интересуют. 3.Информация сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы. 4.Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

Свойства информации: достоверность информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел; полнота информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки; точность точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.; ценность ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдёт применение; своевременность только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она ещё не может быть усвоена), так и её задержка; понятность информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация; доступность информация должна преподноситься в доступной краткость информацию по одному и тому же вопросу можно изложить кратко

Алфавиты. Кодирование Часто сообщения формируются из отдельных знаков. Такие сообщения будем называть дискретными. Дискретным сообщениям принадлежит важная роль в процессах обработки информации. Конечное упорядоченное множество знаков называется алфавитом. Под знаками будем понимать не только буквы и цифры, но и любые отличимые друг от друга объекты. Мощностью алфавита называется количество содержащихся в нем знаков. Примеры алфавитов: алфавит жестов регулировщика движения, алфавит сигналов светофора, алфавит арабских цифр, алфавит русских букв. Совокупность правил построения сообщений из знаков некоторого алфавита и правил интерпретации этих сообщений называется языком. Процесс перевода сообщения с одного языка на другой называется кодированием, а сам результат перевода – кодом. Кодирование используется для представления информации в удобной для обработки форме, а иногда – для обеспечения секретности передаваемой информации. В этом случае обычно говорят не кодирование, а шифрование. Особое место в информатике занимают алфавиты, состоящие из двух знаков – двоичные алфавиты. Двоичный алфавит замечателен тем, что он является алфавитом минимальной мощности, пригодным для представления информации. В теории информатики доказано, что любые дискретные сообщения можно закодировать с помощью двоичного алфавита. Такое кодирование называется двоичным кодированием, а код – двоичным кодом. Знаки двоичных алфавитов легко представляются в технических устройствах (один знак – нет сигнала, другой знак – есть сигнал), в математике (0 и 1), в логике (истина и ложь).

Единицы измерения количества информации. За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица называется бит. В вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд. Бит слишком мелкая единица измерения. На практике чаще применяется более крупная единица байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 ^8). Широко используются также ещё более крупные производные единицы информации: 1 Килобайт (Кбайт) = 1024 байт = 2 ^ 10 байт, 1 Мегабайт (Мбайт) = 1024 Кбайт = 2^ 20 байт, 1 Гигабайт (Гбайт) = 1024 Мбайт = 2 ^ 30 байт.

Единицы измерения количества информации Для удобства, помимо бита используются более крупные единицы измерения количества информации. Вот соотношения между ними: 1 байт = 2 в 3 бит = 8 бит 1 килобайт (Кб) = 2 в 10 бит = 1024 бит 1 мегабайт (Мб) = 1024 Кб 1 гигабайт (Гб) = 1024 Мб 1 терабайт (Тб) = 1024 Гб То, что отношения между единицами измерения кратны степеням 2, объясняется большим теоретическим и практическим значением двоичного кодирования в информатике.

Алфавитный подход Если информация представлена в виде дискретного сообщения, то логично считать количеством информации его длину, то есть общее число знаков в сообщении. Но длина сообщения зависит не только от содержащейся в нем информации. На нее влияет мощность алфавита используемого языка. Чем меньше знаков в используемом алфавите, тем длиннее сообщение. Так, например, в алфавите азбуки Морзе всего три знака (точка, тире, пауза), поэтому для кодирования каждой русской или латинской буквы нужно использовать несколько знаков, и текст, закодированный по Морзе, будет намного длиннее, чем при обычной записи. Пример: Сигнал SOS: 3 знака в латинском алфавите; 11 знаков в алфавите Морзе: ··· пауза – – – пауза ···. Для упорядочивания измерений информационный объем сообщений принято измерять в битах. Один бит соответствует одному знаку двоичного алфавита. Итак, чтобы измерить длину сообщения, его нужно представить в двоичном виде и подсчитать количество двоичных знаков – битов. При этом совсем не обязательно уметь интерпретировать сообщения. Пример: Пусть сообщение в двоичном алфавите выглядит следующим образом: Мы не знаем, какая информация была заложена в этом сообщении, но можем легко подсчитать его длину – 12 двоичных знаков, следовательно, его информационный объем равен 12-ти битам. Такой способ измерения количества информации называется алфавитным подходом. При этом измеряется не содержание информации с точки зрения его новизны и полезности, а размер несущего информацию сообщения.

Найдем информационный объем слова SOS, записанного в компьютерной кодировке. При кодировании букв в компьютере используется либо алфавит ASCII (American Standard Code for Information Interchange американский стандартный код обмена информацией), состоящий из 2 в 8=256 знаков, либо алфавит Unicode, мощность которого 2 в 16 = В слове SOS три буквы, следовательно, его информационный объем 3·8=24 или 3·16=48 бит, в зависимости от используемой кодировки. Алфавитный подход удобен при подсчете количества информации, хранимого, передаваемого и обрабатываемого техническими устройствами. Действительно, устройствам нет дела до содержательной стороны сообщений. Компьютеры, принтеры, модемы работают не с самой информацией а с ее представлением в виде сообщений. Оценить информационные результаты их работы как полезные или бесполезные может только человек

Количество информации как мера уменьшения неопределенности С точки зрения отдельного человека, ценность информации определяется тем, насколько она проясняет для него какой-либо вопрос, то есть уменьшает неопределенность ситуации. При этом количество одной и той же информации может быть оценено различными людьми по-разному. Для объективного измерения количества информации необходимо формализовать задачу. Будем считать события равновозможными, если мы не располагаем заранее никакой информацией (статистическими данными, логическими умозаключениями и т.д.), о том, что шансы одного из событий выше или ниже, чем шансы любого другого. При этом имеется в виду, что в результате опыта обязательно наступит какое-либо событие и притом только одно. Так, например, при подбрасывании монеты выпадение орла или решки можно считать равновозможными событиями, предполагая монету идеальной, то есть исключив из рассмотрения возможность других исходов ("зависла в воздухе", "встала на ребро"), а также влияние на исход опыта чеканки на сторонах монеты, отклонения формы реальной монеты от правильной и т. д. Чем больше равновозможных событий, тем больше неопределенность ситуации. Минимальный размер сообщения о том, что произошло одно из двух равновозможных событий, равен одному биту. Информацию о том, что произошло первое событие, можно закодировать в двоичном алфавите нулем, а о том, что произошло второе событие – единицей.

Для уменьшения неопределенности в два раза (вместо двух возможных событий – одно реально произошедшее) требуется один бит информации. Иначе говоря, сообщение, уменьшающее неопределенность ситуации в два раза, несет один бит информации. Если его длина, подсчитанная с использованием алфавитного подхода, больше, значит сообщение несет избыточную, с точки зрения уменьшения неопределенности, информацию. Пример. С точки зрения уменьшения неопределенности, сообщение о исходе опыта бросания идеальной монеты (два равновозможных события) несет один бит информации. Можно рассчитать длину сообщения в двоичном алфавите, необходимую для передачи информации. Для уменьшения неопределенности ситуации в 2n раз необходимо n бит информации. Пример. С точки зрения уменьшения неопределенности, сообщение о исходе опыта бросания двух идеальных монет (четыре равновозможных события: орел- решка; решка-орел; орел-орел; решка-решка) несет два бита информации. Действительно, 2n в данном случае равняется четырем, следовательно n = 2.

Задача нахождения n по известному значению k = 2 n решается нахождением логарифма числа k по основанию 2, поэтому, для того, чтобы закодировать информацию, уменьшающую неопределенность в k раз, необходимо log 2 k бит информации. Приведем таблицу некоторых двоичных логарифмов, являющихся целыми числами. nlog 2 k n Log 2 k

Пример. С точки зрения уменьшения неопределенности, сообщение о исходе опыта бросания точечного объекта на шахматную доску (равновозможные события - попадания в одну из 64 клеток) несет 6 бит информации. Действительно, k в данном случае равняется 64, log 2 64 = 6. Минимальная длина двоичного сообщения также будет равна 6. Подробнее: номер клетки доски по вертикали можно закодировать целым числом от 0 до 7. Для этого требуется 3 двоичных разряда (см. Системы счисления). Еще 3 разряда нужны для того, чтобы закодировать номер клетки доски по горизонтали, 3+3=6. Можно также просто пронумеровать все клетки числами от 0 до 63. Для этого опять-таки потребуется 6 разрядов. Если используется алфавит, состоящий не из двух, а из 2p знаков, то каждый знак может нести информацию, уменьшающую неопределенность ситуации в 2p раз. Таким образом, сообщение из m знаков позволяет уменьшить неопределенность в (2p)m = 2pm раз, то есть его информационный объем равен m·p бит, что согласуется с результатом, полученным при использовании алфавитного подхода. Пример. Пусть для кодирования сообщения о попадании точечного объекта на клетку шахматной доски используется алфавит из 8 символов (2 степени p = 8, следовательно p = 3). Сообщение уменьшает неопределенность в 64 раза, следовательно 2pm = 2 3m = 64, отсюда 3m = log 2 64 = 6; m = 2, то есть для кодирования информации попадании точечного объекта на клетку шахматной доски потребуется сообщение из двух знаков восьмисимвольного алфавита. Действительно, в первом знаке сообщения можно закодировать, например, информацию о горизонтали клетки, а во втором о вертикали. В общепринятой шахматной нотации фактически используется указанный способ именования клеток, только для удобства чтения первый символ сообщения записывается как буква, а второй - как цифра. С математической точки зрения ничто не мешает обозначать клетки a1 и h8 как aa и hh или 11 и 88, используя только 8 символов.

Передача информации Передача, хранение и обработка информации представляют собой информационные процессы, протекающие в социальных, биологических и технических системах. Передача информации производится путем посылки сообщений, которые, в свою очередь, передаются сигналами, способными распространяться в различных физических средах. В компьютерной технике сообщения обычно передаются с помощью электрических сигналов. Если есть физическая возможность передать сигнал от источника к приемнику, то говорят, что между ними существует канал связи. Основными характеристиками канала связи являются надежность передачи информации и его пропускная способность, то есть скорость передачи информации по каналу. Пропускная способность канала – это отношение количества переданной информации ко времени, затраченному на передачу. Она измеряется в битах в секунду и кратных единицах: 1 байт /с = 2 3 бит/с = 8 бит/с 1 Кб/с = 2 10 бит/с = 1024 бит/с 1 Мб/с = 1024 Кб/с и так далее. Пример 1. Пусть по каналу передается 30 Кб информации за 2 мин. Найдем пропускную способность канала. По определению она равна объём информации / время передачи = 30кб / 2*60 сек = 0,25 кбайт/сек Пример 2. Пусть по каналу с пропускной способностью 512 бит/с требуется передать 2Кб информации. Определим время, необходимое для передачи. Оно равно объём информации /пропускная способность= 2*1024/512 бит/сек= =2048 байт/64 байт/сек= 32 сек В восприятии человеком информации о внешнем мире основную роль играют зрительные образы. Физиологи установили, что около 90% информации человек воспринимает зрением, примерно 9% – слухом, и оставшийся 1% остальными органами чувств.

Графическая информация могут быть преобразованы в цифровой графический формат путём пространственной дискретизации. Растровое изображение состоит из отдельных точек. Качество растрового изображения определяется его разрешением (количество точек по вертикали и горизонтали) и используемой палитрой цветов (16,256,65536 и более) Пример: Определить глубину цвета в True Coler, в которм палитра состоит из цветов I= log = 32 бита Пример 2: Определить объём видеопамяти компьютера для графического режима High Color с разрешающей способностью 1024 * 768 точек с палитрой цветов Глубина цвета составляет: I = log =16 бит Количество точек изображения равно: 1024 * 768 = Требуемый объём видеопамяти равен: 16 бит * = бит = 1,2 Мбайта

В аналоговой форме звук представляет собой волну с непрерывно меняющейся амплитудой и частотой. При преоброзовании звука в цифровую форму производится дискретизация при которой в определённые моменты времепи амплитуда звуковой волны квантуется. Пример: Оцените информационный объём высококачественного стереофайла длительностью звучания 1 минута и глубиной кодирования 16 бит, а частота дискретизации 48 кГц. Информациооный объём звукового файла длительностью в 1 секунду равен 16 бит * * 2 = бит = 187,5 Кбайт Информациооный объём звукового файла длительностью в 1 минуту равен 187,5 Кбайт /c * 60 с = 11 Мбайт