Информатика – наука, изучающая свойства информации, а также способы представления, накопления, обработки и передачи информации с помощью технических средств.

Презентация:



Advertisements
Похожие презентации
Информация и информационные процессы. Информация - отражение реального мира, выражаемого в виде символов и знаков.
Advertisements

1 информационные процессы. 2 2 Информационные процессы - процессы сбора, обработки, накопления, хранения, поиска и распространения информации.
ИНФОРМАЦИЯ. ИНФОРМАТИКА. ИНФОРМАТИЗАЦИЯ. ВОПРОСЫ: n1n1. Что такое информация? n2n2. Носители информации. n3n3. Виды классификации информации. n4n4. Свойства.
Информация Её виды и свойства. вещества Все многообразие материальных объектов состоит из вещества энергией Все материальные объекты взаимодействуют друг.
Развитие человечества не было бы возможно без обмена информацией. С давних времен люди из поколения в поколение передавали свои знания, извещали об опасности.
Понятие "Информация". Слово «информация» происходит от латинского слова informatio,что в переводе означает сведение, разъяснение, ознакомление. Понятие.
Информация Её виды и свойства вещества Все многообразие материальных объектов состоит из вещества энергией Все материальные объекты взаимодействуют.
Презентация на тему: Представление и кодирование информации с помощью знаковых систем.
Автор: Карамова Е.И., учитель информатики МОУ СОШ 99 г. Челябинска.
ИНФОРМАЦИЯ Выполнила ученица 10 класса Собенникова Евгения Учитель: Хлопков Алексей Михайлович.
Информация Её виды и свойства информацию В процессе общения с людьми человек передает и принимает информацию Информация Информация это сообщение, уменьшающее.
Информация. Информационные процессы. Информатика – наука, изучающая свойства информации и информационные процессы, происходящие в живой и неживой природе,
ИНФОРМАТИКА И ИКТ. Литература для студентов 1. Н. Д. Угринович. Информатика и информационные технологии. Учебник для классов. М.: Лаборатория Базовых.
Информация. Виды информации. Информационные процессы. Подготовил : учитель информатики Дужая И.Н.
1 Информация и ее свойства 2 Информация – это смысл, содержание сообщений, получаемых человеком из внешнего мира посредством его органов чувств Сообщение.
Вся деятельность человека связана с различными действиями с информацией, и помогают ему в этом разнообразные технические устройства.
Информация Виды и свойства. Информация это осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования.
Информация и информационные процессы Информация и информационные процессы 1.Понятие информации 2.Классификация информации 3.Свойства информации.
ИНФОРМАЦИЯ И ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ. Информационная картина мира Вещество Вещество Энергия Энергия Информация Информация Процессы, связанные с получением,
«Информация» в переводе с латинского означает «разъяснение, изложение, набор сведений». Информация всегда предназначена конкретному получателю (приемнику)
Транксрипт:

Информатика – наука, изучающая свойства информации, а также способы представления, накопления, обработки и передачи информации с помощью технических средств. В информатике выделяют три основных направления: 1.Теоретическая информатика – изучает теорию информации, теорию алгоритмов; 2.Практическая информатика – изучает программирование и использование прикладных программ; 3.Техническая информатика – изучает проектирование, разработку и использование технических средств.

Информация (от лат. Information) - сведения, знания и сообщения, получаемые человеком из различных источников. Понятие информации – одно из фундаментальных в современной науке. Наряду с такими понятиями, как вещество, энергия, пространство и время, оно составляет основу научной картины мира. Однозначно определить, что же такое информация, также невозможно, как невозможно это сделать для понятий «время», «энергия» … Под информацией в быту понимают интересующие нас сведения об окружающем нас мире и протекающих в нем процессах, воспринимаемые и интерпретируемые человеком или специальным и устройствами. Под информацией в быту понимают интересующие нас сведения об окружающем нас мире и протекающих в нем процессах, воспринимаемые и интерпретируемые человеком или специальным и устройствами. Под информацией в технике понимают сообщения в форме знаков или сигналов, хранимые, передаваемые и обрабатываемые с помощью технических средств. Под информацией в технике понимают сообщения в форме знаков или сигналов, хранимые, передаваемые и обрабатываемые с помощью технических средств. Под информацией в теории информации понимают не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность. Под информацией в теории информации понимают не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность. Под информацией в семантической теории (смысл сообщения) понимают сведения, обладающие новизной. Под информацией в семантической теории (смысл сообщения) понимают сведения, обладающие новизной. В информатике информацию рассматривают как продукт взаимодействия данных и методов их обработки, адекватных решаемой задаче. В информатике информацию рассматривают как продукт взаимодействия данных и методов их обработки, адекватных решаемой задаче.

Информация всегда связана с материальным носителем. Носитель информации – среда для записи, хранения и передачи информации. Носителем информации может быть: 1.Любой материальный предмет; 2.Волны различной природы; 3.Вещество в различных состояниях. Способ передачи информации – сигнал (от анг. Sign – знак, символ). Сигнал – это физический процесс, имеющий информационное значение. Сигнал может быть аналоговым (непрерывным) или дискретным (принимающий конечное число значений в конечное число моментов времени) Любой сигнал переносится либо веществом (текст, наскальный рисунок, гены и т.д.), либо энергией (звук, свет, радиоволны и т.д.) А значит информация всегда связана с материальным носителем.

По способу восприятия: По способу восприятия: o визуальная, o аудиальная, o тактильная, o обонятельная, o вкусовая. По форме представления: По форме представления: o текстовая, o числовая, o графическая, o звуковая. По степени значимости: По степени значимости: o Личная (знания, умения, планы, чувства, интуиция, опыт, наследственная память) o Специальная (научная, производственная, техническая, управленческая) o Общественная (общественно-политическая, научно – популярная, обыденная, эстетическая)

1.Объективность – Субъективность (информация объективна, если она не зависит от чьего-либо мнения, суждения) 2.Достоверность – недостоверность или Ложность (информация достоверна, если она отражает истинное положение дел) 3.Полнота – Неполнота или Недостаточность, а также Избыточность (Информация полна, если её достаточно для понимания и принятия решения) 4.Актуальность – Неактуальность или Устарение, а также Преждевременность (информация актуальна, если она важна, существенна для настоящего времени) 5.Полезность или Ценность – Бесполезность (полезность информации оценивается теми задачами, которые мы можем решить с её помощью) 6.Понятность – Непонятность (информация понятна, если она выражена на языке, доступном для получателя)

Информационный процесс – совокупность последовательных действий (операций), производимых над информацией для получения какого-либо результата (достижения цели). Информация проявляется именно в информационных процессах. Информационные процессы всегда протекают в каких-либо системах (социальных, социотехнических, биологических и пр.) Наиболее общими информационными процессами являются: сбор, преобразование, использование информации. К основным информационным процессам, изучаемым в курсе информатики, относятся: поиск, отбор, хранение, передача, кодирование, обработка, защита информации. Компьютер является универсальным устройством для автоматизированного выполнения информационных процессов.

Хранение информации необходимо для распространения её во времени. Хранилище информации - это определенным образом организованная информация н6а внешних носителях, предназначенная для длительного хранения и постоянного использования. Хранилище информации зависит от её носителя (книга – библиотека, картина – музей, фотография – альбом). Основные хранилища информации: Для человека – память, в том числе генетическая. Для человека – память, в том числе генетическая. Для общества – библиотеки, видеотеки, фонотеки, архивы, музеи и т.п. Для общества – библиотеки, видеотеки, фонотеки, архивы, музеи и т.п. Компьютерные хранилища – базы и банки данных, информационно- поисковые системы, электронные энциклопедии, медиатеки и т.п. Компьютерные хранилища – базы и банки данных, информационно- поисковые системы, электронные энциклопедии, медиатеки и т.п. Информация, предназначенная для хранения и передачи, как правило, представлена в форме документа. Под документом понимается информация на любом материальном носителе, предназначенная для распространения в пространстве и времени.

Развитие человечества не было бы возможно без обмена информацией. С давних времен люди из поколения в поколение передавали свои знания, извещали об опасности или передавали важную и срочную информацию, обменивались сведениями. Например, в начале XIX века была весьма развита пожарная служба. В нескольких частях городов строили высокие каланчи, с которых обозревались окрестности. Если случался пожар, то на башне днем поднимали разноцветный флаг (с той или иной геометрической фигурой), а ночью зажигали несколько фонарей, число и расположение которых означало размер и место возникновения пожара. Так каланчи использовали для сигнализации – оповещали соседние пожарные части. Каланча́ наблюдательная башня при пожарной (полицейской) части. Устаревшее значение дозорная (оборонительная) башня.

В любом процессе передачи или обмене информацией существует её источник и получатель, а сама информация передается по каналу связи с помощью сигналов: механических, тепловых, электрических и др. В обычной жизни для человека любой звук, свет являются сигналами, несущими смысловую нагрузку. Например, сирена – это звуковой сигнал тревоги; звонок телефона – сигнал, чтобы взять трубку; красный свет светофора – сигнал, запрещающий переход дороги. В качестве источника информации может выступать живое существо или техническое устройство. От источника информация попадает в кодирующее устройство, которое предназначено для преобразования исходного сообщения в форму, удобную для передачи. С такими устройствами вы встречаетесь постоянно: микрофон телефона, лист бумаги и т.п. По каналу связи информация попадает в декодирующее устройство получателя, которое преобразует сообщение в форму, понятную получателю. Одни из самых сложных декодирующих устройств – человеческие ухо и глаз. В процессе передачи информация может утрачиваться, искажаться. Это происходит из-за различных помех, как на канале связи, так и при кодировании и декодировании информации (искажение звука в телефоне, помехи при телевизионной передаче, и др). Вопросами, связанными с методами кодирования и декодирования информации, занимается специальная наука – криптография.

КАНАЛ СВЯЗИ Помехи Защита от помех Кодирующее устройство Декодирующее устройство

Приобретая жизненный опыт, наблюдая мир вокруг себя, иначе говоря – накапливая все больше и больше информации, человек учится делать выводы. В древности люди говорили, что человек познает с помощью органов чувств и осмысливает познанное разумом. Один раз дотронувшись до горячего чайника или утюга мы запоминаем это на всю жизнь и каждый раз случайно дотронувшись до горячей поверхности, мы отдергиваем руку. Если проанализировать, почему так происходит, то можно сделать вывод о преобразовании (обработке) информации: прикоснувшись к горячей поверхности, мы получили информацию с помощью органов осязания, нервная система передала её1 в мозг, где на основании имеющегося опыта был сделан вывод об опасности, сигнал от мозга был послан в мышцы рук, которые мгновенно сократились. Аналогичные процессы обработки информации происходят и в тот момент, когда при первых аккордах знакомой мелодии сразу улучшается настроение или наоборот становится грустно. Все это примеры неосознанной обработки информации.

В случае осознанной обработки информации человек создает новую информацию, опираясь на поступающие сведения – так называемую входную информацию – и на имеющийся у него запас знаний и опыта. Новая информация, полученная в результате обработки входной информации, называется выходной. Входная информация Исполнитель обработки Входная информация

Обработка информации – преобразование информации из одного вида в другой. Обычно обработка информации целенаправленный процесс и для успешного выполнения исполнителю должен быть известен способ обработки, т.е. последовательность действий, правило. Обработка информации по принципу «черного ящика» Чёрным ящиком в информатике называют некую структуру (объект, систему), которая имеет вход и выход. На вход ящика подаются некоторые входные данные (также называемые параметрами), а через выход поступают выходные данные. Ящик называется чёрным потому, что его внутреннее строение нам неизвестно. Мы не знаем, как именно он обрабатывает информацию, поступающую к нему на вход. Однако можно изучать этот объект по изменениям между входами и выходами системы

Разные люди, получившие одно и то же сообщение, по-разному оценивают его информационную ёмкость, то есть количество информации, содержащееся в нем. Это происходит потому, что знания людей о событиях, явлениях, о которых идет речь в сообщении, до получения сообщения были различными. Поэтому, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, могут сказать, что информации не получили вовсе. Количество информации в сообщении, т.о., зависит от того, насколько ново это сообщение для получателя. В таком случае, количество информации в одном и том же сообщении должно определятся отдельно для каждого получателя, т.е. иметь субъективный характер.. Но субъективные вещи не поддаются сравнению и анализу, для их измерения невозможно выбрать одну общую для всех единицу измерения. В таком случае, количество информации в одном и том же сообщении должно определятся отдельно для каждого получателя, т.е. иметь субъективный характер.. Но субъективные вещи не поддаются сравнению и анализу, для их измерения невозможно выбрать одну общую для всех единицу измерения. Т.о. с точки зрения информации как новизны, мы не можем однозначно и объективно оценить количество информации, содержащееся даже в самом простом сообщении, а что говорить о количестве информации, содержащейся в научном открытии, новом музыкальном стиле, новой теории общественного развития… Поэтому, когда информация рассматривается как новизна сообщения для получателя, не ставится вопрос об измерении количества информации.

Измерение информации в теории информации (информация как снятая неопределенность) Получение информации одновременно означат увеличение знания, что, в свою очередь, означает уменьшение незнания или информационной неопределенности. За единицу количества информации принимают выбор одного из двух равновероятных сообщений («да» или «нет», «1» или «0»). Она также названа битом. Вопрос ценности этой информации для получателя – это уже из иной области. Научный подход к оценке сообщений был предложен ещё в 1928 году Ральфом Хартли. Расчетная формула имеет вид: или или Где N – количество равновероятных событий (неопределенность знаний) i – количество информации

В качестве единицы информации условились принять один бит (англ. bit binary, digit двоичная цифра). Бит в теории информации количество информации, необходимое для различения двух равновероятных сообщений. Например: 1.при бросании монеты: "выпала решка", "выпал орел"; 2.на странице книги: "количество букв чётное", "количество букв нечётное".

Допустим, нам требуется что-либо найти или определить в той или иной системе. Есть такой способ поиска как «деление пополам». Например, кто-то загадывает число от 1 до 100, а другой должен отгадать его, получая лишь ответы «да» или «нет». Задается вопрос: число меньше? Ответ и «да» и «нет» сократит область поиска вдвое. Далее по той же схеме диапазон снова делится пополам. В конечном итоге, загаданное число будет найдено. Посчитаем сколько вопросов надо задать, чтобы найти задуманное число. Допустим загаданное число 27. Начали: Больше 50? Нет Больше 25? Да Больше 38? Нет Меньше 32? Да Меньше 29? Да Больше 27? Нет Это число 26? Нет Если число не 26 и не больше 27, то это явно 27. Чтобы угадать методом «деления пополам» число от 1 до 100 нам потребовалось 7 вопросов. Кто-то может задаться вопросом: а почему именно так надо задавать вопросы? Ведь, например, можно просто спрашивать: это число 1? Это число 2? И т.д. Но тогда вам потребуется намного больше вопросов (возможность того, что вы телепат, и угадаете с первого раза не рассматривается). «Деление пополам» самый короткий рациональный способ найти число. Объем информации заложенный в ответ «да» или «нет» равен одному биту. Действительно, ведь бит может быть в состоянии 1 или 0. Итак, для угадывания числа от 1 до 100 нам потребовалось семь бит (семь ответов «да» - «нет»).

С точки зрения взгляда на информацию как на снятую неопределенность количество информации зависит от вероятности получения того или иного сообщения. Причем, чем больше вероятность события, тем меньшее количество информации содержится в сообщении о таком событии. Иными словами, количество информации зависит от вероятности свершения данного события. Научный подход к более общему случаю вычисления количества информации в сообщении об одном из N, но уже не равновероятных событий был предложен Клодом Шенноном в 1948 году. Формула Шеннона: I = ( p 1 log 2 p 1 + p 2 log 2 p p N log 2 p N ) где p i вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

Для того, что бы в компьютере хранить текстовые данные, необходимо предварительно закодировать все символы, которые могут использоваться в тексте. Текст может содержать цифры, прописные и строчные буквы, пробелы, знаки препинания и специальные символы (например, # & %), поэтому необходимо, чтобы мощность алфавита, включающего все кодируемые символы, была достаточно Большой. Если буквы, входящие в текст могут быть только латинские или русские, то для кодирования одного символа достаточно использовать 8 битовых ячеек памяти, т.е. 1 байт памяти (поскольку с помощью 8 ячеек памяти можно закодировать 2 8 =256 различных символов). При этом надо договориться кокой именно комбинацией активных и неактивных ячеек будет кодироваться каждый символ. Например, символ пробела кодируется комбинацией , а прописная буква А – комбинацией

В настоящее время имеется несколько однобайтовых (8-битных) кодировок символов, включающих русские буквы: Windows-1251, ASCII, КОИ-8. С распространением Интернета возникла необходимость в использовании такого набора символов, который содержал бы буквы всех существующих языков. Поэтому было решено использовать для кодирования каждого символа 2 байта, или 16 битовых ячеек памяти. Это позволяет закодировать 2 16 =65536 различных символов. Подобная двухбайтовая (16-битная)кодировка получила название Unicode (Юникод)

В любой однобайтовой кодировке каждый символ имеет размер 1 байт (говорят, что информационный объем символа равен 1 байту). Если текст состоит из K символов (включая пробелы, знаки препинания и др), то информационный объем такого текста равен K байт (или 8K бит) независимо от смысла текста. 2 i =N I=Ki i – информационный вес символа (сколько бит несет один символ) N – мощность алфавита (количество символов в алфавите) I – Информационный объем сообщения K - количество символов в сообщении