прослушивание радиопередач и аудиокассет;
- работа в библиотеках, архивах, информационных системам и другие методы.
Для того чтобы собрать наиболее полную информацию и повысить вероятность принятия правильного решения, необходимо использовать разнообразные методы поиска информации.
Поиск информации может быть эффективным и неэффективным. Успех будет в большой степени будет зависеть от того, как вы организовали поиск информации.
В процессе поиска информации может встретиться самая разная информация, как полезная, так и бесполезная, как достоверная, так и ложная, актуальная и устаревшая, объективная и субъективная. Для ускорения процесса получения полной информации по интересующему вопросу стали составлять каталоги (алфавитный, предметный и др.).
Следующим шагом в ускорении поиска информации стало создание специальных научных журналов. Подлинный переворот в службе хранения, отбора информации произвели автоматизированные информационно-поисковые системы (ИПС).
Использование ИПС позволяет сэкономить время и усилия, затрачиваемые на просмотр ящиков, заполненных карточками. Кроме того, библиотеки получают возможность существенно сократить пространство, отводимое для хранения каталогов.
2. Сбор информации — это деятельность субъекта, в ходе которой он получает сведения об интересующем его объекте. Сбор информации может производиться или человеком, или с помощью технических средств и систем — аппаратно.
Например, пользователь может получить информацию о движении поездов или самолетов сам, изучив расписание, или же от другого человека непосредственно, либо через какие-то документы, составленные этим человеком, или с помощью технических средств (автоматической справки, телефона и т.д.).
Задача сбора информации не может быть решена в отрыве с других задач, — задачи обмена информацией (передачи).
3. Хранение информации.
Хранение информации — процесс поддержания исходной информации в виде, обеспечивающем выдачу данных по запросам конечных пользователей в установленные сроки [8].
Хранение информации — процесс такой же древний, как жизнь человеческой цивилизации. Уже в древности человек столкнулся с необходимостью хранения информации: зарубки на деревьях, чтобы не заблудиться во время охоты; счет предметов с помощью камешков, узелков; изображение животных и эпизодов охоты на стенах пещер.
С рождением письменности и возникло специальное средство фиксирования и распространения мысли в пространстве и во времени. Родилась документированная информация — рукописи и рукописные книги, появились своеобразные информационно-накопительные центры — древние библиотеки и архивы. Постепенно письменный документ стал и орудием управления (указы, законы, приказы).
Новые технологии передачи и хранения информации
... приложений и полностью структурированной информационной технологии, охватывающей процессы сбора, накопления, хранения, поиска, переработки и выдачи всей информации, необходимой для информационного обеспечения деятельности. Новые технологии хранения информации В ... качеством VHS (обычные видео кассеты) или SDTV со скоростью передачи данных 4 мегабайта/секунду Открытие на которое записываются данные ( ...
Вторым информационным скачком явилось книгопечатание. С его возникновением наибольший объем информации стал храниться в различных печатных изданиях, и для ее получения человек обращается в места их хранения.
Хранение информации происходит или в памяти человека, или на внешних носителях. В памяти человека информация может храниться как в образной форме (я помню, как пахнет роза), так и в знаковой (словесной, формульной).
Информацию, хранимую в памяти, называют оперативной. Информацию, хранимую на внешних носителях (листе бумаги, диске, пластинке и т.д.), называют внешней. Она может быть переведена в разряд оперативной, если будет «прочитана» человеком. Внешние носители выполняют роль “дополнительной” памяти человека. На них могут храниться звук, тексты, изображения.
Устройства, на которых хранится информация, называются информационными носителями.
Информацию нужно хранить так, чтобы ее легко было найти. Для этого люди придумали разные способы организации хранения информации.
Различная информация требует разного времени хранения: проездной билет надо хранить только в течение поездки; программу телевидения — текущую неделю; школьный дневник — учебный год; аттестат зрелости — до конца жизни; исторические документы — несколько столетий.
ЭВМ предназначена для компактного хранения информации с возможностью быстрого доступа к ней.
Основные хранилища информации |
|||
Для человека |
Для общества |
Компьютерные хранилища |
|
Память |
Библиотеки, видиотеки, фонотеки, архивы, патентные бюро, музеи, картинные галереи |
Базы и банки данных, информационно-поисковые системы, электронные энциклопедии, медиатеки |
|
4. Передача информации.
Передача информации может осуществляться в письменной, устной формах или с помощью жестов. Человек получает информацию с помощью органов чувств (зрение — 90%; слух — 9%; обоняние, осязание, вкус — 1%).
Человеческое мышление можно рассматривать, как процесс обработки информации. Полученная информация хранится на носителях информации различного вида: книги, фотографии видеокассеты, лазерные диски т.д.
Установлена общность информационных процессов в живой природе, обществе и технике. Рассмотрим примеры:
Растительный мир. Весной вырастают листья, которые осенью опадают.д.лина светового дня, температура воздуха и почвы, — это сигналы, которые воспринимаются клетками живых организмов, как информация, которая обрабатывается и влияет на обменные физико-химические процессы, протекающие в живой клетке, — управляют ими. Передача идет в пределах собственных живых клеток (от корня к листьям и обратно).
Животный мир. Животные имеют нервную систему, управляющую всеми стадиями информационного процесса: восприятия, передачи, обработки и использования информации. В отличие от растительного мира, животные могу передавать информацию друг другу.
В неживой природе информационные процессы, существуют лишь в технике. Такая техника повторяет (моделирует) некоторые действия человека и способна в этих случаях заменить его. Например, роботы-манипуляторы и т.д.
Деятельность человека всегда была связана с передачей информации. Древний способ передачи — письмо, отправленное с гонцом. Разговаривая, мы передаем друг другу информацию. Человечество придумало много устройств для быстрой передачи информации: телеграф, радио, телефон, телевизор. К числу устройств, передающих информацию с большой скоростью, относятся электронные вычислительные машины, хотя правильнее было бы сказать телекоммуникационные сети.
В передаче участвуют две стороны:
приемник — тот, кто ее получает.
Например, учитель передает информацию ученикам. Учитель — источник. Ученик — приемник. В африканских джунглях, в старину, важные новости передавали от одного племени к другому барабанным боем. Моряки иногда пользуются флажковой азбукой. Разговаривая, мы передаем друг другу информацию. Информация ЭВМ выводится на экран монитора — это тоже передача информации.
Очень часто при передаче информации возникают помехи. И тогда информация от источника к приемнику поступает в искаженном виде.
Ошибки, возникающие при передаче информации, бывают 3-х видов:
- часть правильной информации заменяется на неправильную;
- к передаваемой информации добавляются лишние, посторонние сообщения;
- часть информации при передаче пропадает.
Информация передаётся в виде сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.
Канал связи — совокупность технических устройств, обеспечивающих передачу сигнала от источника к получателю.
Кодирующее устройство — устройство, предназначенное для кодирования (преобразования исходного сообщения источника информации к виду, удобному для передачи информации) информации.
Декодирующее устройство — устройство для преобразования полученного сообщения в исходное.
Примеры:
сообщение, содержащее информацию о прогнозе погоды, передаётся приёмнику (телезрителю) от источника — специалиста-метеоролога посредством канала связи — телевизионной передающей аппаратуры и телевизора.
телефонный разговор:
- Кодирующее устройство — микрофон — преобразует звуки в электрические импульсы;
- Канал связи — телефонная сеть (провод);
- Декодирующее устройство — та часть трубки, которую мы подносим к уху, здесь электрический сигнал преобразуется в звук;
- Приемник информации — человек слушающий.
Общая схема передачи информации может быть такой как представлено на рис.2:
Рис.2. Схема передачи информации
В процессе передачи информация может теряться, искажаться: искажение звука в телефоне, атмосферные помехи по радио, искажение или затемнение изображения в телевидении, ошибки при передаче в телеграфе. Эти помехи (шумы) искажают информацию. К счастью, существует наука, разрабатывающая способы защиты информации, — криптология.
5. Обработка информации.
Обработка информации — получение одних информационных объектов из других информационных объектов путем выполнения некоторых алгоритмов.
Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объёма и разнообразия информации. Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации. Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов. Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.
После решения задачи обработки информации результат должен быть выдан конечным пользователям в требуемом виде. Эта операция реализуется в ходе решения задач выдачи информации. Выдача информации, как правило, производится с помощью внешних устройств ЭВМ в виде текстов, таблиц, графиков и пр.
Обработка информации производится человеком или в уме, или с помощью каких-либо вспомогательных средств (счеты, калькулятор, компьютер и др.).
В результате обработки получается новая информация, которая каким-то образом сохраняется (записывается).
Обработка информации производится по каким-то определенным правилам (алгоритмам).
Сами эти правила могут также подвергаться обработке (дополняться, исправляться, уточняться).
Человек перерабатывает информацию минимум на трех уровнях: физиологическом (с помощь органов чувств), на уровне рационального мышления, на уровне подсознания.
Процесс обработки очень сложен.
Пример: Шум двигателя автобуса изменился. Для водителя это может служить информацией о каких-то неполадках в двигателе.
По радио сообщили, что теннисный турнир выиграл Агасси. Если вы не интересуетесь теннисом, то объем информации для Вас равен нулю. Если интересуетесь, объем зависит от конкретной фамилии победителя.
В примере №1 шум двигателя — косвенный источник информации. Человек обращается к базе знаний, которая хранится в памяти. Если база знаний неполная (человек малообразован), достоверную информацию получить невозможно.
Информацию, которую обрабатывают, называют исходной. После обработки исходной информации получается новая информация.
Ученик получил условие задачи (исходная информация), думает (обрабатывает) и сообщает ответ (новая информация).
Служебная собака по запаху находит человека (запах — исходная информация, куда пошел человек — новая).
Компьютер, специальный прибор, созданный человеком для обработки информации. Возможность автоматизированной обработки информации основана на том, что обработка информации не подразумевает ее осмысления.
6. Обмен информацией.
Обмен информацией — это процесс, в ходе которого источник информации ее передает, а получатель — принимает. Если в передаваемых сообщениях обнаружены ошибки, то организуется повторная передача этой информации. В результате обмена информацией между источником и получателем устанавливается своеобразный «информационный баланс», при котором в идеальном случае получатель будет располагать той я информацией, что и источник.
Обмен информацией может происходить в образной и знаковой формах. Языки бывают разговорными (русский, немецкий, и т.д.), причем в устной форме (фонетика) и в письменной (грамматика) и формальные (в математике — язык формул, в музыке — язык нот, в медицине — латынь).
Обмен информацией производится с помощью сигналов, являющихся ее материальным носителем. Источниками информации могут быть любые объекты реального мира, обладающие определенными свойствами и способностями. Если объект относится к неживой природе, то он вырабатывает сигналы, непосредственно отражающие его свойства. Если объектом-источником является человек, то вырабатываемые им сигналы могут не только непосредственно отражать его свойств, но и соответствовать тем знакам, которые человек вырабатывает с целью обмен информацией.
Принятую информацию получатель может использовать неоднократно. С этой целью он должен зафиксировать ее на материальном носителе (магнитном, фото, кино др.).
Процесс формирования исходного, несистематизированного массива информации называется накоплением информации. Среди записанных сигналов могут быть такие, которые отражают ценную или часто используемую информацию. Часть информации данный момент времени особой ценности может не представлять, хотя, возможно, не требуется в дальнейшем.
7. Защита информации.
Человеку свойственно ошибаться. Ошибка может произойти при выполнении любого информационного процесса: при кодировании информации, при ее обработке и передачи. Чем больше информации обрабатывается, тем труднее избежать ошибок.
Вы правильно выбрали метод решения задачи на контрольной работе, но ошиблись в вычислениях. Получили неверный результат. Вы неверно выразили свою мысль и невольно обидели собеседника. Произнесли не то слово, которое хотели и ваши слушатели вас не поняли.
Компьютеры — это технические устройства для обработки больших объемов информации. Несмотря на постоянное повышение надежности их работы, они могут выходить из строя, ломаться, как любые другие устройства, созданные человеком.
Компьютерная система ПВО североамериканского континента однажды объявила ложную ядерную тревогу, приведя в боевую готовность вооруженные силы. А причиной послужил неисправный ЧИП стоимостью 46 центов — маленький, размером с монету, кремниевый элемент.
Конструкторы и разработчики программного и аппаратного обеспечения прилагают немало усилий, чтобы обеспечить защиту:
- от сбоев оборудования;
- от случайной потери или изменения информации, хранящейся в компьютере;
- от преднамеренного искажения (компьютерные вирусы);
- от нелегального доступа к информации: ее использования, изменения, распространения.
К многочисленным, далеко не безобидным ошибкам компьютера добавилась и компьютерная преступность, грозящая перерасти в проблему, экономические, политические и военные последствия которой могут стать катастрофическими.
8. Качество информации
Возможность и эффективность использования информации обусловливаются такими основными ее потребительскими показателями качества, как репрезентативность, содержательность, достаточность, доступность, актуальность, своевременность, точность, достоверность, устойчивость. Репрезентативность информации связано с правильностью ее отбора и формирования в целях адекватного отражения свойств объекта. Важнейшее значение имеют: правильность концепции, на базе которой сформулировано исходное понятие и обоснованность отбора существенных признаков и связей отображаемого явления.
2. Измерение информации
Мощность информационного сигнала, также как и вес носителя информации не могут служить оценкой количества информации, переносимой сигналом.
Истрепанная книжка, если в ней нет вырванных страниц, несет для вас ровно столько же информации, сколько такая же новая.
2.1. Измерение информации в быту (информация как новизна)
Вы получили какое-то сообщение. В этом сообщении содержится какое-то количество информации. Как оценить, сколько информации вы получили? Другими словами, как измерить информацию? Можно ли сказать, что чем больше статья, тем больше информации она содержит?
Разные люди, получившие одно и тоже сообщение, по-разному оценивают количество информации, содержащееся в нем. Это происходит оттого, что знания людей об этих событиях, явлениях до получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, чем написано в статье, скажут, что информации не получили вовсе. Количество информации в сообщении зависит от того, насколько важно сообщение для получателя. При таком подходе непонятно, по каким критериям можно ввести единицу измерения информации. С точки зрения информации как новизны можно оценить количество информации, содержащейся в научном открытии, музыкальном стиле, новой теории общественного развития.
2.2. Измерение информации в технике
В технике информацией считается любая хранящаяся, обрабатываемая или передаваемая последовательность знаков, символов. В технике под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.
Определить понятие «количество информации» сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века Клод Шеннон развил вероятностный подход к измерению количества информации, работы по созданию ЭВМ привели к «объемному» подходу. В технике используют простой способ определения количества информации, названный объемным, основанный на подсчете числа символов в сообщении, не связан с его длиной и не учитывает содержания.
Пример: собака — 6 символов, dog — 3 символа.
Человеку привычно работать с символами, а компьютеру — с кодами. Каждый символ кодируется двоичным кодом, длиной в 8 знаков (восьмибитный код).
Прежде чем измерить информацию в битах, вы определяете количество символов в этом сообщении. Каждый символ не случайно кодируется 8-битным кодом. Для удобства введена более «крупная» единица информации в технике — байт, с помощью которой легче подсчитать количество информации в техническом сообщении — оно совпадает с количеством символов в нем.
В вычислительной технике: бит (binary digit) — двоичный знак двоичного алфавита {0, 1}, минимальная единица измерения информации.
Байт (byte) — единица количества информации в системе СИ. Байт — восьмиразрядный двоичный код, с помощью которого можно представить один символ.
Единицы измерения информации в вычислительной технике:
Бит |
Элементарная единица информации |
|
Байт (б) |
8 бит |
|
Килобайт (Кбайт) |
210 байт = 1024 байт |
|
Мегабайт (Мбайт) |
210 Кбайт = 220 байт |
|
Гигабайт (Гбайт) |
210 Мбайт = 230 байт |
|
Терабайт (Тбайт) |
1024 Гбайт = 240 байт |
|
Петабайт (Пбайт) |
1024 Тбайт = 250 байт |
|
Эксабайт (Эбайт) |
1024 Пбайт = 260 байт |
|
Информационный объем сообщения (информационная емкость сообщения) — количество информации в сообщении, измеренное в битах, байтах, производных единицах (Кб, Мб и т.д.) [2].
Длина сообщения зависит от числа различных символов, употребляемых для записи сообщения. Например, слово «мир» в русском алфавите записывается тремя знаками, в английском — пятью (peace), а в КОИ-8 — двадцатью четырьмя битами (111011011110100111110010).
2.3. Измерение информации в теории информации (информация как снятая неопределенность)
В теории информации количеством информации называют числовую характеристику сигнала, не зависящую от его формы и содержания и характеризующую неопределенность, которая исчезает после получения сообщения в виде данного сигнала — в этом случае количество информации зависит от вероятности получения сообщения о том или ином событии.
Для абсолютно достоверного события (событие обязательно произойдет, поэтому его вероятность равна 1) количество вероятности в сообщении о нем равно 0. Чем вероятнее событие, тем больше информации о нем несет сообщение.
Лишь при равновероятных ответах ответ «да» или «нет» несет 1 бит информации. Оценка количества информации основывается на законах теории информации. Сообщение имеет ценность, несет информацию, когда мы узнаем и понимаем смысл данного сообщения.
Какое количество информации содержится, к примеру, в тексте романа «Война и мир», в фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро.
А возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является вывод: в определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.
Теория информации как самостоятельная научная дисциплина была основана Клодом Шенноном в конце 40-х годов 20 века. Предложенная им теория основывалась на фундаментальном понятии количественной меры неопределенности — энтропии и связанного с нею понятия количества информации.
Сигнал — это материальный носитель информации (предмет, явление, процесс) в пространстве и во времени. Любой сигнал неразрывно связан с определенной системой, которая является системой связи или системой передачи информации и состоит из следующих модулей: источник, передатчик, канал связи, приемник и адресат. Источник информации задает некоторое множество сообщений. Генерация определенного сообщения заключается в выборе его из множества всех возможных. Сообщения бывают дискретными и непрерывными. Светофор или передача сообщения с помощью азбуки Морзе — примеры дискретного сигнала.
Особым видом сигналов являются знаки, которые в отличие от сигналов естественного происхождения создаются самоорганизующимися системами и предназначаются для передачи и хранения информации. Есть знаки, входящие в четко организованную систему, и внесистемные знаки. Например: знаки дорожного движения, система цветов светофора, музыка, речь и языки, как естественные, так и искусственные. Внесистемные знаки — это или остатки некогда существовавших знаковых систем, или знаки, созданные временно, обычно в небольших коллективах людей. Например, языки жестов и поз.
В теории информации и кодировании принят энтропийный подход к измерению информации, который основан на том, что факт получения информации всегда связан с уменьшением разнообразия или неопределенности (энтропии) системы. Неопределенность может быть интерпретирована в смысле того, насколько мало известно наблюдателю о данной системе, энтропия системы снизилась, так как для наблюдателя система стала более упорядоченной.
При энтропийном подходе под информацией понимается количественная величина исчезнувшей в ходе какого-либо процесса (испытания, измерения и т.д.) неопределенности. При этом в качестве меры неопределенности вводится энтропия [1].
Энтропия — мера внутренней неупорядоченности информационной системы.
Энтропия увеличивается при хаотическом распределении информационных ресурсов и уменьшается при их упорядочении.
На основе понятий энтропии и количества информации в теории информации введены важные характеристики сигналов и информационных систем:
- скорость создания информации;
- скорость передачи информации;
- избыточность;
- пропускная способность каналов связи.
Одним из самых замечательных результатов теории информации является доказательство, что при любых помехах и шумах можно обеспечить передачу информации без потерь.
Первая теорема Шеннона гласит, что при скорости создания информации меньшей пропускной способности канала можно передавать информацию со сколь угодно малой вероятностью ошибок, несмотря на шумы.
Шеннон сформулировал энтропию как меру хаоса в противовес количеству информации как меры упорядоченности структур.
Рассмотрим некоторую сложную систему и проследим ее эволюцию. Пусть эта система представляет собой находящийся в сосуде газ, состоящий из огромного числа беспорядочно движущихся молекул. Мы не знаем точного положения и скорости в каждый момент времени каждой частицы газа, но нам известны макропараметры: давление, объем, температура и состав газа. Фактически мы должны рассчитать число способов, которыми можно осуществить внутренние перестройки в системе, чтобы наблюдатель не заметил изменений макросостояния системы. При этом предполагается неотличимость атомов друг от друга.
Если в системе, состоящей из одного атома, произошло его энергетическое возбуждение, нам это может стать известно по значению температуры. При этом возможно только одно распределение возбуждения в системе равному единице. Энтропия связана с распределением следующим образом: . В нашем случае , а значит, система обладает нулевой энтропией.
В системе из ста атомов, распределение возбуждения может быть осуществлено ста способами, т.е. , . Энтропия системы выросла и стала хаотичной, поскольку мы не знаем, где находится в каждый момент возбужденный атом.
Принято считать, что любая система стремится к состоянию равновесия, т.е. растет энтропия системы. Однако второе начало термодинамики (закон сохранения энтропии и информации) требует компенсировать рост энтропии. Информация и является средством компенсации.
В настоящее время получили распространение подходы к определению понятия «количество информации», основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте.
Р. Хартли предложил в качестве меры неопределенности логарифм от числа возможностей, т.е. процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N: — формула Хартли.
Обычно количество информации представляется в виде: , где m — число возможных выборов. Тогда стандартной единицей количества информации будет выбор из двух возможностей. Такая единица получила наименование бит и представляется одним символом двоичного алфавита: 0 или 1.
Пример: нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: .Т. е. сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.
Другие примеры равновероятных сообщений: при бросании монеты: «выпала решка», «выпал орел»; на странице книги: «количество букв чётное», «количество букв нечётное».
В некоторых случаях, когда однозначно нельзя ответить на вопросы распределения вероятности, для определения количества информации уже нельзя использовать формулу Хартли.
Пример: являются ли равновероятными сообщения «первой выйдет из дверей здания женщина» и «первым выйдет из дверей здания мужчина». Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь.
Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.
Формула Шеннона:
где рi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.
Если вероятности равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.
3. Кодирование информации
Кодирование информации — это процесс формирования определенного представления информации [3].
В более узком смысле под термином кодирование часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.
Компьютер может обрабатывать только информацию, представленную в числовой форме. Вся другая информация (звуки, изображения, показания приборов и т.д.) для обработки на компьютере должна быть преобразована в числовую форму. Чтобы перевести в числовую форму музыкальный звук, можно через небольшие промежутки времени измерять интенсивность звука на определенных частотах, представляя результаты каждого измерения в числовой форме. Аналогичным образом можно обрабатывать текстовую информацию. При вводе в компьютер каждая буква кодируется определенным числом, при выводе на внешние устройства для восприятия человеком по этим числам строятся изображения букв. Соответствие между набором букв и числами называется кодировкой символов.
Одну и ту же информацию можно выразить разными способами. Например, каким образом вы можете сообщить об опасности?
Если на вас напали, вы просто можете крикнуть: «Караул!!! »
Если прибор находится под высоким напряжением, то требуется оставить предупреждающий знак;
На оживленном перекрестке регулировщик помогает избежать аварии с помощью жестов.
В театре пантомимы вся информация передается только с помощью мимики и жестов. , Если ваш корабль тонет, то вы передаете сигнал «SOS». , На флоте используют семафорную и флажковую сигнализацию.
В каждом из этих примеров мы должны знать правила, по которым можно отобразить информацию об опасности тем или иным способом.
Правила, по которым можно отобразить информацию тем или иным способом, называются кодом.
Обычно каждый образ при кодировании представлен отдельным знаком.
Знак — это элемент конечного множества, отличных друг от друга элементов. Знак вместе его смыслом называется символом. Набор знаков, в котором определен их порядок, называется алфавитом. Мощность алфавита — количество используемых в нем символов.
Существует множество алфавитов: алфавит кириллических букв (А, Б, В, Г, Д, …); алфавит латинских букв (A, B, C, D, …); алфавит десятичных цифр (1, 2, 3, 4,…,9, 0); алфавит знаков зодиака и др.
Имеются, однако, наборы знаков, для которых нет какого-то общепринятого порядка: набор знаков азбуки Брайля (для слепых); набор китайских иероглифов; набор знаков планет; набор знаков генетического кода.
Особенно важное значение имеют наборы, состоящие всего из двух знаков: пара знаков (+, -); пара знаков «точка», « тире»; пара цифр (0, 1); пара ответов (да, нет).
Наборы знаков, состоящие из 2 символов, называют двоичными — двоичный алфавит (0, 1), двоичный знак получил название БИТ. С появлением электрического телеграфа возникли важнейшие технические коды: азбука МОРЗЕ; набор знаков второго международного телеграфного кода (телекс).
Код используется для представления информации в виде, удобном для хранения и передачи.
Например, для того чтобы закодировать ряд чисел от 0 до 100, во-первых, нужно выбрать какой-то алфавит. Если для каждого числа придумать символ, который будет его обозначать, то потребуется 101 символ. А если чисел будет больше, то данный подход нерационален. Если каждое число представить (закодировать) не одним, а несколькими знаками из нашего алфавита, то в нашем правиле появится понятие длина кода.
Длиной кода — это такое количество знаков, которое используется при кодировании для представления символа. Количество символов в алфавите и длина кода — совершенно разные вещи. Например, в русском алфавите 33 буквы, а слова могут быть длиной в 1, 2, 3 и т.д. буквы.
Коды бывают постоянной и переменной длины. Коды переменной длины применяются в технике довольно редко. Исключением лишь является код МОРЗЕ. Азбука МОРЗЕ — это троичный код с набором знаков: точка, тире, пауза. Паузу необходимо использовать в качестве разделителя между буквами и словами, так как длина кода непостоянна. Если бы длина кода была постоянной, то расположение символов можно было устанавливать при помощи отсчета. В этом случае пауза не нужна. Сообщение будет раскодировано однозначно.
Применение кодов с постоянной длиной позволяет использовать для кодирования всего лишь два знака (двоичный код).
Чем меньше букв в алфавите, тем должно быть проще устройство для раскодирования (расшифровки) информационного сообщения. Чем меньше букв в алфавите, тем больше должна быть длина кода.
В процессе развития человеческого общества люди выработали большое число языков кодирования: разговорные языки (русский, английский, хинди и др.); язык мимики и жестов; язык рисунков и чертежей; язык науки (математические, химические и другие символы); язык искусства (музыки, живописи, скульптуры и др.); специальные языки (эсперанто, морской семафор, азбука Морзе, азбука Брайля для слепых и др.); языки программирования (Бейсик, Паскаль, Фортран, Си и др.).
Программирование — это кодирование информации на языке, «понятном» компьютеру.
В компьютерах используется двоичная форма представления данных. Троичное кодирование, несмотря на ряд технических попыток, успеха не имело. Четверичное кодирование в криптографических целях (криптография — тайнопись) использовалось еще в XV веке. Передача сообщения всегда осуществляется во времени. Кодирование требует определенного количества времени, которым зачастую нельзя пренебрегать. При кодировании могут ставиться определенные цели и применяться различные методы.
Наиболее распространенные цели кодирования:
экономность (уменьшение избыточности сообщения, повышение скорости передачи или обработки информации);
- надежность (защита от случайных искажений);
- сохранность (защита от нежелательного доступа к информации);
- удобство физической реализации (двойное кодирование информации в компьютере);
- удобство восприятия (схемы, таблицы).
3.1. Кодирование информации в компьютере
В современных компьютерах используется двоичная форма представления данных, содержащая всего две цифры — 0 и 1. Такая форма позволяет создать достаточно простые технические устройства для представления (кодирования) и распознавания (дешифровки) информации. Двоичное кодирование выбрали потому, чтобы максимально упростить конструкцию декодирующей машины, ведь дешифратор должен уметь различать всего два состояния — 0 и 1. Например, 1 — есть ток в цепи, 0 — нет тока в цепи. По этой причине двоичная система и нашла такое широкое распространение.
Современный компьютер может обрабатывать числовую, текстовую, графическую, звуковую и видео информацию. Все эти виды информации в компьютере представлены в двоичном коде, т.е. используется алфавит мощностью два (всего два символа 0 и 1).
Такое кодирование принято называть двоичным, а сами логические последовательности нулей и единиц — машинным языком.
Вид информации |
Двоичный код |
|
Числовая |
10110011 |
|
Текстовая |
||
Графическая |
||
Звуковая |
||
Видео |
||
Каждая цифра машинного двоичного кода несет количество информации равное одному биту. Данный вывод можно сделать, рассматривая цифры машинного алфавита, как равновероятные события. При записи двоичной цифры можно реализовать выбор только одного из двух возможных состояний, а, значит, она несет количество информации равное 1 бит. Следовательно, две цифры несут информацию 2 бита, четыре разряда — 4 бита и т.д. Чтобы определить количество информации в битах, достаточно определить количество цифр в двоичном машинном коде.
3.2. Кодирование текстовой информации
Большая часть пользователей при помощи компьютера обрабатывает текстовую информацию, которая состоит из символов: букв, цифр, знаков препинания и др.
Для того чтобы закодировать 1 символ используют количество информации равное 1 байту, т.е. I=1 байт = 8 бит. При помощи формулы , которая связывает между собой количество возможных событий N и количество информации I, можно вычислить, сколько различных символов можно закодировать: , т.е. для представления текстовой информации можно использовать алфавит мощностью 256 символов. Суть кодирования: каждому символу ставят в соответствие двоичный код от 00000000 до 11111111 или соответствующий ему десятичный код от 0 до 255.
Для разных типов ЭВМ и операционных систем используются различные таблицы кодировки, отличающиеся порядком размещения символов алфавита в кодовой таблице. Международным стандартом на персональных компьютерах является уже упоминавшаяся таблица кодировки ASCII.
Принцип последовательного кодирования алфавита заключается в том, что в кодовой таблице ASCII латинские буквы (прописные и строчные) располагаются в алфавитном порядке. Расположение цифр также упорядочено по возрастанию значений. Стандартными в этой таблице являются только первые 128 символов, т.е. символы с номерами от нуля (двоичный код 00000000) до 127 (01111111).
Сюда входят буквы латинского алфавита, цифры, знаки препинания, скобки и некоторые другие символы. Остальные 128 кодов, начиная со 128 (двоичный код 10000000) и кончая 255 (11111111), используются для кодировки букв национальных алфавитов, символов псевдографики и научных символов.
В настоящее время для кодировки русских букв используют пять различных кодовых таблиц (КОИ-8, СР1251, СР866, Мас, ISO), причем тексты, закодированные при помощи одной таблицы, не будут правильно отображаться в другой кодировке.
В большинстве случаев о перекодировке текстовых документов заботится не пользователь, а специальные программы — конверторы, которые встроены в приложения.
Начиная с 1997 г. последние версии Microsoft Windows и Office поддерживают новую кодировку Unicode, которая на каждый символ отводит по 2 байта, а, поэтому, можно закодировать не 256 символов, а 65536 различных символов.
3.3. Кодирование графической информации
В видеопамяти находится двоичная информация об изображении, выводимом на экран. Почти все создаваемые, обрабатываемые или просматриваемые с помощью компьютера изображения можно разделить на две большие части — растровую и векторную графику.
Растровые изображения представляют собой однослойную сетку точек, называемых пикселами (pixel от англ. picture element), которые могут принимать только два значения: белый и черный (светится — не светится).
Так как информация о цвете пиксела называется кодом пиксела, то для его кодирования достаточно одного бита памяти: 1 — белый, 0 — черный.
Если рассматривать иллюстрацию в виде комбинации точек с 256 градациями цвета, то достаточно восьмиразрядного двоичного числа, чтобы закодировать яркость любой точки. Цвет в компьютерной графике выступает средством усиления зрительного впечатления и повышения информационной насыщенности изображения. Восприятие цвета происходит в результате анализа светового потока, падающего на сетчатку глаза от отражающих или излучающих объектов. Цветовые рецепторы человека — колбочки и подразделяются на 3 группы, каждая из которых может воспринимать лишь один цвет (красный, зеленый или синий).
Пиксел на цветном дисплее может иметь различную окраску, поэтому одного бита на пиксел недостаточно. Для кодирования 4-цветного изображения требуются два бита на пиксел, поскольку два бита могут принимать 4 различных состояния. Может использоваться, например, такой вариант кодировки цветов: 00 — черный, 10 — зеленый, 01 — красный, 11 — коричневый.
На RGB-мониторах все разнообразие цветов получается сочетанием базовых цветов — красного (Red), зеленого (Green), синего (Blue), из которых можно получить 8 основных комбинаций.
Разумеется, если иметь возможность управлять интенсивностью (яркостью) свечения базовых цветов, то количество различных вариантов их сочетаний, порождающих разнообразные оттенки, увеличивается. Количество различных цветов — К и количество битов для их кодировки — N связаны между собой простой формулой: .
В противоположность растровой графике векторное изображение многослойно. Каждый элемент векторного изображения — линия, прямоугольник, окружность или фрагмент текста — располагается в своем собственном слое, пикселы которого устанавливаются независимо от других слоев. Каждый элемент векторного изображения является объектом, который описывается с помощью специального языка (математических уравнения линий, дуг, окружностей и т.д.).
Сложные объекты (ломаные линии, различные геометрические фигуры) представляются в виде совокупности элементарных графических объектов.
Объекты векторного изображения, в отличии от растровой графики, могут изменять свои размеры без потери качества (при увеличении растрового изображения увеличивается зернистость).
3.4. Кодирование звука
Из курса физики вам известно, что звук — это колебания воздуха. Если преобразовать звук в электрический сигнал (например, с помощью микрофона), мы увидим плавно изменяющееся с течением времени напряжение. Для компьютерной обработки такой — аналоговый — сигнал нужно каким-то образом преобразовать в последовательность двоичных чисел.
Будем измерять напряжение через равные промежутки времени и записывать полученные значения в память компьютера. Этот процесс называется дискретизацией (или оцифровкой), а устройство, выполняющее его — аналого-цифровым преобразователем (АЦП).
Для того чтобы воспроизвести закодированный таким образом звук, нужно выполнить обратное преобразование (для него служит цифро-аналоговый преобразователь — ЦАП), а затем сгладить получившийся ступенчатый сигнал.
Чем выше частота дискретизации (т.е. количество отсчетов за секунду) и чем больше разрядов отводится для каждого отсчета, тем точнее будет представлен звук. При этом увеличивается и размер звукового файла. В зависимости от характера звука, требований, предъявляемых к его качеству и объему занимаемой памяти, выбирают некоторые компромиссные значения.
Описанный способ кодирования звуковой информации достаточно универсален, он позволяет представить любой звук и преобразовывать его самыми разными способами. Но бывают случаи, когда выгодней действовать по-иному.
Человек издавна использует довольно компактный способ представления музыки — нотную запись. В ней специальными символами указывается, какой высоты звук, на каком инструменте и как сыграть. Фактически, ее можно считать алгоритмом для музыканта, записанным на особом формальном языке. В 1983 г. ведущие производители компьютеров и музыкальных синтезаторов разработали стандарт, определивший такую систему кодов. Он получил название MIDI. Такая система кодирования позволяет записать далеко не всякий звук, годится только для инструментальной музыки. Есть неоспоримые преимущества: чрезвычайно компактная запись, естественность для музыканта, легкость замены инструментов, изменения темпа и тональности мелодии [3].
Существуют и другие, чисто компьютерные, форматы записи музыки, например, формат MP3, позволяющий с очень большим качеством и степенью сжатия кодировать музыку.
3.5. Кодирование чисел
Существуют два основных формата представления чисел в памяти компьютера. Один из них используется для кодирования целых чисел, второй (так называемое представление числа в формате с плавающей точкой) используется для задания некоторого подмножества действительных чисел.
Множество целых чисел, представимых в памяти ЭВМ, ограничено. Диапазон значений зависит от размера области памяти, используемой для размещения чисел. В k-разрядной ячейке может храниться 2k различных значений целых чисел.
Чтобы получить внутреннее представление целого положительного числа N, хранящегося в k-разрядном машинном слове, необходимо:
1) перевести число N в двоичную систему счисления;
2) полученный результат дополнить слева незначащими нулями до k разрядов.
Формат с плавающей точкой использует представление вещественного числа R в виде произведения мантиссы m на основание системы счисления n в некоторой целой степени p, которую называют порядком: . Представление числа в форме с плавающей точкой неоднозначно. Например, справедливы следующие равенства:
12.345 = 0.0012345 x 104 = 1234.5. x 10-2 = 0.12345 x 102
Чаще всего в ЭВМ используют нормализованное представление числа в форме с плавающей точкой. Мантисса в таком представлении должна удовлетворять условию: . Иначе говоря, мантисса меньше 1 и первая значащая цифра — не ноль (p — основание системы счисления).
В памяти компьютера мантисса представляется как целое число, содержащее только значащие цифры (0 целых и запятая не хранятся), так для числа 12.345 в ячейке памяти, отведенной для хранения мантиссы, будет сохранено число 12345. Для однозначного восстановления исходного числа остается сохранить только его порядок, в данном примере — это 2.
3.6. Понятие о системах счисления
3.6.1. Что такое система счисления
Системой счисления называется совокупность приемов наименования и записи чисел [7].
Система счисления — это способ представления любого числа с помощью некоторого алфавита символов, называемых цифрами.
В любой системе счисления для представления чисел выбираются некоторые символы (слова или знаки), называемые базисными числами, а все остальные числа получаются в результате каких-либо операций из базисных чисел данной системы исчисления. Символы, используемые для записи чисел, могут быть любыми, только они должны быть разными и значение каждого из них должно быть известно.
В современном мире наиболее распространенным является представление чисел посредством арабских цифр 0, 1,2, 3, 4, 5, 6, 7, 8, 9 — специальных знаков, используемых для записи чисел. Системы счисления различаются выбором базисных чисел и правилами образования из них остальных чисел.
Системы счисления, в которых любое число получается путем сложения или вычитания базисных чисел, называются аддитивными. При таком представлении чисел правила сложения для небольших чисел очевидны и просты, однако если возникает необходимость выполнять операции сложения над большими числами или операции умножения и деления, то «римская» система счисления оказывается неудобной.
В этой ситуации преимущественнее оказываются позиционные системы счисления.
Существуют позиционные и непозиционные системы счисления.
В позиционных системах счисления вес каждой цифры изменяется в зависимости от ее положения (позиции) в последовательности цифр, изображающих число. В позиционной системе счисления представления чисел далеко не так просты и очевидны, как в «римской» системе счисления, систематичность представления, основанная на «позиционном весе» цифр, обеспечивает простоту выполнения операций умножения и деления.
В непозиционных системах вес цифры (т.е. тот вклад, который она вносит в значение числа) не зависит от ее позиции в записи числа. В «римской» системе счисления каждый числовой знак в записи любого числа имеет одно и то же значение, т.е. значение числового знака не зависит от его расположения в записи числа. В римской системе счисления в числе ХХХII (тридцать два) вес цифры Х в любой позиции равен просто десяти, а I — это единица.
Для изображения чисел в настоящее время используются в основном позиционные системы счисления. Привычной для всех является десятичная система счисления. В этой системе для записи любых чисел используется только десять разных знаков (цифр): 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. Эти цифры введены для обозначения первых десяти последовательных чисел, а следующее число 10 и т.д. обозначается уже без использования новых цифр. Однако введением этого обозначения сделан важный шаг в построении системы счисления: значение каждой цифры поставлено в зависимость от того места, где она стоит в изображении числа.
Десятичная запись любого числа X в виде последовательности цифр: , основана на представлении этого числа в виде полинома:
где каждый коэффициент аi, может быть одним из чисел, для обозначения которых введены специальные знаки. Запись числа X в формуле представляет собой просто перечисление всех коэффициентов этого полинома. Точка, отделяющая целую часть числа от дробной, служит для фиксации конкретных значений каждой позиции в этой последовательности цифр и является началом отсчета.
Количество К различных цифр, употребляющихся в позиционной системе счисления, называется ее основанием системы счисления, а сама система счисления называется К-ичной. Например, основанием десятичной системы счисления является число 10; двоичной — число 2; троичной — число 3 и т.д. Для записи произвольного числа в K-ичной системе счисления достаточно иметь К разных цифр . Эти цифры служат для обозначения некоторых различных целых чисел, называемых базисными.