Основные свойства информации. способы измерения информации

Понятие информатики Основные направления информатики

Понятие информатики как науки и учебной дисциплины Предметом курса «Информатика и математика» являются информационные отношения, складывающиеся в процессе деятельности по сбору, переработке, передаче, хранению и выдаче информации. Изучение данного курса обеспечивает базовую подготовку в сфере информатики, вычислительной техники, математики и статистики. Слово информатика происходит от французского слова Informatique, образованного в результате объединения терминов Information (информация) и Automatique (автоматика). Это выражает ее суть как науки об автоматической обработке информации. Источниками информатики, т.е. основой для ее возникновения, являются две науки: документалистика и кибернетика. Документалистика сформировалась в конце XIX века в связи с бурным развитием производственных отношений. Основным ее предметом стало изучение рациональных средств и методов повышения эффективности документооборота.

Итак, информатика – это техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими. Предмет информатики составляют следующие понятия: · аппаратное обеспечение средств вычислительной техники (hardware); · программное обеспечение средств вычислительной техники (software); · средства взаимодействия аппаратного и программного обеспечения (аппаратно- программный интерфейс); · средства взаимодействия человека с аппаратным и программным обеспечением (пользовательский интерфейс). Основной задачей информатики является систематизация приемов и методов работы с аппаратными и программными средствами вычислительной техники

Основные направления информатики

1. Теоретическая информатика. Это математическая дисциплина, использующая методы математики для построения и изучения моделей обработки, передачи и использования информации.

2. Кибернетика.

3. Вычислительная техника – изучает устройство и функционирование персональных ЭВМ, организацию информационно-вычислительных сетей и автоматизированных рабочих мест (АРМ). 4. Программирование – создание программ и пакетов прикладных программ, разработка языков программирования, создание операционных систем.

5. Искусственный интеллект (ИИ) – занимается проблемами передачи части интеллектуальных и творческих функций человека вычислительной технике

6. Информационные системы – это системы, предназначенные для хранения, поиска и выдачи информации по запросам пользователей.

Основное различие между информационными и интеллектуальными системами заключается в том, что основой построения информационных систем являются базы данных, позволяющие решать достаточно простые задачи: хранить, находить и выдавать необходимую информацию.

Понятие информации

В переводе с латинского слово «информация» означает сообщение о каком-либо факте, событии, объекте, явлении и т.п. Основоположник кибернетики Винер дает следующее определение информации: информация – это обозначение содержания сообщения, полученного из внешнего мира в процессе приспособления к нему наших чувств.

Основные виды информации

1 По способу передачи и восприятия: зрительная, слуховая, тактильная, вкусовая, машинно- ориентированная.

2. По формам отображения: символьная, текстовая, графическая.

3. По содержанию (в зависимости от вида обслуживаемой человеческой деятельности): научная, производственная, управленческая, правовая.

4. Для машинно-ориентированной информации характерны следующие формы представления: двоичная, текстовая, графическая, электронные таблицы, базы данных.

По виду представления информация подразделяется на одномерную и многомерную. Одномерная информация – сообщение, имеющее вид последовательности символов, каждый из которых несет только один признак. Например, звуковые символы (речь). Многомерная информация – сообщение, в котором информацию несут не один, а множество признаков. Например: текст (значение, цвет и шрифт написания знаков алфавита), голос (амплитуда, тембр, высота звука).

Основные свойства информации. Способы измерения информации

1. Объективность. Понятие объективности информации является относительным. Более объективной принято считать ту информацию, в которую методы восприятия вносят меньший субъективный элемент. Пример. Более объективная информация образуется при наблюдении фотоснимка некоторого объекта по сравнению с рисунком того же объекта, выполненным человеком. Разной объективностью обладают показания свидетелей преступления.

2. Полнота информации характеризует качество информации и определяет достаточность данных для принятия решений. Пример. Свидетель сообщил, что видел гражданина N вблизи места преступления. Однако этой информации недостаточно, чтобы произвести арест (информация неполная). Экспертиза обнаружила отпечатки пальцев гражданина N на орудии, которым было совершено убийство. Под давлением улик N сознался (информация полная).

3. Достоверность – свойство информации быть правильно воспринятой, вероятность отсутствия ошибок. Пример. В записной книжке обнаружен адрес, в котором номер дома записан неразборчиво (1 или 4). Интерпретация неразборчивой цифры, как 1, представляется недостоверной.

4. Адекватность информации – это степень соответствия реальному объективному состоянию дела. Пример. Человек был осужден по ложному обвинению на основе ложных (недостоверных) свидетельских показаний.

5. Доступность – мера возможности получить ту или иную информацию. 6. Актуальность – это степень соответствия информации текущему моменту времени. Пример. Старые редакции законов не являются актуальными и не могут применяться. Законы со всеми изменениями и дополнениями на текущий момент времени считаются актуальными и могут применяться.

Существует два способа измерения объема или количества информации: энтропийный и технический. Технический (объемный) способ используют, как правило, в технике. Он основан на подсчете числа символов в сообщении, т.е. связан с его объемом и не учитывает содержания. В вычислительной технике применяют две стандартные единицы измерения: бит и байт. Бит – это один символ двоичного алфавита. С его помощью можно полностью передать информацию о реализации события, которое может иметь два исхода. Например, бросание монеты. Байт – это количество информации, которое можно передать с помощью 8 двоичных символов, т.е. восьмиразрядного двоичного кода. С его помощью можно полностью передать информацию о реализации события, которое может иметь 28 = 256 исходов.

Например, нажатие одной из клавиш компьютера. Производные единицы измерения информации:

  • 1 Кбайт = 1024 байт
  • 1 Мбайт = 1024 Кбайт
  • 1 Гбайт = 1024 Мбайт

Энтропийный способ измерения информации устанавливает ценность информации, содержащейся в сообщении, и исходит из следующей модели. Получатель сообщения имеет представление о возможности наступления некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности называется энтропией и характеризуется некоторой математической зависимостью от совокупности этих вероятностей

Информатика. Выпуск 2. Информация и ее кодирование.


Похожие статьи.

Понравилась статья? Поделиться с друзьями: