Передача информации. абстрактная схема связи, предложенная к.шенноном.

Передача информации — физический процесс, посредством которого осуществляется перемещение информации в пространстве. Данный процесс характеризуется наличием следующих компонентов:

-Источник информации

-Приёмник информации

-Носитель информации

Среда передачи

Сообщение и сигнал

Шеннону удалось придумать удивительно простую и глубокую модель передачи информации, без которой теперь не обходится ни один учебник (рис. 1). Он ввел понятия: источник сообщения, передатчик, канал связи, приемник, получатель сообщения и источник шума, который может исказить сигнал. Практически любой, даже очень сложный, обмен сообщениями можно успешно описать в этих терминах.

Дискретное сообщение — это любой набор символов, который формируется Источником (им может быть, например, человек). От Источника сообщение переходит к Передатчику, который преобразует его к виду, который уже можно передавать по Каналу связи. Например, Передатчик может кодировать сообщение. Преобразованное сообщение называется Сигналом. Канал связи — это технический комплекс аппаратуры, который позволяет передать Сигнал. В общем случае в процессе передачи сигнал в канале искажается шумом, который исходит от Источника шума. Приемник обычно выполняет операцию, обратную по отношению к той, что производится передатчиком, — т. е. восстанавливает сообщение по сигналам. Процесс преобразования сигнала в сообщения, осуществляемый в Приемнике, называют декодированием. Получатель — это человек или аппарат, для которого предназначено сообщение.

Избыточность

Пусть источник сообщения передает предложение реального языка. Оказывается, каждый следующий символ не полностью случаен, и вероятность его появления не полностью предопределена средней частотой символа во всех сообщениях языка. То, какой символ последует дальше, зависит от символов, уже переданных. Например, в русском языке после символа «Ъ» не может идти символ согласного звука. После двух подряд гласных «Е» третий гласный «Е» следует крайне редко (например, в слове «длинношеее»). Таким образом, каждый следующий символ в некоторой степени предопределен, поэтому можно говорить об условной энтропии символа.

Источник может порождать сообщения строго определенного типа — например, формальную деловую переписку; в таком случае предопределенность следующего символа может быть намного выше, чем в среднем в языке. Тогда энтропия этого источника будет отличаться от максимальной: она будет меньше. Если мы сравним энтропию конкретного источника и максимальную энтропию, то определим избыточность сообщения. Пусть Hmax — максимальная энтропия, Hисточник — энтропия источника.

Схема передачи информации

Поясним технические термины на простом примере. Вася передает Пете свое имя. Они сидят по разные стороны стола. Вася пишет на листе бумаги букву и передвигает лист к Пете. Петя читает букву и переносит ее на свой лист бумаги. Если передача завершится успешно, на листе у Пети будет последовательность: «ВАСЯ». Если по столу бегает котенок, который все время норовит столкнуть передаваемый листок на пол или расцарапать бумагу, то аналогия с шумом при передаче дискретного сообщения будет полной.

Вася здесь — Источник сообщений. Лист бумаги и написанный на нем символ (буква русского алфавита), рука, которая передвигает лист — Передатчик. Стол — Канал связи. Котенок — Источник шума (особенно если любит помяукать). Петя, получающий лист с написанной на нем буквой, — Приемник. Он копирует букву на свой лист. Если Петя понимает то, что прочел (то есть он умеет читать и ни один символ не был утрачен во время передачи), значит, Сообщение дошло до Получателя. Если Петя читать не умеет — передача Сообщения не состоится. Получатель — не может его принять. Эта простая схема воспроизводится в любой сколь угодно техниче-ски изощренной системе передачи информации.

6.Историческая справка о этапах развития ЭВМ.

Историческая справка по вычислительной технике: 1) 1642г — Блез Паскаль создал счетную машинку для суммирования десятичных чисел. 2) 1673г — Лейбниц создает прототип арифмометров. 3) 1823г — Чарльз Беббидж создал прототип программируемых счетных машинок. 4) 40-е г. 20 века — программируемые счетные на базе электронных механических реле. 5) 1946г — в США была создана 1-я ЭВМ “ЭНИАК”. В 1950г — в СССР была создана машина МЭСМ, БЭСМ. ЭВМ первого поколения — их элементарная база — электронная лампа. ЭВМ второго поколения (60-е) — элементарная база — полупроводник. ЭВМ третьего поколения (70-е) — элементарная база — интегральные микросхемы. ЭВМ четвертого поколения (80-е) — элементарная база — БИС (большие интегральные схемы). 90-е гг. и далее — СБИС. Перспективы развития — нейтронные сети, искуственный интеллект и т.д. Существует 4 компьютерных платформы — 1. Macintosh (Apple). 2. Umx (Sun MicroSystems). 3. IBM (IBM). 4. PC (Intel, Microsoft Compact).

Немного абстрактный реализм | Эпизоды с Сергеем Гусевым.


Похожие статьи.

Понравилась статья? Поделиться с друзьями: