Информация

Материал из Юнциклопедии
Перейти к навигации Перейти к поиску

Информация (от латинского intormatio — разъяснение, изложение) — совокупность сведений, знаний и т. п. Различают информацию, динамически возникающую в повседневной деятельности людей, и накопленный объем знаний, образующий, так сказать, социальную память человечества.

Каналы связи, по которым передается информация, могут быть самыми различными. Так, при разговоре информация передается посредством звуков, распространяющихся в виде упругих колебаний воздуха (см. Акустика, акустическая техника). При передаче сообщений по радио используют электромагнитные колебания, или радиоволны. Сообщение по телефону передается по проводам от одного телефонного аппарата к другому электрическими колебаниями, возникающими в микрофоне (см. Телефонная связь).

<addc>l</addc>

По мере того как возрастал объем знаний, накопленных человечеством, увеличивалось и количество передаваемой информации. Это потребовало решения ряда технических проблем, связанных со скоростью передачи и переработки информации, её кодированием и расшифровкой, а также с преобразованием сигналов на входе и выходе канала связи между источником информации и её потребителем. В середине XX в. в результате бурного развития науки и техники неизмеримо возросла роль информации как средства общения не только между людьми, но и между человеком и машиной, и даже между машинами (см. Автомат, автоматика; Автоматизация и механизация производства; Передача данных). Лавинообразное нарастание информации во второй половине XX в. получило название информационного взрыва.

В связи с этим возникла потребность в научном подходе к информации, выявлении её наиболее характерных свойств. Основы теории информации были заложены американскими учеными Р. Хартли и К. Шенноном; большой вклад в нее внесли советские ученые А. Н. Колмогоров, А. Я. Хинчин, В. А. Котельников, А. А. Харкевич и другие.

Одним из важнейших понятий теории информации является мера количества информации. В качестве такой меры принято число двоичных знаков («0» и «1»), необходимое для записи произвольного сообщения. Любое сообщение можно представить — закодировать — в виде цепочки символов «0» и «1», расположенных в определенном порядке.

Очень важная характеристика информации — её доступность для потребителя. Например, количество информации, которое нервная система человека способна подать в мозг при чтении текста, составляет примерно 16 двоичных знаков в 1 с. Если информация поступает большими порциями, то мозг уже не воспринимает её раздельно. Или, например, частота смены кадров при демонстрации фильма должна быть не менее 16 кадров в 1 с, чтобы эти кадры не воспринимались отдельно, а отражались в сознании как единое непрерывное изображение.

Информация является одним из основных понятий кибернетики (см. Техническая кибернетика) — науки об управлении, которая изучает машины и живые организмы именно с точки зрения их способности воспринимать, сохранять и передавать определенную информацию.

Возникла особая отрасль науки — информатика, изучающая структуру и общие свойства научной информации, вопросы, связанные с её хранением и использованием в различных сферах деятельности.