Понятие и сущность информации
Страница 1

К сожалению, современные легальные определения информации в лучшем случае можно рассматривать как «нейтральные», т.е. ничего существенного не проясняющие, но допускающие относительно широкое толкование и позволяющие реформировать законодательство, не затрагивая основоположений.

Поэтому, прежде чем перейти к анализу таких определений, обратимся вначале к истории понятия.

Несмотря на то, что информация всегда являлась неотъемлемой частью любой деятельности человека, общества и государства, теоретическое (научное) осмысление этого феномена началось сравнительно недавно, примерно полвека назад. Очевидно, это было связано с научно-техническим прогрессом, развитием систем связи и появлением кибернетики.

До этого периода термин «информация» казался понятным и не нуждающимся в научном исследовании.

Количественные теории информации положили начало учению об информации, что было продиктовано возникшей в тот период необходимостью повышения эффективности функционирования систем связи. Общая сущность этих теорий заключалась в количественном измерении, подсчете информации наряду с абстрагированием от ее смысла и ценности.

Наиболее распространенной среди количественных теорий является статистическая теория информации, основным моментом которой выступает восприятие информации как неопределенности, снимаемой в результате приема сообщения по каналу связи.

Само слово «информация», как известно, происходит от латинского «information», что означает «разъяснение» или «осведомленность». Первые шаги в теории информации были сделаны еще в первой половине XX в.: в 1928 г. Р. Хартли впервые дал количественное определение информации, а в 1948 г. вышла знаменитая книга К. Шеннона «Математическая теория связи», где информации дается уже статистическое определение. Поскольку кибернетическое понимание информации исходит главным образом из формулы, предложенной Шенноном, мы остановимся вкратце на идеях, лежащих в ее основании. В теории Шеннона понятие «информация» тесно связано с понятиями «энтропия» и «связь». Информацией оказываются только те передаваемые сообщения, которые уменьшают неопределенность у получателя информации. Следовательно, информация измеряется разностью энтропий системы до и после получения информации. Если целевые критерии системы-приемника информации обозначить «В», событие в системе-передатчике обозначить «А», а энтропию – «Н», то энтропией системы будет разность Н(В) – Н (В/А). Получается, что измерение энтропии системы имеет ценность постольку, поскольку позволяет оценить влияние события А на событие В через показатель количества информации. Значит, информация выступает как мера отношения, взаимосвязи между системами, явлениями, процессами, а не как показатель состояния систем. Важно отметить и еще один момент: если информация предстает в виде отношений между сигналами (зарядами, знаками), которые имеют количественное измерение, то содержание, или семантическая сторона взаимодействия, отходит на второй план, так как является, как указывает сам Шеннон во введении к своей книге, «иррелевантной в отношении инженерной проблемы».

Страницы: 1 2 3 4 5 6