![]() |
|
сделать стартовой | добавить в избранное |
![]() |
Классическая теория информации и еe ограничения |
Э.А. Соснин, Институт сильноточной электроники СО РАН, г. Томск Статья в краткой форме знакомит с парадоксами классической теории информации. "Информация это информация." Н. Винер "Всегда познавайте предмет в противоречиях. Вы обнаружите при этом, что существует постоянный заговор, имеющий целью преподать тот же предмет догматически и односторонне." Б. Шоу Термин “информация” стал активно использоваться в научной литературе, начиная с тридцатых-сороковых годов XX века. Тогда слово “информация” обозначало, в основном, “сведения” или “осведомление”, то есть использовался прямой перевод латинского слова “i forma io” (в оригинале латинское слово “i forma io” переводится как “разъяснение” или “осведомление”). К концу сороковых под “информацией” начали понимать функцию статистических характеристик букв какого-либо языка, и, согласно К. Шеннону [Шеннон К. Математическая теория связи // “К. Шеннон. Работы по теории информации и кибернетике”. М.: ИИЛ, 1963. - С. 243-332.], количество информации, содержащееся в каком-либо сообщении, состоящем из М букв, могло быть вычислено по формуле: (1) где - число букв в данном языке, а рj - частота встречаемости j -той буквы (j = 1,2. ) в этом языке. Знак минус поставлен перед правой частью формулы для того, чтобы количество информации B всегда было положительным. В восьмидесятые годы “информацией” уже называли “.обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом”, а также “обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму” [Советский энциклопедический словарь. М.: Изд-во “Советская энциклопедия”, 1981.- 505 с.]. Под влиянием работ Л. Бриллюзна [Бриллюэн Л. Научная неопределенность и информация. М.:. “Мир”, 1966. - 271 с.], начиная с шестидесятых годов, возник и приобрел широкую известность так называемый “негэнтропийный принцип информации”. Сторонники этого принципа стали называть “информацией” не только содержательный и статистический аспекты сообщений, но и нечто, противоположное физической энтропии, - так называемую негэнтропию. В отличие от энтропии, рассматриваемой в качестве неупорядоченности той или иной системы, негэнтропией обычно называют меру упорядоченности окружающих нас систем, связывая с ней различного рода антиэнтропийные процессы, протекающие в физическом мире. В основе негэнтропийного принципа лежит внешнее сходство формулы К. Шеннона (1), обобщенной для любого единичного события (2), где К - коэффициент, а Р - вероятность этого события, и формулы Макса Планка для физической энтропии: (3), где К0 постоянная Больцмана, равная 1.4 10-16 эрг град-1, а W микросостояния системы, соответствующие данному ее макросостоянию. Л. Бриллюэн предложил выражать информацию I и энтропию S в одних и тех же единицах - информационных (битах) или энтропийных эрг·град-1. Тем самым, по его мнению, была получена возможность рассчитывать количество информации, зная энтропию системы, и, напротив, рассчитывать энтропию системы, зная количество содержащейся в ней информации. Столь широкая трактовка термина “информация” приводит, по существу, к невозможности его строгого определения, а, следовательно, и использования.
В этой связи В.В. Налимов [Налимов В.В. Вероятностная модель языка. М.: Наука, 1979. - 303 с.] пишет: “Мы не умеем определить, что есть “информация”, и будем считать, что это такое сложное понятие, смысл которого раскрывается при чтении тех фраз, в которых оно употребляется”. Но в таком случае приходится либо отказаться от употребления этого термина, либо каждый раз давать ему свое, частное, определение. Оба выхода из положения представляются нам неудовлетворительными, да и ненужными. В большинстве случаев смысловой полиморфизм вызван тем, что под “информацией” часто понимают нечто, давно имевшее другое название, и вовсе не соответствующее этому слову, например, сложность, гетерогенность, энтропию (или негэнтропию), логарифм вероятности какого-либо события и т.д. Рассмотрим эти представления подробно. Информация по-Винеру не является ни материей и ни энергией [Винер Н. Кибернетика, или Управление и связь в животном и машине. М .: Советское радио, 1968. - 340 с.]. В связи с этим логично было бы далее предположить, что она не предполагает строго количественного эквивалента, подобно энергии или материи. Но парадокс классической теории информации именно в том и состоит, что в её основе лежит предположение Р.Хартли, согласно которому информация допускает количественную оценку [Har ley R.V.L. ra smissio of I forma io // BS J.- 1928. - V.7 - №3 - P.535-536.]. Вот как это в своё время пояснялось в соответствующем учебнике: Для развития теории информации в её современном виде (т.е. в 30-е годы XX века, прим. авт.) вообще не требуется определения понятия информации как такового (курсив наш); необходимым и достаточным для построения теории является понятие количества информации, не должно казаться странным, потому как такое положение характерно и для ряда других количественных теорий. Например, для изложения механики нужны лишь количественные характеристики движения, но не требуется анализа существа самого движения. [Тарасенко Ф.П. Введение в курс теории информации. Изд-во томского университета, 1963. 240 с., стр.111]. Таким образом, согласно цитируемому отрывку: новая теория якобы должна быть количественной в силу того, что все предшествующие содержательные теории были именно таковыми; новая теория вообще не нуждается в определении информации (!!!). Теория информации Шеннона родилась как теория поддержки для технических систем связи. И в этой сфере доказала свою безусловную полезность. Однако, предложившие ее ученые не могли не понимать, что вводимая ими количественная мера не отражает всей полноты существующих информационных процессов, а не только тех процессов, что характеризуют передачу сигналов по каналам связи. Возможно недаром, у Хартли информация допускает количественную оценку, хотя ничего не сказано о том, насколько исчерпывающей такая оценка может быть. Сравнение количественной физической теории (механики) с теорией информации, без специальных оговорок, по-видимому незаконно. Механика, по своему происхождению, имеет дело с измеряемыми величинами массы и силы, что даёт возможность оперировать категориями материи и энергии.
Но, если по-Винеровски посчитать нетождественность последних двух категорий информации, то отсюда не очевидно, что теория информации тоже будет количественной, и последнее нуждается в специальном доказательстве. Отсутствие в теории информации дефиниции (определения) самой информации и акцент, который она сделала на количественном исчислении: 1) делают любое её заключение статистическим (см. напр., формулу (1)); 2) лишают информацию семантической нагрузки. Вот несколько примеров, которые это подтверждают: “Парадокс” с перестановкой букв. Нести информацию могут лишь определённые сочетания букв кода (рабочего алфавита, который может быть считан соответствующим считывающим устройством). Отдельные буквы, или поставленные как попало буквы, не несут информации, для передачи которой создан канал связи. Между тем расчёт по формуле (1) может быть произведён и для одной буквы сообщения! А это явная нелепица. В классической теории информации получается, что слово “буква” несёт столько же информации, сколько и слово “укваб”, а это бессмыслица. Ведь даже самостоятельное слово “буква” не несёт никакой информации без контекста, о чем мы подробно говорили в первой главе (см. например, комментарий 1 к этой части работы). “Парадокс” длинных текстов. В длинных текстах смысл сообщения может распределяться неравномерно, однако, согласно записи (1), все элементы текста можно якобы считать осмысленными в равной мере. Этим действительно можно было бы удовлетвориться, если бы каналы связи были абсолютно надёжными, но даже в такой высокоразвитой области техники связи как радиосвязь существует, например, ситуация помех, то есть возможной утери куска передаваемого по каналу текста. И если бы была справедлива оценка типа (1), то риска потерять почти весь смысл или большую часть сообщения при этом не существовало бы. Подобные сложности замечены давно. Ещё в 1963 году В.С. Флейшман писал, что “возникшая благодаря гениальной интуиции К.Шеннона теория информации испытывает кризис неадекватности физических представлений и своего аппарата” [Флейшман В.С. Конструкторские методы оптимального кодирования каналов с шумами.- М.: Изд. АН СССР, 1963. - 144 с.]. Шенноновская запись и последовавшая за ней теория тем самым “как бы создали возможность для отождествления двух разных по своей природе феноменов - информации, как семантики сообщения, и “информации”, как частоты осуществления какого-либо события, подобного модуляции тока на выходе канала связи” [Корогодин В.И. Информация и феномен жизни. Пущино: Пущинский научный центр АН СССР, 1991. - 204 с., с.11]. Итак, возможности возникшей теории были переоценены. Так стало расхожим заблуждением считать, что, используя формулу (1), или используя ее варианты, можно рассчитать информацию, содержащуюся в книге, тексте бегущей строки, и далее, . в картине, мозге, и тому подобное! Иногда уверенность авторов в пригодности подобных расчётов при их употреблении вне математической теории связи Шеннона приводит к забавным ситуациям. Парадокс с расчетом “принятой глазом информации”. В самом простом случае считается “информация” I, которая “содержится” в изображении чёрно-белого негатива.
Это среднегодовой прирост объема левого национального продукта (в физическом выражении) за много лет и среднегодовой темп изменения скорости обращения денежной массы. Проделав необходимые вычисления, М. Фридмен и получил рекомендуемый им темп роста денежной массы в 3–5 %. Нетрудно предположить, что М. Фридмен выступил за ограничения чрезмерной свободы действий центральных кредитно-денежных органов, считая, что любая резкая мера центрального банка может вызвать непредсказуемые последствия. Еще одним современным вариантом классической теории является теория рациональных ожиданий. По духу теория рациональных ожиданий является вариантом неоклассических теорий, так как полностью разделяет ее посылки, в частности: рациональный характер поведения экономических субъектов, полноту информации при формировании ожиданий, совершенную конкурентность всех рынков, мгновенность отражения новой информации на кривых спроса и предложения. В основе концепции Фридмана лежит так называемая количественная теория денег, популярная у экономистов-неоклассиков еще с начала века
1. Энтропия. Теория информации
2. Концепции общей теории информации
3. Понятие преступлений в сфере компьютерной информации
4. Прикладная теория информации
5. Теория информации. Статистический подход
9. История развития понятия "функция"
11. Информация, информатика, представление информации
12. Классические теории ассоциативной психологии
13. Понятие, функции и условия сущестования рынка
14. Предприятия оптовой торговли: понятие, функции, организационные формы
15. Информация, которая подлежит защите, понятие и виды
16. Теория распределения информации
17. Теория распределения информации
19. Организация защиты информации и функции служб безопасности на предприятии
20. Понятие и свойства информации, ее виды
21. Теория и методология защиты информации в адвокатской конторе
25. Понятие налога, налогового права, его система, их функции
26. Комментарий к Федеральному закону "Об информации, информатизации и защите информации"
27. Право: понятие, признаки, виды, функции, принципы
28. Государство: понятие, признаки, формы правления и функции
29. Язык средств массовой информации на примере газетной печати
30. Protection of Information (Защита Информации)
31. Назначение и характер аппаратных средств защиты информации
32. Защита информации в Интернет
33. Защита информации: цифровая подпись
34. Технологии поиска документальной информации в INTERNET
35. Межкультурная коммуникация в электронной среде и поиск информации в сети Интернет
36. Использование линий электропроводки в качестве среды передачи информации
37. Защита информации компьютерных сетей
41. Магнитные носители информации. Запись информации на магнитные носители
43. Передача информации из ультразвуковой медицинской диагностической установки ALOCA SSD650
44. Устройства хранения информации
45. Вывод информации
46. Информация, информатика, базы данных. Периферийные устройства
48. Концепция создания и функционирования в России автоматизированной базы правовой информации
52. Комментарий к Федеральному закону "Об информации, информатизации и защите информации"
53. Информация и личная безопасность
57. Анализ криптостойкости методов защиты информации в операционных системах Microsoft Window 9x
58. Парольные методы защиты информации в компьютерных системах от несанкционированного доступа
59. Информационный процесс. Обработка информации
60. Система автоматизированной обработки статистической информации
61. Защита салона автомобиля от съема информации
62. Понятие и характер нотариальных функций
63. Защита информации по виброакустическому каналу утечки информации
64. Преступления в сфере компьютерной информации
65. Источники статистической информации о внешней торговле зарубежных стран и международных организаций
66. Информация по электрическим кабелям
67. Основные понятия в теории функциональных систем Анохина
68. Межкультурная коммуникация в электронной среде и поиск информации в сети Интернет
69. Кодирование речевой информации
73. Сбор социологической информации
74. О смысле массовой коммуникации. Массовая информация и выживание
75. Радиофизические методы обработки информации в народном хозяйстве
76. Философия информации и сложных систем
77. Автоматизированная обработка информации долгосрочных кредитов банка
78. Теория стоимости. Закон стоимости и его функции
80. Бизнес-информация и информационный менеджмент
81. Методы сбора информации в журналистике и PR-коммуникациях
82. Проблемы асимметричности информации
83. Проблема передачи информации на подводные лодки
84. Обработка экономической информации средствами языка Pascal
85. Анализ процесса передачи информации
89. Объективность информации как необходимое условие журналистского познания
90. Понятие культуры, сущность и её функции. Основные культурологические школы
91. Типы коммуникативной информации для толкового словаря
92. Методы получения и обработки маркетинговой информации
95. Зодиакальные созвездия: справочная информация
97. Информация и коммуникации в менеджменте
98. Сущность маркетингового исследования услуг на основе маркетинговой информации