Студопедия

КАТЕГОРИИ:

АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника


Глава 3. Информация и управление. "Наивная" точка зрения на управление и информацию




 

"Наивная" точка зрения на управление и информацию. - Вывод соотношения I=-log2P как пример применения математических методов в кибернетике. - <I>, информация по Шеннону, бит. - Информация и энтропия. - Информация в социальных и экономических системах - современный взгляд на информацию. - Человек как единственный источник социальной и экономической информации. - "Рабочее" определение терминов "управление" и "информация". - Система строгих определений: система ® иерархическая самоорганизованная система (ИСС) ® управление в ИСС ® 8 компонент информации (строгое определение). – Вопросы и задания.

 

"Наивная" точка зрения на управление и информацию.

В этой главе рассмотрим более подробно те ключевые понятия, которые задают все направление деятельности в области экономической кибернетики. В предыдущих главах мы уже писали о том, как трудно определить термин «информация», как много при этом возникает «подводных камней». Но, тем не менее, этот термин, наряду с термином «управление», являются ключевыми «игроками» на поле науки под наименованием «кибернетика».

Кибернетика многие десятилетия бурно развивалась в направлении применения к системам техническим. В этой области получены весьма впечатляющие результаты, и игнорировать их вряд ли является разумным. Конечно, при этом мы не должны забывать о том, что сами мы занимаемся применением кибернетики к системам социальным и экономическим, - тем, в которых человек является активным действующим лицом.

И все же – сначала поговорим об информации в системах технических.

С чем обычно связывается феномен информации? Для получения количественных закономерностей, его нужно связать с каким-то измеримым количественным параметром. Что может подойти для этого? Какой параметр может быть «носителем» информации?

 

Вот прозвучал урок и в аудиторию зашел ваш преподаватель экономической кибернетики и начал чтение лекции по разделу «информация и управление». Насколько информативно это сообщение для вашего собеседника? Вероятно, информации здесь мало, - ее даже может и не быть вообще, если ваш собеседник знает, что именно эта лекция и была запланирована на это время. Он скажет: «Вероятность этого события равна 1». Во всяком случае, это сообщение уж слишком «очевидно», чтобы нести информацию. Да и вы сами вряд ли будете рассказывать собеседнику очевидные вещи (то есть события, вероятность которых очень велика). Нет! Вы как раз будете рассказывать с наслаждением вещи неочевидные – но, тем не менее уже случившиеся. Например, если ваш преподаватель, вместо того, чтобы начать читать лекцию, вдруг возьмет да и спляшет – вот тогда – да! Вот тогда вы будете рассказывать об этом «направо и налево», и ваш рассказ будет пользоваться успехом! Вас будут переспрашивать, интересуясь наличием факта, а потом все будут строить разные догадки. Наконец, вас нетерпеливо будут подгонять восклицаниями «Ну и что же дальше?!» – в надежде услышать не менее интересное продолжение.

 

Так что же именно интересует людей? Как легко видеть из приведенного примера (и множества подобных примеров, которых легко можно привести большое количество) – людей интересуют события 1) мало вероятные, но которые, тем не менее, являются 2) свершившимися. Именно когда эти два условия и имеют место – именно тогда такие события и называются «информативными», именно а этих случаях и говорят, что рассказ о них «несет информацию».

Подытожим. В качестве «наивного» определения информации, мы можем взять следующее:

 

Сообщение о событиях, которые имеют малую априорную информацию, несут много информации. Конечно, когда такие события имеют место. (Такое определение является, по сути, пост-фактумным определением (post-factum – по латыни «после факта, события»). Другими словами: мы полагаем, что вначале эти события происходят, а уж потом, после их наступления, мы сумеем измерить ту информацию, которая в них содержится. А как быть, если нам нужно знать информацию не после, а до наступления события?! Об этом – позже!)

 

Вывод соотношения I=-log2P как пример применения математических методов в кибернетике.

Таким образом, количество информации мы связали с количеством вероятности. Но как, какую функцию выбрать в качестве «перехода» от вероятности к информации, в качестве «перевода» вероятности в информацию? Прежде всего, вероятность и информация – это своего рода «взаимно обратные» величины: когда одна возрастает, другая, соответственно, убывает. Запишем это условие в следующем виде

 

(3.1)

 

Здесь I – информация, P - вероятность наступления события М, а f(W) – монотонно возрастающая функция (собственно, для этого и записали ее аргумент в виде обратной зависимости от вероятности).

Теперь сформулируем «очевидное» правило: информация о двух независимых событиях должна быть равна сумме информации о каждом из них. Откуда появилось такое? Да просто «из соображений удобства: человеку гораздо удобнее работать с суммой, чем, например, с произведением.

Итак, пусть мы приняли это условие. Таким образом, будем исходить из того, что имеется два независимых события. Но мы знаем, что вероятность наступления обоих событий в этом случае будет равна произведению вероятностей осуществления каждого события по отдельности (это следует из свойств вероятности, описанных в любом учебнике по теории вероятности и математической статистике). То есть для вероятности имеем соотношение:

 

(3.2)

 

А вот для информации мы должны иметь не произведение, а сумму «частичных» информаций – сумму значений информации о каждом из событий. С использованием (3.1) и (3.2) это можно записать в таком виде:

 

(3.3)

 

С целью простоты записи введем следующие обозначения:

 

(3.4)

 

Тогда (3.3) перепишется в виде

 

(3.5)

 

Соотношение (3.5) называется функциональным уравнением, потому что оно определяет (задает) вид функции, которая удовлетворяет именно такой зависимости от своих переменных. Это функциональное уравнение может быть решено следующим образом.

Сначала возьмем частную производную по W2 от обеих частей соотношения (3.5), - при этом для вычисления производной воспользуемся равенством W=W1W2.

 

 

или

 

(3.6)

 

При переходе к последней записи учтено, что производная по W2 от W=W1W2 равна W1.

Теперь возьмем производную по W1 от обеих частей (3.6). Слева – будет производная от суммы двух функций, а справа – производная от соотношения, которое не зависит от переменой, по которой берется частная производная (то есть – справа будет ноль). Таком образом, приходим к соотношению:

 

(3.7)

 

Последнее равенство – это обыкновенное дифференциальное управление второго порядка для неизвестной функции f(W). Будем решать его стандартным способом, для чего сделаем замену Z=df/dW. Тогда (3.7) превращается в обыкновенное дифференциальное уравнение первого порядка с разделяющимися переменными, которые легко решается. Не объясняя подробно процедуру решения, выпишем ниже только ключевые соотношения.

 

 

Последнее равенство – это опять обыкновенное дифференциальное уравнение с разделяющимися переменными – но уже для нашей искомой функции. Решение его находится так:

 

(3.8)

 

Итак, мы получили для связи между величиной информации и вероятностью наступления определенного события (с которым как раз и связывается эта вероятность) выражение

 

(3.9)

 

Учтем, однако, что константа в (3.9) должна быть равна нулю, так как информация о наступлении очевидного события, вероятность которого равна Р=1, равна 0.

Наконец, имеет место еще одно обстоятельство – уже историческое, которое и фиксирует нашу – пока еще в формуле (3.9) не определенную, константу К. А именно, следуя Шеннону, положим, что наступление события, которое имеет вероятность 1/2, несет нам количество информации, равное 1. Другими словами, окончательно приходим к «выражению для связи информации и вероятности» в виде, принятом в современной науке:

(3.10)

 

<I>, информация по Шеннону, бит.

Итак, из (3.10) следует, что информация равна единице, если осуществится событие, вероятность которого равна 1/2. Такая единица измерения называется бит.

Теперь зададимся вопросом: а как подсчитать среднее количество информации, которое мы получим, зная вероятности наступления нескольких событий? Из курса статистики (математической статистики или же статистики экономической) известно, что, если задана вероятность для осуществления значений переменных xi, среднее значение находится по формуле

 

 

Поскольку нас интересует среднее значение информации, то подставляя в эту формулу выражение (3.10) для информации, характеризующей наступление i-того события, придем к формуле

 

(3.11)

 

Формула (3.11) часто называется формулой Шеннона, и дает выражение для расчета средней информации, полученной вследствие получения сведений о наступлении событий, каждое из которых имеет априорную вероятность Pi. Конечно, при этом должно выполняться условие нормировки для вероятностей, которые записывается в виде

 

 

С использованием метода неопределенных множителей Лагранжа нетрудно доказать, что условие максимума информации достигается при условии, когда все события являются равновероятными. Тогда вероятность каждого события одинакова и обратно пропорциональна количеству событий.

 

Информация и энтропия.

В физике, еще с начала ХХ века, активно исследовался ряд вопросов, которые – в определенном смысле – являются «подобными» рассмотренному выше. Людвиг Больцман и Джозайя Гиббс задались следующим вопросом: если у нас вещество состоит из атомов, а его состояние определяется всего лишь небольшим числом характеристик, - то, вероятно, многие состояния разных атомов как-то «усредняются». В результате – появилась статистическая физика, которая получила огромное распространение и в рамках которой достигнут значительный прорыв в понимании Природы.

Однако главное для нас – не это. Дело в том, что Людвиг Больцман получил для так называемой «энтропии» следующее выражение

 

(3.12)

 

Здесь S – это и есть энтропия, kB - так называемая постоянная Больцмана, W - количество макроскопически неразличимых состояний исследуемой системы.

 

Почему, по какой причине так важно знать значение энтропии? Оказывается, что если оно известно, то существуют формулы, по которым можно вычислить все так называемые «термодинамические переменные» – все параметры, которые характеризуют состояние нашей системы. Таким образом, формула (3.12) дает возможность вычислить все макроскопические характеристики объекта, зная только его макроскопические (атомарные или молекулярные) характеристики. Так задача оказалась решена? К сожалению, это далеко не так: вычислить значение W оказалось возможным только для очень небольшого количества модельных систем! Реальные системы и объекты оказались «не по зубам» физикам.

 

В рамках статистической физики показывается, что энтропия – это есть некая обобщенная «мера беспорядка» рассматриваемой системы. Чем большее значение энтропии – тем больший «беспорядок» имеется в системе, тем более она оказывается «неупорядоченной».

Однако что такое есть управление? Как правило, наличие управления отождествляется с возрастанием порядка в управляемой системе. Следовательно, энтропия системы в процессе управления ею должна падать. Но процесс управления сопровождается также увеличением информации о системе. Таким образом, приходим к выводу:

· Увеличение информации о системе равнозначно уменьшению энтропии в ней.

Именно это обстоятельство и позволило многим ученым сформулировать тезис:

 

Информация есть ­негативная энтропия рассматриваемой системы. Точнее следует сказать так: изменение информации о системе равно с обратным знаком изменению ее энтропии. Информация и энтропия имеют противоположные знаки: если беспорядок возрастает – то информация о системе убывает. Это определение отражает наши интуитивные представления об управлении (через ожидаемую (априорную) вероятность наступления того или иного события). Оно также связывает понятие «информация» именно с процессом управления.

 

Используя такое определение термина информация, мы должны описать тот интерьер – то есть те условия, тот контекст, где такое определение «работает». Другими словами, мы должны привести определение понятия управление. Это можно сделать, например, в таком виде:

 

Управление есть процесс упорядочения в системе. Конечно, нужно бы теперь заняться определение того, что именно мы понимаем под «упорядочением». Однако давайте пока что остановимся на этой стадии: «наведение порядка» – это достаточно понятное описание того, что делает любой управленец, любой менеджер в социальной или экономической системе. Другими словами – для интерьера социальных и экономических систем уже понятно, что именно понимается под термином управление, что именно, какая именно деятельность связывается с этим понятием.

 

Информация в социальных и экономических системах - современный взгляд на информацию.

Переходя к социальным и экономическим системам, первое, что мы видим – так это то, что понятие информация явно нуждается в комментариях и изменениях.

Например, уже ответ на простой вопрос: «Сколько информации имеется в учебнике по информатике для 10-11 классов?» сразу вызывает большое количество дополнительных вопросов. И ответ – около 400 тысяч бит (подсчитан по алгоритму: 1 буква = 8 бит, количество букв на странице (в среднем) – 2 тыс., количество страниц – около 200) – совершенно не вносит ясности. Студент сразу же скажет: «Для меня – информации в нем 0!» – и будет прав! Он-то его давно знает, и ничего нового для себя в таком учебнике не найдет. А как измерить информацию, например, в высказывании: «Этот преподаватель – строгий»? В битах?!

 

В 1936 году в радиоэфире прозвучала песенка «Над всей Испанией безоблачное небо…». Сколько бит она составляла?! Но эта песенка – она была паролем, спусковым крючком для начала гражданской войны, закончившейся установлением в Испании диктатуры генерала Франко. Значит, не в битах дело?! Важное место, оказывается, имеет также и вопрос готовности потребителя информации к ее восприятию. Другими словами, эта песенка как бы «замкнула» длительные приготовления, стала последним камешком, который выстроил пирамиду огромного по своему объему процесса управления.

 

В годы второй мировой войны перед американскими адмиралами стала проблема: каким образом организовать переговоры между судами, - но, одновременно, обеспечить высокую степень их секретности? Американцам были известны успехи японцев в области дешифровки. Выход был найден! На каждый из кораблей посадили по индейцу племени чероки: в США их оставалось только всего несколько сотен. Так был обеспечен высший уровень секретности! Индейцы переговаривались между собой на своем «черокском» языке, а японцы их не понимали! Конечно, индейцы потом переводили руководству кораблей и штабов то, что услышали от своих соплеменников, на английский, - но японцам-то такой перевод сделать было просто некому! Таким образом, для американцев этот индейский говорок, заполнивший радиоэфир Тихого океана, был «полон информации», - а для японцев его «информативность» была равна нулю.

 

Всего два примера, - но они вскрывают чрезвычайно важную особенность социальных и экономических систем. Если для систем технических информация по Шеннону оказалась применимой, если для систем неживой природы концепция «информация есть отрицательная энтропия» также принесла свои положительные результаты, то для систем социальных и экономических понятие «информация» должно быть, как минимум, изменено.

 

Человек как единственный источник социальной и экономической информации.

Говоря об информации, мы как-то упустили из виду одно весьма важное обстоятельство. А именно: вопрос об источнике информации. Действительно, кто или что «делает» информацию? Откуда она появляется?

В технической кибернетике, занимающейся исследованием систем технических, обходят этот вопрос, говоря просто о «сигналах». Если же копнуть глубже – окажется, что за всеми сигналами, в конечном счете, стоит человек.

Что же касается систем социальных и экономических – то ключевая роль человека как единственного источника любой информации является практически очевидной. Более того: здесь же становится ясным, что и единственным потребителем информации является также человек!

 

Зададимся вопросом: что нужно было бы сделать японцам, чтобы бессмысленный набор звуков, которые они слышали в эфире, стал нести информацию? Во-первых, в самом начале необходимо было бы выделить «фонемы» – то есть характерные звуки черокского языка. Во-вторых, необходимо было бы разработать «азбуку» для записи этих фонем: это необходимо, чтобы зафиксировать в инвариантном (неизменном) виде фрагмент разговорного текста. В-третьих, необходимо «составить слова», - то есть записать тезаурус – полный набор используемых слов. В-четвертых, необходимо «наполнить слова смыслом», то есть приписать им вполне определенные значения. В-пятых, необходимо разработать «правила грамматики», то есть правила, по которым на этом языке описываются действия, - как правило, это действия по управлению! Наконец, в шестых, необходимо выделить способы иерархического упорядочения, с использованием которых может быть – в рамках этого языка – сжат большой объем информации к меньшему. А теперь внимательно перечитайте все то, что описано выше. По сути, мы пришли к описанию строения языков программирования (они, как правило, «начинаются с нуля») или же описанию строения «дисциплинарных языков», характерных для той или иной области науки (они, как правило, начинаются с определения слов-терминов). Собственно, по такому принципу устроен вообще любой способ общения людей между собой. Но сделать все описанное выше – сделать это может только человек. Сегодня нам неизвестен другой объект, который смог бы самостоятельно выполнить такого рода работу.

 

"Рабочее" определение терминов "управление" и "информация".

Как видим, дать определение понятиям «информация» и «управление», минуя явное использование человека, просто невозможно. Поэтому, не вдаваясь в длительные рассуждения, приведем сейчас определения этих терминов. Это, конечно, будет «рабочее» определение – то есть такое, которое по самой сути является нестрогим. Однако, оно, тем не менее, выделяет основные черты, характерные для него и важные для классов задач, которые поставлены в области описания и моделирования социальных и экономических систем. Их «нестрогость» позволяет опереться на «наивное» представление каждого из нас, и, к тому же, не сдерживает излишней строгостью наше творчество – что весьма важно при моделировании.

 

Информация – это все то, что помогает управлению. Это может быть и жест, и подпись, и текст, и характеристики или статистические данные… Мы не детализируем далее – однако, в рамках конкретной решаемой нами задачи мы просто обязаны весьма четко и строго указать, что именно мы – в данной случае! – понимаем под «информацией».

 

Управление – это деятельность, которая включает в себе целенаправленные изменения в исследуемой системе. Здесь, в этом определении, главное – это «целеустремленность» деятельности. Как правило, это определение включает необходимость описания деятельности человека или группы людей, и чтобы описать это в конкретных случаях мы должны давать более четкие и строгие определения.

 

Эти определения являются настолько общими, что требует своего «разворачивания» при описании конкретных ситуаций или при решении конкретных задач. Ниже – в качестве примера осу3ществления такой процедуры «разворачивания» – приведена система строгих определений, направленных на решение задач по управлению в иерархических системах, - как природных, так и социальных и экономических.

 

Система строгих определений: система ® иерархическая самоорганизованная система (ИСС) ® управление в ИСС ® 8 компонент информации (строгое определение).

Приведем систему строгих определений термина «информация» и «управление», которые ориентированные на описание ряда социальных и экономических систем. При изложении этого подпункта мы следуем монографии Шиян А.А. Оптимальное управление в иерархических социально-экономических системах (теоретические основы социальных технологий).- Винница (Украина): ВИРЕУ, 2002. – 214с., - там же описаны границы применимости этих определений, а также методики использования этих терминов при описании конкретных социальных и экономических задач.

 

Ниже под средой будет пониматься, фактически, изучаемая нами система (в том числе – социальная или экономическая). При этом мы вынуждены ввести термин «среда» по той причине, что он охватывает как саму систему (которая часто выступает как упорядоченная ее часть), так и окружение системы, позволяя тем самым ввести в рассмотрение «внешние» по отношению к системе потоки.

 

Определение 1. Состояние среды называется неравновесным, если ее диссипативные свойства трансформируются в присутствии внешних потоков (для природных систем – это потоки массы и/или энергии, для социальных и экономических – это еще и потоки ресурсов, финансов, данных и т.п.).

Иными словами, среда под влиянием внешних потоков должна изменять свою структуру. Происходит это, как правило, когда интенсивность потока (энергии и/или вещества, ресурсов, финансов – в зависимости от рассматриваемой системы) превышает некое критическое значение. Вследствие этого ее диссипативные характеристики будут изменяться, - как правило, они возрастают вследствие процессов самоорганизации.

Определение 2. Финитная (ограниченная) область пространства - времени, в которой среда находится в неравновесном состоянии, и реагирует на внешние воздействия (потоки) как единое целое, называется когерентной структурой (КС).

Это определение является центральным в излагаемом подходе, так как оно описывает объект, кооры1 служит своего рода критериальным, который позволяет осуществлять впоследствии анализ и классификацию изучаемых нами систем.

Определенные таким образом когерентные структуры в литературе также часто называются "диссипативными системами".

Определение 3. Система называется открытой и неравновесной (ОНС), когда она содержит одну или более КС.

Определение 4. Состояние и процессы (статические и динамические характеристики) в ОНС характеризуются ее составом и/или параметрами тех КС, из которых эта система состоит (в том числе также типом связей между КС и их параметрами).

Иными словами, состояние ОНС – это есть класс инвариантности характеристик, описывающих рассматриваемую систему и внешние воздействия (потоки массы и/или энергии), при которых остается неизменными система КС и характеристик, описывающих эти КС. Такое определение состояния ОНС удобно для использования в теории управления, когда управление определяется как процесс целенаправленного перевода управляемой системы из одного состояния в другое.

Определение 5. Состояние ОНС является устойчивым, когда существует некий ограниченный ненулевой интервал внешних воздействий, при которых набор КС и/или их характеристики в системе остаются неизменными.

Определение 6. Совокупность внешних условий, при которых состав ОНС и/или характеристики КС начинают изменяться, называется границей устойчивостиОНС.

Определение 7. Произвольная иерархическая самоорганизованная система (ИСС) может быть описана как иерархическая совокупность КС. В некоторых случая КС более высокого уровня иерархии могут быть образованы из КС рассматриваемого уровня в результате действия закономерностей (при помощи механизмов) самоорганизации сложных систем.

Как правило, иерархические системы, как природные, так социальные и экономические, формируются именно под действием закономерностей самоорганизации - в результате адаптации среды к проходящим сквозь нее потокам. Иерархические системы могут быть построены также и человеком, но они, как правило, находятся в неустойчивом состоянии и быстро распадаются, будучи оставленными «на самотек».

Приведенная выше схема описания иерархических систем в последние годы была применена к широкому кругу задач описания природных, социальных и экономических объектов, а также к проблеме распознавания КС, в частности, существующих в социально-экономических системах. Более подробно об этом будет написано в последующих главах книги.

Определение 8. Создание новых КС и/или новых характеристик КС (или изменение или поддержание в неизменном состоянии уже существующих КС) в ИСС называется управлением в ИСС.

Как видно из определений 4-8, для задач управления природными и социальными системами параметры, описывающие состояния и/или процессы в иерархической структуре, состоящей из КС, играют роль информации. Эти параметры могут быть разделены на специфические группы, которые далее будем называть классами информации. Эти классы информации могут быть определены инвариантно для каждого иерархического уровня.

Соответственно, могут быть выделены следующие классы информации:

· Класс информации, содержащий описания единичных объектов или КС, обладающих сходством по ряду существенных признаков («одинаковых» в том или ином смысле). К этому классу относятся характеристики, которые необходимы для описания отдельных единиц - КС, из которых состоит рассматриваемый иерархический уровень.

· Класс информации, описывающей характер взаимодействия сходных единичных объектов или КС. Вследствие специфики характера взаимодействия некоторая совокупность единичных объектов или КС может рассматриваться как некое единство - единый иерархический уровень. К этому классу относятся характеристики, описывающие характер взаимодействия (взаимоотношений) между отдельными единицами - КС, из которых состоит рассматриваемый иерархический уровень некоторой системы (в том числе - социальной системы). В качестве метафоры для описания характера взаимодействия наиболее приемлемы термины, описывающие явления притяжения и отталкивания (совместимости или несовместимости).

· Класс информации, описывающей границу, отделяющую иерархический уровень, мыслимый как единое целое, от окружения. К этому классу относятся характеристики, описывающие границы рассматриваемого иерархического уровня. Далее для границы иерархического уровня будет использоваться название мембрана (отметим, что фиксация мембраны в пространстве и времени является неотъемлемой характеристикой живых организмов при описании их как иерархических систем).

· Класс информации, описывающей внутреннее строение иерархического уровня, мыслимого, как единое целое, т.е. информация о структуре, образованной вследствие взаимодействия единичных объектов или КС, этот уровень составляющих. К этому классу относятся характеристики, описывающие структуру (например, - топологическое строение) иерархического уровня, мыслимого как целое.

Таким образом, первые два класса информации описывают иерархический уровень как целое, а вторые две - отдельные функциональные единицы, из которых построен этот уровень, а также взаимодействие между этими "составными элементами" иерархического уровня.

А теперь посмотрите совокупность определений, которая была дана в главе 2 понятию «система». Там были определены: «элемент системы», «связи между элементами» (правда, специально мы их ранее не выделяли), «структура системы» и «граница системы». Таким образом, приведенная выше совокупность определений детализирует рассмотренные выше общесистемные определения, характерные для всей совокупности любых систем.

Но для управления в ИСС необходимо описание как состояний, так и процессов в рамках каждого из классов информации. По этой причине для адекватного и инвариантного описания произвольного иерархического уровня ИСС целесообразно оперировать восемьюкомпонентами информации.

Понятие состояние неразрывно связано с абстрактным представлением о системе или объекте и может быть определено, как совокупность сведений (данных, информация, характеристик, параметров и т.п.), описывающих объект как неизменный, не изменяющийся, застывший. В естественных науках (например, физике) состояние обычно связывается с постоянством значений некоторых параметров. При этом подчеркивается, что это могут быть как параметры непосредственно измеримые (в том числе наблюдаемые) параметры, так и параметры, описывающие некие вычисляемые характеристики. Например, в последние годы введено понятие о "стохастических (шумовых) состояниях", которые характеризуются некими параметрами, определяющими "структуру шума". Можно сказать, что состояние имеет место тогда, когда данная система реагирует на внешние воздействия как единое целое и когда эта реакция является инвариантной относительно некоего разброса внешних условий (в тех случаях, когда интерес для исследователя представляет именно отклик системы как целого). То есть использование термина «состояние» уместно тогда, когда система устойчива, пребывает в равновесии со средой. (В некотором смысле, это соответствует описанию "устойчивости" такого объекта, его "равновесности" с окружением.) Также считается, что если за время наблюдения (использования, проявления деятельности, активности) характеристика объекта не изменила свое значение или же изменила "несущественно" (так, что некое существенное свойство объекта не изменилось), то эта характеристика описывает состояние.

Используя аналогичный подход, понятие процесс можно определить, как совокупность сведений, описывающих характерные особенности изменчивости объекта. При рассмотрении процесса в каком-то объекте или системе выделяются те его характеристики, которые свидетельствуют о наличии изменений. В естественных науках (например, в физике) принято связывать процессы с отсутствием равновесия (то есть с "не-состоянием"), и рассматривать процесс как происходящий на фоне неких "потоков" (потоков энергии и/или вещества). С процессом также связывается само описание перехода от одного состояния к другому (особенно в статистической физике и термодинамике, - "термодинамическое состояние"). В некотором смысле процесс соответствует неустойчивости объекта, его "не - равновесия", несбалансированности с окружением. Также считается, что если за время наблюдения (использования, проявления деятельности, активности) характеристика объекта изменила свое значение (так что соответствующее свойство объекта изменилось), то она характеризует процесс.

Таким образом, каждый из введенных выше классов информации распадается еще на два:

· на описание состояний;

· на описание процессов.

Таким образом, приходим к заключению.

 

Введенных выше восьми компонент информации достаточно для адекватного и инвариантного описания произвольного иерархического уровня в ИСС произвольной природы. То есть эти 8 компонент информации образуют базис в "информационном пространстве".

 

Вопросы.

1. Приведите свое определение термина «информация» применительно к техническим системам. Почему оно не подходит к системам социальным и экономическим?

2. Опишите процесс расчета информации – как бы Вы сами это сделали при решении конкретной задачи. Как Вы предлагаете решить вопрос о получении данных об априорной вероятности наступления интересующих Вас событий? Какие роль и место в нахождении этих величин Вы отведете статистическому исследованию?

3. Что такое 1 бит? Как Вы считаете, справедливо ли утверждение: «Информация измеряется только в битах»? если же его область применения ограничена – опишите ее. В частности: применимо ли это определение при решении социальных и экономических задач? ответы – обоснуйте.

4. Как связаны между собой информация и энтропия? Что такое энтропия, и как она связана с информацией?

5. Опишите, как Вы понимаете утверждение: «Управление есть процесс упорядочения в системе»? В частности, что Вы понимаете под «упорядочением»? Всегда ли управление может быть сведено к «упорядочению»? А в социальных и в экономических системах? Если «нет» – то при каких условиях все же «да»?

6. Опишите алгоритм для распознавания информации в некоем тексте или фрагменте разговорной речи, который оказался в Вашем распоряжении. Что для этого нужно сделать и в какой последовательности?

7. Приведите Ваши собственные рабочие определения для понятий «информация» и «управление». Определите, годятся они для всех систем, а также применимы ли они к системам социальным и экономическим. Имеют ли Ваши определения границы применимости?

 

Задачи.

1. Имеются четыре события, априорные вероятности наступления которых равны и составляют Р=1/4. События независимы. Найти величину средней информации, которую несут эти события.

2. Имеются четыре события, априорные вероятности наступления которых равны Р1=1/2, Р2=1/4, Р34=1/8. Найти величину средней информации, которую несут эти события.

3. Опишите конкретную социальную или экономическую иерархическую систему, воспользовавшись системой строгих определений, данных в тексте. Обратите внимание, чтобы использовать при описании каждого иерархического уровня – один и тот же «шаблон» из 8-ми компонент информации.

4. Опишите конкретную фирму или организацию как систему для преобразования информации. Что в данном случае является «информацией»? Какие используются носители информации? Постройте модели разной глубины формализации для описания системы информационных потоков (обмена информацией) на фирме.

 

 



Поделиться:

Дата добавления: 2015-04-15; просмотров: 89; Мы поможем в написании вашей работы!; Нарушение авторских прав





lektsii.com - Лекции.Ком - 2014-2024 год. (0.005 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав
Главная страница Случайная страница Контакты