Здавалка
Главная | Обратная связь

Інформаційні аспекти дослідження систем. Інформація та її передавання



Зв’язки між елементами системи виконують різні функції. Через них може передаватися енергія, речовина. З погляду кібернетики та загальної теорії систем, важливу роль відіграє інформаційний зміст зв’язків, тобто використання зв’язків з метою передавання відомостей щодо різних станів елементів системи.

Поняття інформації є одним з головних у кібернетиці та теорії систем. Слово інформація походить від латинського informatio – роз’яснення, виклад. Під інформацією зазвичай розуміють будь-які відомості та дані про об’єкти, системи, явища, процеси, ситуації. Якщо стан одного об’єкта перебуває у певній відповідності зі станом іншого об’єкта, то перший містить інформацію щодо другого і є носієм інформації про нього.Матеріальний носій інформації, що є засобом перенесення інформації у просторі та часі, називають сигналом.

Слово сигнал походить від латинського signum, що означає знак. Вид сигналів не залежить від змісту інформації, він є результатом угоди між особами, що передають та сприймають інформацію. Тому сигнали можуть легко перетворюватись з одного виду в інший, не змінюючи змісту інформації, а також зберігатися (наприклад, у формі літерного або магнітного запису) з метою використання у майбутньому.

Зв’язки, які слугують для передавання інформації у системах або між системами, називають каналами зв’язку або комунікаціями.

Американський інженер і математик Клод Шеннон пов’язав кількість інформації з поняттям інформаційної ентропії, яка характеризує невизначеність однієї випадкової величини за відомих значень іншої. Кількість інформації виявилась мірою зняття невизначеності випадкової величини через спостереження іншої випадкової величини. Пояснимо це докладніше.

Нехай X - дискретна випадкова величина, що набуває скінченну кількість значень , (множина натуральних чисел) з ймовірностями , а Y – дискретна випадкова величина, що набуває значень з ймовірностями , де Тоді кількість інформації I(X,Y) щодо величини Y, що міститься в X, визначають за формулою:

(2.10)

де – ймовірність перерізу подій і .

Головні властивості кількості інформації такі:

1) тоді і лише тоді, коли випадкові величини є незалежними, тобто < за усіх значень i та k;

2) завжди і рівність є можливою тоді, коли Y є функцією від X (наприклад, );

3) .

Іншим головним поняттям теорії інформації є ентропія випадкової величини, яка для дискретної величини набуває вигляду:

(2.11)

Кількість інформації та ентропія зв’язані співвідношенням:

.(2.12)

Одиницею вимірювання кількості інформації та ентропії є біт (або двійкова одиниця). Ентропію в один біт має джерело інформації (випадкова величина) з двома рівноймовірними повідомленнями (з двома рівноймовірними значеннями).

Величина ентропії вказує на середню кількість двійкових знаків (наприклад, 0 і 1), необхідну для запису можливих значень випадкової величини. Якщо величини X та Y незалежні, то для запису значень X потрібно H(X) двійкових знаків, для запису Y –H(Y) знаків, а для пари (X,Y) – H(X)+H(Y) знаків. Якщо X та Y– залежні, то для запису пари (X,Y) необхідна менша кількість знаків через рівність (2.12).

Коли X та Y – неперервні випадкові величини, які мають спільну щільність розподілу P(X,Y) та щільність розподілів p(x) і p(y) відповідно, граничним переходом з формул (2.10)-(2.12) можна отримати формули для визначення кількості інформації I(X,Y) та диференційної ентропії h(x) вигляду

;

;

Канал зв’язку відзначається швидкістю передачі інформації, тобто кількістю інформації, яку передають за одиницю часу, та пропускною здатністю каналу, що є межею швидкості передачі інформації у цьому каналі. На рис.2.2 зображено загальний процес обміну інформацією з використанням прямої та зворотної лінії зв’язку.

Зворотний зв’язок є реакцією одержувача інформації, що вказує на те, чи є зрозумілою передана інформація, тобто допомагає подолати шум (перешкоди). Шум – це те, що спотворює, викривлює інформацію у лінії зв’язку через фізичні взаємодії сигналу та середовища.

В організаційних системах важливу роль, крім технічних каналів зв’язку, відіграють особисті комунікації, які мають особливості, спричинені людською психологією та фізіологією. Шуми в інформаційній системі можуть виникати внаслідок мовленнєвих відмінностей та відмінностей у сприйнятті. Люди зазвичай реагують тільки на те, що сприймають. Якщо у них різні системи цінностей і переваг, то вони сприймуть інформацію з подальшим її тлумаченням по-різному. Поганий зворотний зв’язок і невміння слухати перешкоджають ефективному обмінові інформацією.

Рис. 2.2. Процес обміну інформацією з використанням прямого

та зворотного зв’язку

Керівник може підвищити ефективність міжособистісних обмінів інформацією, трактуючи ідеї, враховуючи можливі відмінності семантики та сприйняття, тобто значення мови, жестів, інтонацій, а також заохочення формування зворотних зв’язків.








©2015 arhivinfo.ru Все права принадлежат авторам размещенных материалов.