Інформаційні аспекти дослідження систем. Інформація та її передавання
Зв’язки між елементами системи виконують різні функції. Через них може передаватися енергія, речовина. З погляду кібернетики та загальної теорії систем, важливу роль відіграє інформаційний зміст зв’язків, тобто використання зв’язків з метою передавання відомостей щодо різних станів елементів системи. Поняття інформації є одним з головних у кібернетиці та теорії систем. Слово інформація походить від латинського informatio – роз’яснення, виклад. Під інформацією зазвичай розуміють будь-які відомості та дані про об’єкти, системи, явища, процеси, ситуації. Якщо стан одного об’єкта перебуває у певній відповідності зі станом іншого об’єкта, то перший містить інформацію щодо другого і є носієм інформації про нього.Матеріальний носій інформації, що є засобом перенесення інформації у просторі та часі, називають сигналом. Слово сигнал походить від латинського signum, що означає знак. Вид сигналів не залежить від змісту інформації, він є результатом угоди між особами, що передають та сприймають інформацію. Тому сигнали можуть легко перетворюватись з одного виду в інший, не змінюючи змісту інформації, а також зберігатися (наприклад, у формі літерного або магнітного запису) з метою використання у майбутньому. Зв’язки, які слугують для передавання інформації у системах або між системами, називають каналами зв’язку або комунікаціями. Американський інженер і математик Клод Шеннон пов’язав кількість інформації з поняттям інформаційної ентропії, яка характеризує невизначеність однієї випадкової величини за відомих значень іншої. Кількість інформації виявилась мірою зняття невизначеності випадкової величини через спостереження іншої випадкової величини. Пояснимо це докладніше. Нехай X - дискретна випадкова величина, що набуває скінченну кількість значень , (множина натуральних чисел) з ймовірностями , а Y – дискретна випадкова величина, що набуває значень з ймовірностями , де Тоді кількість інформації I(X,Y) щодо величини Y, що міститься в X, визначають за формулою: (2.10) де – ймовірність перерізу подій і . Головні властивості кількості інформації такі: 1) тоді і лише тоді, коли випадкові величини є незалежними, тобто < за усіх значень i та k; 2) завжди і рівність є можливою тоді, коли Y є функцією від X (наприклад, ); 3) . Іншим головним поняттям теорії інформації є ентропія випадкової величини, яка для дискретної величини набуває вигляду: (2.11) Кількість інформації та ентропія зв’язані співвідношенням: .(2.12) Одиницею вимірювання кількості інформації та ентропії є біт (або двійкова одиниця). Ентропію в один біт має джерело інформації (випадкова величина) з двома рівноймовірними повідомленнями (з двома рівноймовірними значеннями). Величина ентропії вказує на середню кількість двійкових знаків (наприклад, 0 і 1), необхідну для запису можливих значень випадкової величини. Якщо величини X та Y незалежні, то для запису значень X потрібно H(X) двійкових знаків, для запису Y –H(Y) знаків, а для пари (X,Y) – H(X)+H(Y) знаків. Якщо X та Y– залежні, то для запису пари (X,Y) необхідна менша кількість знаків через рівність (2.12). Коли X та Y – неперервні випадкові величини, які мають спільну щільність розподілу P(X,Y) та щільність розподілів p(x) і p(y) відповідно, граничним переходом з формул (2.10)-(2.12) можна отримати формули для визначення кількості інформації I(X,Y) та диференційної ентропії h(x) вигляду ; ; Канал зв’язку відзначається швидкістю передачі інформації, тобто кількістю інформації, яку передають за одиницю часу, та пропускною здатністю каналу, що є межею швидкості передачі інформації у цьому каналі. На рис.2.2 зображено загальний процес обміну інформацією з використанням прямої та зворотної лінії зв’язку. Зворотний зв’язок є реакцією одержувача інформації, що вказує на те, чи є зрозумілою передана інформація, тобто допомагає подолати шум (перешкоди). Шум – це те, що спотворює, викривлює інформацію у лінії зв’язку через фізичні взаємодії сигналу та середовища. В організаційних системах важливу роль, крім технічних каналів зв’язку, відіграють особисті комунікації, які мають особливості, спричинені людською психологією та фізіологією. Шуми в інформаційній системі можуть виникати внаслідок мовленнєвих відмінностей та відмінностей у сприйнятті. Люди зазвичай реагують тільки на те, що сприймають. Якщо у них різні системи цінностей і переваг, то вони сприймуть інформацію з подальшим її тлумаченням по-різному. Поганий зворотний зв’язок і невміння слухати перешкоджають ефективному обмінові інформацією. Рис. 2.2. Процес обміну інформацією з використанням прямого та зворотного зв’язку Керівник може підвищити ефективність міжособистісних обмінів інформацією, трактуючи ідеї, враховуючи можливі відмінності семантики та сприйняття, тобто значення мови, жестів, інтонацій, а також заохочення формування зворотних зв’язків. ©2015 arhivinfo.ru Все права принадлежат авторам размещенных материалов.
|