Здавалка
Главная | Обратная связь

Базовая аппаратная конфигурация.



Базовая конфигурация персонального компьютера — это минимальный комплект аппаратных средств, которых достаточно для работы с компьютером. На сегодняшний день для настольных компьютеров базовой считается конфигурация, содержащая четыре устройства: монитор,системный блок,мышь,клавиатура. Системный блок - основной блок компьютерной системы. Именно в нем располагаются внутренние устройства компьютера. Те устройства, которые подключаются к системному блоку снаружи, называются внешними. Системный блок включает в себя процессор, оперативную память, накопители на жестких, оптических и гибких магнитных дисках, а также другие устройства. Монитор – это устройство для визуального воспроизведения графической и символьной информации, которое является устройством ввода. Мышь — это устройство «графического» управления. Клавиатура — это клавишное устройство, которое предназначено для ввода в компьютер информации и управления его работой.

2.​ Информация. Количественная мера. Вероятностная мера.

Для хранения числовой информации могут использоваться любые устройства, способные записывать и хранить последовательности чисел.

Существует формальное математическое доказательство , что хранение чисел в двоичном представлении требует минимальных затрат энергии, т.е. наиболее «экономично».

Достаточно представить каждое число в двоичной форме и записать получившуюся цепочку нулей и единиц на носитель. Например, на перфоленту: «дырка» = 1, а «отсутствие дырки» = 0. Абстрактный носитель, способный хранить 1 или 0, получил название «БИТ» (bit).

Поскольку придумать носитель, способный хранить меньшее чем один «БИТ» количество информации невозможно, то БИТ используется в качестве минимальной меры информационной емкости.

Количественной мерой информации следует считать МИНИМАЛЬНУЮ информационную емкость, которая необходима для передачи (хранения) информации без искажения в условиях отсутствия помех.

Определение количественного значения минимальной информационной емкости — сложная задача. Академик Колмогоров А.Н. сформулировал три способа измерения количества информации:

· алгоритмический,

· комбинаторный,

· вероятностный.

3.​ Энтропия и ее свойства

Информационная энтропи́я — мера хаотичности информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

 

Энтропия является величиной вещественной и не отрицательной. Так как вероятность исхода любых событий или опытов может изменяться только от 0 до 1, то логарифм таких величин является отрицательным, поэтому произведение двух отрицательных величин всегда положительно.

2. Энтропия – величина ограниченная. Для слагаемых в диапазоне изменения вероятности от 0 до 1 ограниченность энтропии очевидна, но предел произведения отрицательной вероятности на логарифм этой вероятности не пределен. Если найти предел при вероятности, стремящейся к нулю, то, используя правило Лопиталя, мы в конечном итоге получим, что предел:

3. Энтропия обращается в ноль в том случае, когда вероятность одного из состояний равна единице.

4. Энтропия максимальна, когда все события равновероятны. Чтобы доказать это свойство, можно пользоваться математической величиной, но формула, предложенная Хартли, представляет собой:

5. Энтропия двух независимыхопытов с числом исходов, равным m1 и m2, равна сумме энтропий каждого из этих опытов, взятых в отдельности.







©2015 arhivinfo.ru Все права принадлежат авторам размещенных материалов.