Базовая аппаратная конфигурация.Стр 1 из 9Следующая ⇒
Базовая конфигурация персонального компьютера — это минимальный комплект аппаратных средств, которых достаточно для работы с компьютером. На сегодняшний день для настольных компьютеров базовой считается конфигурация, содержащая четыре устройства: монитор,системный блок,мышь,клавиатура. Системный блок - основной блок компьютерной системы. Именно в нем располагаются внутренние устройства компьютера. Те устройства, которые подключаются к системному блоку снаружи, называются внешними. Системный блок включает в себя процессор, оперативную память, накопители на жестких, оптических и гибких магнитных дисках, а также другие устройства. Монитор – это устройство для визуального воспроизведения графической и символьной информации, которое является устройством ввода. Мышь — это устройство «графического» управления. Клавиатура — это клавишное устройство, которое предназначено для ввода в компьютер информации и управления его работой. 2. Информация. Количественная мера. Вероятностная мера. Для хранения числовой информации могут использоваться любые устройства, способные записывать и хранить последовательности чисел. Существует формальное математическое доказательство , что хранение чисел в двоичном представлении требует минимальных затрат энергии, т.е. наиболее «экономично». Достаточно представить каждое число в двоичной форме и записать получившуюся цепочку нулей и единиц на носитель. Например, на перфоленту: «дырка» = 1, а «отсутствие дырки» = 0. Абстрактный носитель, способный хранить 1 или 0, получил название «БИТ» (bit). Поскольку придумать носитель, способный хранить меньшее чем один «БИТ» количество информации невозможно, то БИТ используется в качестве минимальной меры информационной емкости. Количественной мерой информации следует считать МИНИМАЛЬНУЮ информационную емкость, которая необходима для передачи (хранения) информации без искажения в условиях отсутствия помех. Определение количественного значения минимальной информационной емкости — сложная задача. Академик Колмогоров А.Н. сформулировал три способа измерения количества информации: · алгоритмический, · комбинаторный, · вероятностный. 3. Энтропия и ее свойства Информационная энтропи́я — мера хаотичности информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.
Энтропия является величиной вещественной и не отрицательной. Так как вероятность исхода любых событий или опытов может изменяться только от 0 до 1, то логарифм таких величин является отрицательным, поэтому произведение двух отрицательных величин всегда положительно. 2. Энтропия – величина ограниченная. Для слагаемых в диапазоне изменения вероятности от 0 до 1 ограниченность энтропии очевидна, но предел произведения отрицательной вероятности на логарифм этой вероятности не пределен. Если найти предел при вероятности, стремящейся к нулю, то, используя правило Лопиталя, мы в конечном итоге получим, что предел: 3. Энтропия обращается в ноль в том случае, когда вероятность одного из состояний равна единице. 4. Энтропия максимальна, когда все события равновероятны. Чтобы доказать это свойство, можно пользоваться математической величиной, но формула, предложенная Хартли, представляет собой: 5. Энтропия двух независимыхопытов с числом исходов, равным m1 и m2, равна сумме энтропий каждого из этих опытов, взятых в отдельности. ©2015 arhivinfo.ru Все права принадлежат авторам размещенных материалов.
|