Здавалка
Главная | Обратная связь

Понятие информатики



Информатика-наука об информационной деятельности, процессах и их организация в человеке, машинах, системах.

Информатика(предложил основоположник отечественной информатики Глушаков Виктор Михайлович в 1979г. В 1983 утверждено на собрании академии наук СССР)-комплексная научная и инженерная дисциплина, изучающая все аспекты разработки, проектирования, создания, оценки и функционирования основанных на ЭВМ систем переработки инф-ции, их применения и воздействия на различные области соц практики.

 

 

«3»История развития информатики.

Задача обработки, накопления и передачи инф-ции всегда стояла перед человеком, на всех этапах развития.

1000 веков назад основной инструмент обработки инф-ции- мозг, язык, органы чувств.

С приходом письменности (3-е тысячелетие до н.э.)- появилась возможность документальной передачи и хранения инф-ции.

В середине 15 века- изобретено книгопечатание.

В конце 19 века изобретение электричества, благодаря которому появился телефон, телеграф, радио- оперативные передатчики инф-ции в больших объёмах.

В 20 веке,в бурном развитии наук и промышленности, рост объема ходовой информации привели к тому, что человек не смог в этом ориентироваться, без упорядочивания инф-ции. Нужно было её классифицировать по темам, организовать упорядоченное хранение, обеспечить быстрый поиск нужного.

Исследования, позволяющие решить эти вопросы стали называться информатикой. Долго она явл базой библиотечного дела, пока не появились ЭВМ. Их появление привело к созданию и бурному развитию новой промышленной отрасли. Средств и методов электронной обработки информации в числовом, графическом, текстовом и других видов. Научным фундаментом разработки производства таких методов стала информатика, в её новом качестве.

Теперь информатика- informatique(франц.) как слияние 2-х слов information-информация и automatique- автоматизация. В англо- язычных странах этому термину соответствовали 2 слова – computer science. Появление ЭВМ сыграло решающую роль в появлении информатики, как науки. Но ЭВМ являются предметом изучения информатики.

 

 

Речь Письмо Н.Э. 15в. 19.в 20в.

__|___ _ _ _ _ _ ___|____ _ _ _ _ ____|__ _ _ _ _ _ ___|___ _ _ _ _ _ ____|__ _ _ _ _ ____|_____

| | | | |

-1000веков -3000 книгопечатание электричество ЭВМ

 

 

«4»Понятие информации. Меры информации синтаксического уровня. Формулы Шеннона и Хартли.

Понятие информации

Количество информации на синтаксическом уровне определяется с помощью понятия неопределённости системы- энтропия.

Получение информации всегда связанно с изменением степени неосведомлённости приёмника по состоянию источника.

Из этого---àкол-во информации (I) – мера уменьшения неопределённости знаний об источнике информации.

 

I( )=H( )-H( )

Кол-во инф-ции при энтропийном подходе- количественная величина исчезнувшей в результате сообщения неопределённости состояния источника информации.

Формула Шеннона

Определяет дистропию системы, которая может находиться в N различных состояниях

Н( )- неопределённость, приходящая в среднем на одно состояние системы.

 

Основание Log в формуле не имеет принципиального значения и определяет только масштаб или единицу измерения.

Если основание: 2-бит- е-наты- 10-дит-

Формула Хартли

Для случая когда все состояния системы равновероятны, т.е. для любого i( ).

H( )=

 

 

Одно и то же кол-во разрядов в разных системах счисления может передать разное кол-во сообщений.

N-число возможных сообщений

m-основание системы (2- двоичная, 10- десятичная)

n-кол-во разрядов в сообщении

N=m^n

Используя формулу Хартли , кол-во инф-ции которое мы можем получить в N сообщениях будет: ,если

В эт случае(сост равновероятное и энтропия измеряется в тех же единицах, как и сообщение) кол-во информации тождественно = объёму данных.

 

 

Для разно вероятных состояний системы (кол-во инф-ции)I<V(объем данных)

Y-коэф лаконичности сообщения







©2015 arhivinfo.ru Все права принадлежат авторам размещенных материалов.