Основные этапы развития научных представлений об информации.
Считается, что одним из первых понятие информации в научный оборот было введено Р.Фишером* в 1921 г. применительно к решению задач статистике. Статистика имеет дело с большим числом результатов наблюдений и заменяет обычно их полное перечисление указанием некоторых сводных характеристик. Иногда при такой замене происходит потеря информации, но при некоторых условиях сводные характеристики содержат всю информацию, содержащуюся в полных данных. Основы теории информации, как самостоятельного научного направления были изложены в статье «Математическая теория связи» (1948 г.) выдающегося американского ученого и инженера К.Шеннона (1916-2001). Методы данной теории позволили определять информационные характеристики конкретных видов сообщений. Необходимо отметить, что работа Шеннона базировалась на трудах многих ученых, работающих в этой и смежных областях. Важную роль в становлении и развитии теории информации сыграли работы российских математиков и инженеров В.А.Котельникова (1908), А.Н.Колмогорова (1903-1987) , А.Я.Хинчина (1894-1959), А.М Яглома, А.А.Харкевича (1904-1965) и др. Существует особая, очень тесная связь между теорий информации и другой важнейшей наукой, сформировавшейся в ХХ в., – кибернетикой. В том же 1948 г., когда была опубликована знаменитая статья Шеннона, вышла в свет книга американского ученого Норберта Винера (1894-1964) «Кибернетика, или связь в животном и машине», в которой он обобщил общие принципы построения и работы любых управляющих систем, показал ключевую роль информации в управлении . Одной из главных задач теории информации является повышение помехоустойчивости передачи сообщений. Для этого разрабатываются специальные методы кодирования. Возникло даже новое большое направление – теория кодирования, которое некоторые специалисты считают самостоятельной научной дисциплиной. Другие же полагают, что к уже началу 70-х годов ХХ в. сама классическая теория информации свелась в первую очередь к теории кодирования. Считается, что в 60-х гг. во Франции для обозначения области, занимающейся автоматизированной обработкой информации с помощью электронных вычислительных машин, стали использовать термин «информатика»(информация+автоматизация).
18. Сущность и содержание понятия энтропия. Информационная энтропия — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения. . Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения. Энтропия является количеством, определённым в контексте вероятностной модели для источника данных.Исторически первые шаги к введению понятия энтропии как меры степени неопределенности сообщений были сделаны американским инженером-связистом Р.Хартли. , предложившим за отправную точку для информационной оценки события принимать его неопределенность и количественно характеризовать степень неопределенности события с n различными исходами числом log n. До этого понятие энтропия широко использовалось в физике. Первым в 1865 г. его ввел немецкий ученый Р.Клаузиус.
©2015 arhivinfo.ru Все права принадлежат авторам размещенных материалов.
|