УЗНАЙ ЦЕНУ

(pdf, doc, docx, rtf, zip, rar, bmp, jpeg) не более 4-х файлов (макс. размер 15 Мб)


↑ вверх
Тема/ВариантЭнтропия и количество информации
ПредметИнформационные технологии
Тип работыреферат
Объем работы22
Дата поступления12.12.2012
690 ₽

Содержание

Введение 3 1. Что такое энтропия? Энтропия биосистем 5 2. Типы математических моделей определения энтропии 10 3. Обобщенная энтропия (оэ) и негэнтропия (онг) 14 4. Информация и методы её измерения 17 Заключение 21 Список используемой литературы 22

Введение

Энтропия - это производное понятие от понятия "состояние объекта" или "фазовое пространство объекта". Она характеризует степень вариативности микросостояния объекта. Качественно, чем выше энтропия, тем в большем числе существенно различных микросостояний может находиться объект при данном макросостоянии. Исторически первым примером была энтропия нагретого физического тела, которая интерпретируется как неопределенность положений и импульсов молекул при данной температуре, играющей роль макросостояния. При вычислении энтропии требуется математическая модель объекта и его фазового пространства. Математическая модель содержит атрибуты двух типов. Атрибуты, инвариантные относительно всех допустимых преобразований модели, называются структурными. Они образуют структуру модели. К ним относятся уравнения, описывающие объект, пространство, из которого берут свои значения переменные, алгебра и топология на этом пространстве, система начальных, граничных условий и т.п. Другие атрибуты математической модели могут изменять свои значения при разных преобразованиях. Это вариативные параметры. К ним относятся значения переменных, координатные системы, в которых записаны уравнения, изменяемые связи между частями модели, границы областей, где ищутся решения и т. п. Полная совокупность всех вариативных параметров называется фазовым состоянием модели (его общей записью), а набор конкретных значений этих параметров - фазовой точкой или микросостоянием. Совокупность всех возможных фазовых точек называется фазовым пространством модели. Обычно, на таком пространстве можно ввести естественную метрику или топологию. Цель данной работы заключается в анализе энтропии как термодинамической функции, ее вероятностных характеристик, мер информации и сложности, что тесно связаны с понятием энтропии. Для этого необходимо решить следующие задачи: дать характеристику функции энтропии, связать исследуемое понятие с биосистемами, определить математическую модель определения энтропии и ее типы, рассмотреть обобщенную энтропию и негэнтропию, а также изучить методы измерения информации.

Литература

1. Блюменфельд Л.А. Информация, термодинамика и конструкция биологических систем //Соросовский Образовательный Журнал. 1996. № 6. С. 88-92. 2. Волькенштейн М.В. Энтропия и информация. М.: Наука, 1986. 3. Коганов А.В. Векторные меры сложности, энтропии, информации. - М.: Прогресс, 2000. 4. Опритов В.А. Энтропия биосистем. - Н.Новгород: Нижегородский государственный университет им. Н.И. Лобачевского, 1999. 5. Хазэн А.М.. Происхождение и эволюция жизни и разума с точки зрения синтеза информации. //Биофизика. 1992. Т.37 (1)105-122. 6. Яглом А.М., Яглом И.М. Вероятность и информация. - М., 1957.
Уточнение информации

+7 913 789-74-90
info@zauchka.ru
группа вконтакте