ФЭА / АИТ / КУРСОВАЯ РАБОТА на тему: Основные положения теории информации. Энтропия и информация
(автор - student, добавлено - 26-04-2014, 12:05)
СКАЧАТЬ:
КУРСОВАЯ РАБОТА
на тему:
Основные положения теории информации. Энтропия и информация
СодержаниеВведение. 3 Теоретическая часть. 4 Основные положения теории информации. 4 Энтропия как мера степени неопределенности состояния физической системы 5 Энтропия и информация. 8 Применение основных положений теории информации для характеристики процесса измерения. 11 Энтропийное значение погрешности измерений. 13 Практические методы определения энтропийного значения погрешности измерений 16 Расчетная часть. 19 Выводы.. 20 Список литературы.. 21
ВведениеПри разработке, производстве (в технологических процессах), эксплуатации технических систем, контроле состояния окружающей среды, в медицине, торговле, учете расходования материально-технических ресурсов и других видах деятельности общества измерения были, есть и будут одними из важнейших условий достижения поставленных целей. Более того, измерения являются связующим звеном, обеспечивающим «все артерии, все сосуды» человеческой деятельности. Обходиться без них не удается никому и в то же время многим не удается избавиться от неприятностей, связанных с результатами неправильно проведенных (по объективным или субъективным причинам) измерений. Метрология — наука об измерениях, а измерения — один из важнейших путей познания. Они играют огромную роль в современном обществе. Наука, промышленность, экономика и коммуникации не могут существовать без измерений. Каждую секунду в мире производятся миллиарды измерительных операций, результаты которых используются для обеспечения качества и технического уровня выпускаемой продукции, безопасной и безаварийной работы транспорта, обоснования медицинских и экологических диагнозов, анализа информационных потоков. Практически нет ни одной сферы деятельности человека, где бы интенсивно не использовались результаты измерений, испытаний и контроля. Примерно 15% затрат общественного труда расходуется на проведение измерений. По оценкам экспертов, от 3 до 9% валового национального продукта передовых индустриальных стран приходится на измерения и связанные с ними операции.
Теоретическая частьОсновные положения теории информацииОсновные положения теории информации были разработаны К. Шенноном: «Основная идея ... состоит в том, что с информацией можно обращаться почти так же, как с такими физическими величинами, как масса или энергия». Любая информация, чтобы быть переданной, должна быть соответственным образом «закодирована», т. е. переведена на язык специальных символов или сигналов. Одной из задач теории информации является отыскание наиболее экономных методов кодирования, позволяющих передать информацию с помощью минимального количества символов. Эта задача решается с учетом наличия или отсутствия искажений (помех) в канале связи. Другая типичная задача: имеется источник информации (передатчик), непрерывно вырабатывающий информацию, и канал связи, по которому эта информация передается в другую инстанцию (приемник). Какова должна быть пропускная способность канала связи для того, чтобы канал передавал всю поступающую информацию без задержек и искажений? Чтобы решить подобные задачи, нужно научиться измерять количественно объем передаваемой или хранимой информации, пропускную способность каналов связи и их чувствительность к помехам. Энтропия как мера степени неопределенности состояния физической системыЛюбое сообщение, с которым мы имеем дело в теории информации, представляет собой совокупность сведений о некоторой физической системе. Средства измерений предназначаются для получения измерительной информации и обладают, таким образом, информационными характеристиками. При их нахождении исходят из того, что измеряемая величина обладает неопределенностью до тех пор, пока не произведено ее измерение. Степень неопределенности зависит от ряда факторов.
Рассмотрим некоторую систему X, которая может принимать конечное множество состояний: хи х2, ..., хп с вероятностями p1, р2, ..., pп, где
— вероятность того, что система X примет состояние xi (символом обозначается событие: система находится в состоянии хi). Очевидно, , как сумма вероятностей полной группы независимых событий. В качестве меры априорной неопределенности системы X (измеряемой дискретной случайной величины X) в теории информации применяется специальная характеристика, называемая энтропией. Энтропией системы (измеряемой величины) называется сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взятая с обратным знаком:
где log — знак двоичного логарифма. Знак минус перед суммой ставится для того, чтобы энтропия была положительной: вероятности pi меньше единицы и их логарифмы отрицательны. Непрерывная измеряемая величина X априори имеет неопределенность, характеризуемую значением энтропии
, где f(x) — плотность распределения величины X. Энтропия обращается в нуль, когда одно из состояний системы достоверно (вероятность равна единице), а другие — невозможны (вероятности равны нулю). Если рассмотреть случайную дискретную величину X, которая имеет п равновероятных значений, то вероятность каждого из них будет равна pi=1/n и . Таким образом, энтропия системы с равновозможными состояниями равна логарифму числа состояний. При увеличении числа состояний энтропия увеличивается. Энтропия обладает свойством аддитивности: когда несколько независимых систем объединяются в одну, их энтропии складываются: Н (X, Y)=H (X)+H (Y). Единицы измерения энтропии зависят от выбора основания логарифма. При использовании десятичных логарифмов энтропия определяется в так называемых десятичных единицах (дит). В случае двоичных логарифмов энтропия выражается в двоичных единицах (бит). На практике удобнее всего пользоваться логарифмами при основании 2, поскольку при этом достигается согласие с применяемой в электронных цифровых вычислительных машинах двоичной системой счисления.
Вычисление энтропии по формуле (2) можно несколько упростить, если ввести в рассмотрение функцию
Формула (2) примет вид:
. Функция η(р) табулирована.
Существует понятие условной энтропии. Пусть имеются две зависимые системы X и Y. Предположим, что система X приняла состояние хi. Обозначим p(yi/xi) условную вероятность того, что система Y примет состояние yi при условии, что система X находится в состоянии хi: . Условную энтропию при проведении измерений можно рассматривать как меру уменьшения неопределенности системы X, имеющей до измерения энтропию Н(х), а после измерения H(x/xi), т. е. Iх = Н(Х)—H(X/xi), где хi — результат измерения. Определим условную энтропию системы Y как энтропию при условии, что система X находится в состоянии хi:
где m – число состояний системы Y, или
Условная энтропия зависит от того, какое состояние xi приняла система X. Полная энтропия системы Y будет равна:
, где п — число состояний системы X. Рассмотрим пример. Поскольку результат измерений непосредственно зависит от значения погрешности Δ измерений, включающей в основном погрешность средства измерения, то в соответствии с (3) и (6) условная энтропия будет равна:
, где f(Δ) — плотность распределения погрешности измерений; хц— результат измерения. В случае нормального закона распределения погрешности Δ измерений при среднем квадратическом отклонении σх условная энтропия после несложных вычислений с помощью формулы (10) составит
где е — основание натуральных логарифмов. Таким образом, чем больше погрешность измерений, представляемая средним квадратическим отклонением, т. е. средней квадратической погрешностью измерений, тем больше значение Н(х/хи) и, следовательно, тем меньше уменьшится неопределенность системы Iх после проведения измерений. Энтропия и информацияРассмотрим некоторую систему X, над которой производится измерение, и оценим информацию, получаемую в результате того, что состояние системы X становится полностью известным (погрешность измерений равна нулю). До проведения измерений априорная энтропия системы была Н(Х), после измерений энтропия стала равной нулю, если в результате измерения мы нашли истинное значение величины Y. Обозначим Ix информацию, получаемую в результате измерений. Она равна уменьшению энтропии: Ix=H(X) – H(X/xи) = 0 или Ix=H(X), т. е. количество информации, приобретаемое при полном выяснении состояния некоторой физической системы, равно энтропии этой системы. С учетом формулы (2):
, где . Формула (11) означает, что информация Ix есть осредненное по всем состояниям системы значение логарифма вероятности состояния с обратным знаком.
Действительно, для получения Ix каждое значение log pi (логарифм вероятности i-го значения) со знаком минус множится на вероятность этого состояния и все такие произведения складываются. Естественно, каждое отдельное слагаемое — log pi следует рассматривать как частную информацию, получаемую от отдельного измерения, состоящего в том, что система X находится в состоянии xi. Обозначим эту информацию Ixi.
Тогда информация 1Х представится как средняя (или полная) информация, получаемая от всех возможных отдельных измерений с учетом их вероятностей. Так как все числа рi не больше единицы, то как частная информация Ixi, так и полная Ix не могут быть отрицательными. Если все возможные состояния системы одинаково вероятны (р1 = р2 = ... = pn = 1/n), то частная информация от каждого отдельного измерения Ixi = - log p = log n равна средней (полной) информации:
. Приведем пример. Производится п независимых измерений. Вероятность отсутствия грубых погрешностей при каждом измерении равна р. После k-го измерения (1≤k<n) производится проверка, позволяющая определить наличие или отсутствие грубой погрешности. Если она есть, измерения прекращаются. Определить k из условия, что количество информации, получаемое проверкой, было максимально. Рассмотрим состояние физической системы Хk, определяемое достоверностью проведенных k измерений (без грубых погрешностей) параметра системы. Возможные состояния системы Хk будут: x1 — в результатах измерений отсутствует грубая погрешность; х2 — в результатах измерений есть хотя бы одна грубая погрешность. Вероятности состояний даны в таблице 1. Таблица 1
Информация, получаемая проверкой состояния системы Хk, будет максимальна, когда оба состояния x1 и x2 равновероятны, т. е , откуда . Например, при р = 0.2, получаем k = 1 / 0,3219 ≈ 3. Таким образом, проверку отсутствия грубой погрешности в указанных условиях следует осуществлять после проведения трех измерений. Применение основных положений теории информации для характеристики процесса измеренияТочность измерений обычно характеризуется числовым значением полученных при измерении или априорно известных погрешностей измерений. Пусть в результате однократного измерения значения измеряемой величины X результат измерения равен хи. Если известно, что средство измерения имеет случайную абсолютную погрешность в пределах ±Д, то не следует утверждать, что действительное значение измеряемой величины равно хи. Можно лишь утверждать, что это значение лежит в полосе хи±Δ. Незнание истинного значения измеряемой величины сохраняется после получения результата измерения xи, но теперь оно характеризуется не исходной энтропией Н(Х), а лишь энтропией разброса действительного значения X величины относительно полученного результата хи. Эта условная энтропия Н(Х/хи) определяется погрешностью данного средства измерения. В теории информации факт проведения измерений в диапазоне от Хн до Хв означает, что при использовании данного средства измерения может быть получен результат измерений хи только в пределах от Хн до Хв. Другими словами, вероятность получения значений хи, меньших Хн и больших Хв, равна нулю. Вероятность же получения результата хи в пределах от Хн до Хв равна единице. Если предположить, что плотность распределения различных значений измеряемой величины вдоль всей шкалы средства измерения одинакова, то с точки зрения теории информации наше знание о значении измеряемой величины до измерения может быть
Поскольку вероятность получения результата измерений хи в пределах от Хн до Хв равна единице, то площадь под кривой f1(x) должна быть равна единице. При равномерном распределении плотности вероятности: . После проведения измерения из-за наличия погрешности средства измерения (±Δ) действительное значение измеряемой величины X лежит в пределах от Хи— Δ до Xи+ Δ, т. е. в пределах участка 2Δ. С информационной точки зрения интерпретация результата измерения состоит в том, чтобы область неопределенности простиралась от Хн до Хв и характеризовалась сравнительно небольшой плотностью распределения f1(x). После измерения неопределенность уменьшилась до величины 2Δ, а плотность распределения увеличилась до величины f2(x) с учетом того, что Δ<<(Хв—Хн), что и отражено на рис.1. Получение какой-либо информации об интересующей нас величине заключается в конечном счете в уменьшении неопределенности ее значения, что и следует из (10).
Определим количество информации в общем случае как Ix=H(X) – H(X/xи), где Н(Х) — априорная энтропия; Н(Х/хи) — условная энтропия. В нашем примере с равномерным законом распределения ; .
Полученное количество информации: . Данная операция, которая обычно используется при определении относительной погрешности измерения, характеризует один из основных приемов анализа информационных свойств измерений. Энтропийное значение погрешности измеренийКак было показано, с точки зрения теории информации количество информации Iх, получаемое в результате любого измерения, соответствует уменьшению неопределенности «познания» измеряемой величины и равно разности энтропии до и после проведения измерений [формула (14)]. При этом априорная энтропия Н(Х) зависит только от закона распределения различных значений измеряемой величины, рассматриваемой как случайная. А условная энтропия Н(Х/Хи) равна энтропии закона распределения погрешностей измерений. При исследовании средства измерения удобнее оперировать энтропийным значением погрешности измерений, которое однозначно определяет ограничение процесса, связанного с измерением параметра (параметров) объекта измерений. Энтропия погрешности измерения равна логарифму интервала неопределенности. Длина этого интервала может быть выражена также через значение среднего квадратического отклонения погрешности измерения. Для равномерного распределения дисперсия:
Отсюда СКО . Таким образом, , а интервал неопределенности . Чем меньше СКО, тем меньше неопределенность результатов измерений. Условная энтропия равна:
. За энтропийное значение погрешности измерении принимается наибольшее ее значение при равномерном законе распределения, которая «вносит» такое же дезинформационное действие, как и погрешность с данным законом распределения. Так, если погрешность измерений распределена нормально, то энтропийное значение ΔЭ погрешности: . Зависимость между энтропийным и средним квадратическим начениями погрешности имеет вид: , где kЭ — энтропийный коэффициент. Для нормального закона распределения погрешностей измерений kЭ ≈ 2,07, для равномерного закона kЭ = ΔЭ / σx ≈ 1,73. Сравнение значений энтропийных коэффициентов нормально и равномерно распределенных погрешностей измерений позволяет сделать вывод о том, что при одинаковых значениях СКО погрешность (при нормальном законе распределения) вносит большее дезинформационное действие, чем погрешность, распределенная равномерно. Практические методы определения энтропийного значения погрешности измеренийЛюбые методы определения или нормирования точности средства измерения сводятся к установлению соответствия с погрешностью измерений. С точки зрения информационного подхода к измерениям удобно сравнивать средства измерений по количеству информации, получаемой при измерении, а, следовательно, по энтропийному значению погрешности измерений. Метод определения погрешности аналого-цифровых преобразователей. Рассматриваемый ниже метод распространяется на любые аналого-цифровые преобразователи, которые характеризуются наличием аналогового параметра на входе и цифрового кода на выходе. К их числу относятся аналого-цифровые преобразователи, цифровые преобразователи угла, линейных перемещений и т. д. Рассмотрим класс аналого-цифровых преобразователей — цифровые преобразователи угла (ЦПУ). Чтобы применить энтропийный критерий точности к ЦПУ, необходимо по возможности проанализировать структуру погрешностей и их источников. Результирующая погрешность ЦПУ без учета влияния внешних факторов складывается из погрешности квантования Δкв и инструментальной погрешности Δ1 (погрешности воспроизведения уровней квантования). На рис. 2 приведена структура погрешности такого преобразователя. Для ЦПУ с идеальной шкалой имеет место только погрешность квантования Δкв, в реальном же ЦПУ границы квантов реальной шкалы могут быть пространственно сдвинуты относительно идеальной шкалы, что порождает инструментальную погрешность Δ1. Погрешность квантования для N-разрядного ЦПУ является случайной величиной с равномерной плотностью распределения в диапазоне ±g/2, где g = 2n 2-N — квант младшего разряда ЦПУ (в радианах). Эту величину называют максимальной информационной способностью ЦПУ. В случае N-разрядного ЦПУ она составляет N бит. Пусть требуется определить информационную способность ЦПУ с учетом инструментальной погрешности Δ1. Искомая величина лежит в пределах от 0 до N бит, причем она равна N при отсутствии инструментальной погрешности Д1 (идеальный ЦПУ) и равна 0, если цифровой код на выходе ЦПУ не зависит от значения угла на его входе. Информационная способность ЦПУ при наличии инструментальной погрешности Δ1 равна: I = N – ΔH, где N — информационная способность для идеального ЦПУ; ΔН— потеря информации за счет инструментальной погрешности Δ1 или энтропия закона распределения инструментальной погрешности. Таким образом, задача определения информационной способности ЦПУ сводится к расчету энтропийного значения погрешности Δ1. Значение ΔН можно найти аналитически: , где f(Δ) — плотность распределения инструментальной погрешности Δ1. Можно показать, что значение ΔН не изменится при наличии постоянной составляющей погрешности преобразования (постоянного сдвига значения угла, соответствующего выходному коду, относительно поданного на вход ЦПУ значения угла). Пусть сдвиг значения угла составляет φ радиан, тогда . Отсюда следует: значение постоянной составляющей не сказывается на мере неопределенности. С точки зрения измерительного преобразования важно лишь абсолютное значение погрешности, полученной в результате единичного преобразования. При однократном измерении нет возможности набрать статистические данные и определить постоянную составляющую погрешности. Чтобы использовать энтропийный подход, следует рассматривать каждое преобразование как независимое и определять потерю информации ЦПУ при единственном преобразовании. Это возможно, если рассматривать вклад каждого из разрядов ЦПУ в результирующую погрешность отдельно, определяя количество информации, которое теряет каждый разряд при очередном преобразовании, а затем найти среднее значение по нескольким сеансам измерений. Этот подход позволяет решить задачу учета влияния постоянной составляющей погрешности на основе энтропийной оценки.
Расчетная частьИсходные данные: Маятник часов при температуре t0 имеет длину l0, и часы идут точно. Коэффициент линейного расширения материала маятника α = 1,85 ∙ 10-5. Насколько будут отставать или убегать часы, если температура окружающего воздуха будет на 10˚C выше t0? (При выводе формулы следует учесть малость значений коэффициента линейного расширения материала маятника). Решение: Одному полному обороту часовой стрелки соответствует вполне определенное число N колебаний. За сутки часовая стрелка на обычных часах сделает два полных оборота: . При изменении температуры на t0˚C длина маятника будет l = l0 (1 + αr), а период колебаний изменится на: . За сутки часы отстанут (или убегут) на время: . Ответ. 8 секунд.
Выводы1) «Основная идея ... состоит в том, что с информацией можно обращаться почти так же, как с такими физическими величинами, как масса или энергия». 2) Энтропией системы (измеряемой величины) называется сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взятая с обратным знаком. 3) При исследовании средства измерения удобнее оперировать энтропийным значением погрешности измерений, которое однозначно определяет ограничение процесса, связанного с измерением параметра (параметров) объекта измерений.
Список литературы1) Кузнецов В.А., Ялунина Г.В. Основы метрологии – М.: Издательство стандартов, 1995 – 280 с. 2) Сергеев А.Г. Метрология – М.: Логос, 2005 г. – 272 с. 3) Радкевич Я.М., Лактионов Б.И. Метрология, стандартизация и взаимозаменяемость. – М.: Издательство Государственного горного университета, 1996 – 212 с.
Похожие статьи:
|
|