О САЙТЕ
Добро пожаловать!

Теперь вы можете поделиться своей работой!

Просто нажмите на значок
O2 Design Template

ФЭА / АИТ / КУРСОВАЯ РАБОТА на тему: Основные положения теории информации. Энтропия и информация

(автор - student, добавлено - 26-04-2014, 12:05)

СКАЧАТЬ:  pic_01.zip [337,21 Kb] (cкачиваний: 87)

 

 

КУРСОВАЯ РАБОТА

 

на тему:

 

Основные положения теории информации. Энтропия и информация

 

 

 


Содержание

Введение. 3

Теоретическая часть. 4

Основные положения теории информации. 4

Энтропия как мера степени неопределенности состояния физической системы   5

Энтропия и информация. 8

Применение основных положений теории информации для характеристики процесса измерения. 11

Энтропийное значение погрешности измерений. 13

Практические методы определения энтропийного значения погрешности измерений  16

Расчетная часть. 19

Выводы.. 20

Список литературы.. 21

 


Введение

При разработке, производстве (в технологических процессах), эксплуатации технических систем, контроле состояния окружаю­щей среды, в медицине, торговле, учете расходования материаль­но-технических ресурсов и других видах деятельности общества измерения были, есть и будут одними из важнейших условий дости­жения поставленных целей. Более того, измерения являются связу­ющим звеном, обеспечивающим «все артерии, все сосуды» чело­веческой деятельности. Обходиться без них не удается никому и в то же время многим не удается избавиться от неприятностей, связанных с результатами неправильно проведенных (по объек­тивным или субъективным причинам) измерений.

Метрология — наука об измерениях, а измерения — один из важнейших путей познания. Они играют огромную роль в со­временном обществе. Наука, промышленность, экономика и коммуникации не могут существовать без измерений. Каждую секунду в мире производятся миллиарды измерительных опера­ций, результаты которых используются для обеспечения качества и технического уровня выпускаемой продукции, безопасной и бе­заварийной работы транспорта, обоснования медицинских и эко­логических диагнозов, анализа информационных потоков. Прак­тически нет ни одной сферы деятельности человека, где бы ин­тенсивно не использовались результаты измерений, испытаний и контроля. Примерно 15% затрат общественного труда расходует­ся на проведение измерений. По оценкам экспертов, от 3 до 9% валового национального продукта передовых индустриальных стран приходится на измерения и связанные с ними операции.


Теоретическая часть

Основные положения теории информации

Основные положения теории информации были разработаны К. Шенноном: «Основная идея ... состоит в том, что с инфор­мацией можно обращаться почти так же, как с такими физически­ми величинами, как масса или энергия».

Любая информация, чтобы быть переданной, должна быть со­ответственным образом «закодирована», т. е. переведена на язык специальных символов или сигналов.

Одной из задач теории информации является отыскание наи­более экономных методов кодирования, позволяющих передать информацию с помощью минимального количества символов. Эта задача решается с учетом наличия или отсутствия искажений (помех) в канале связи.

Другая типичная задача: имеется источник информации (пе­редатчик), непрерывно вырабатывающий информацию, и канал связи, по которому эта информация передается в другую инстан­цию (приемник). Какова должна быть пропускная способность канала связи для того, чтобы канал передавал всю поступающую информацию   без задержек и искажений?

Чтобы решить подобные задачи, нужно научиться измерять ко­личественно объем передаваемой или хранимой информации, про­пускную способность каналов связи и их чувствительность к по­мехам.

Энтропия как мера степени неопределенности состояния физической системы

Любое сообщение, с которым мы имеем дело в теории инфор­мации, представляет собой совокупность сведений о некоторой физической системе. Средства измерений предназначаются для по­лучения измерительной информации и обладают, таким образом, информационными характеристиками. При их нахождении исхо­дят из того, что измеряемая величина обладает неопределенностью до тех пор, пока не произведено ее измерение. Степень неопреде­ленности зависит от ряда факторов.

(1)

 

Рассмотрим некоторую систему X, которая может принимать конечное множество состояний: хи х2, ..., хп с вероятностями p1, р2, ..., pп, где

 

— вероятность того, что система X примет состояние xi (симво­лом обозначается событие: система находится в состоянии хi). Очевидно, , как сумма вероятностей полной группы независимых событий.

В качестве меры априорной неопределенности системы X (из­меряемой дискретной случайной величины X) в теории информа­ции применяется специальная характеристика, называемая энтро­пией.

Энтропией системы (измеряемой величины) называется сумма произведений вероятностей различных состояний системы на ло­гарифмы этих вероятностей, взятая с обратным знаком:

(2)

 

 

где log — знак двоичного логарифма.

Знак минус перед суммой ставится для того, чтобы энтропия была положительной: вероятности pi меньше единицы и их лога­рифмы отрицательны.

Непрерывная измеряемая величина X априори имеет неопре­деленность, характеризуемую значением энтропии

(3)

 

,

где f(x) — плотность распределения величины X.

Энтропия обращается в нуль, когда одно из состояний систе­мы достоверно (вероятность равна единице), а другие — невоз­можны (вероятности равны нулю).

Если рассмотреть случайную дискретную величину X, которая имеет п равновероятных значений, то вероятность каждого из них будет равна pi=1/и

.

Таким образом, энтропия системы с равновозможными состоя­ниями равна логарифму числа состояний. При увеличении числа состояний энтропия увеличивается.

Энтропия обладает свойством аддитивности: когда несколько независимых систем объединяются в одну, их энтропии складыва­ются: Н (X, Y)=H (X)+H (Y).

Единицы измерения энтропии зависят от выбора основания ло­гарифма. При использовании десятичных логарифмов энтропия определяется в так называемых десятичных единицах (дит). В слу­чае двоичных логарифмов энтропия выражается в двоичных еди­ницах (бит). На практике удобнее всего пользоваться логариф­мами при основании 2, поскольку при этом достигается согласие с применяемой в электронных цифровых вычислительных маши­нах двоичной системой счисления.

(4)

 

Вычисление энтропии по формуле (2) можно несколько уп­ростить, если ввести в рассмотрение функцию

 

Формула (2) примет вид:

(5)

 

.

Функция η(р) табулирована.

(6)

 

Существует  понятие  условной  энтропии.   Пусть  имеются  две зависимые системы X и Y. Предположим, что система X приняла состояние хi. Обозначим p(yi/xi) условную вероятность того,    что система Y примет состояние yi при условии, что система X нахо­дится в состоянии хi:

.

Условную энтропию при проведении измерений можно рассмат­ривать как меру уменьшения неопределенности системы X, имею­щей до измерения энтропию Н(х), а после измерения H(x/xi), т. е. Iх = Н(Х)H(X/xi), где хi — результат измерения.

Определим условную энтропию системы Y как энтропию при условии, что система X находится в состоянии хi:

(7)

 

 

где m – число состояний системы Y, или

(8)

 

 

Условная энтропия зависит от того, какое состояние xi приняла система X. Полная энтропия системы Y будет равна:

(9)

 

,

где п — число состояний системы X.

Рассмотрим пример. Поскольку результат измерений непосред­ственно зависит от значения погрешности Δ измерений, включающей в основном погрешность средства измерения, то в соответст­вии с (3) и (6) условная энтропия будет равна:

(10)

 

,

где f(Δ) — плотность распределения погрешности измерений; хц— результат измерения.

В случае нормального закона распределения погрешности Δ измерений при среднем квадратическом отклонении σх условная энтропия после несложных вычислений с помощью формулы (10) составит

 

где е — основание натуральных логарифмов.

Таким образом, чем больше погрешность измерений, представ­ляемая средним квадратическим отклонением, т. е. средней квадратической погрешностью измерений, тем больше значение Н(х/хи) и, следовательно, тем меньше уменьшится неопределен­ность системы Iх после проведения измерений.

Энтропия и информация

Рассмотрим некоторую систему X, над которой производится измерение, и оценим информацию, получаемую в результате того, что состояние системы X становится полностью известным (по­грешность измерений равна нулю). До проведения измерений априорная энтропия системы была Н(Х), после измерений энтро­пия стала равной нулю, если в результате измерения мы нашли истинное значение величины Y. Обозначим Ix информацию, получа­емую в результате измерений. Она равна уменьшению энтропии:

Ix=H(X) – H(X/xи) = 0 или

Ix=H(X),

т. е. количество информации, приобретаемое при полном выясне­нии состояния некоторой физической системы, равно энтропии этой системы.

С учетом формулы (2):

(11)

 

,

где . Формула (11) означает, что информация Ix есть осредненное по всем состояниям системы значение логариф­ма вероятности состояния с обратным знаком.

(12)

 

Действительно, для получения Ix каждое значение log pi (ло­гарифм вероятности i-го значения) со знаком минус множится на вероятность этого состояния и все такие произведения складыва­ются. Естественно, каждое отдельное слагаемое — log pi следует рассматривать как частную информацию, получаемую от отдель­ного измерения, состоящего в том, что система X находится в со­стоянии xiОбозначим эту информацию Ixi.

 

Тогда информация 1Х представится как средняя  (или полная) информация, получаемая от всех возможных отдельных измере­ний с учетом их вероятностей.

Так как все числа рi не больше единицы, то как частная ин­формация Ixi, так и полная Ix не могут быть отрицательными.

Если все возможные состояния системы одинаково вероятны 1 = р2 = ... = pn = 1/n), то частная информация от каждого отдельного измерения Ixi = - log p = log n равна средней (полной) информации:

(13)

 

.

Приведем пример. Производится п независимых измерений. Вероятность отсутствия грубых погрешностей при каждом изме­рении равна р. После k-го измерения (1k<n) производится про­верка, позволяющая определить наличие или отсутствие грубой погрешности. Если она есть, измерения прекращаются. Опреде­лить k из условия, что количество информации, получаемое про­веркой, было максимально.

Рассмотрим состояние физической системы Хk, определяемое достоверностью проведенных k измерений (без грубых погрешно­стей) параметра системы. Возможные состояния системы Хk будут:

x1 — в результатах измерений отсутствует грубая погрешность;

х2 — в результатах измерений есть хотя бы одна грубая по­грешность.

Вероятности состояний даны в таблице 1.

Таблица 1

xi

x1

x2

p1

1 – (1 – p)k

(1 – p)k

Информация, получаемая проверкой состояния системы Хk, будет максимальна, когда оба состояния x1 и x2 равновероятны, т. е

,

откуда

.

Например, при р = 0.2, получаем = 1 / 0,3219 ≈ 3.

Таким образом, проверку отсутствия грубой погрешности в указанных условиях следует осуществлять после проведения трех измерений.

Применение основных положений теории информации для характеристики процесса измерения

Точность измерений обычно характеризуется числовым значе­нием полученных при измерении или априорно известных погреш­ностей измерений.

Пусть в результате однократного измерения значения изме­ряемой величины X результат измерения  равен хи. Если известно, что средство измерения имеет случайную абсолютную погреш­ность в пределах ±Д, то не следует утверждать, что действитель­ное значение измеряемой величины равно хи. Можно лишь утверж­дать, что это значение лежит в полосе хи±Δ. Незнание истинного значения измеряемой величины сохраняется после получения ре­зультата измерения xи, но теперь оно характеризуется не исход­ной энтропией Н(Х), а лишь энтропией разброса действительного значения X величины относительно полученного результата хи. Эта условная энтропия Н(Х/хи) определяется погрешностью дан­ного средства измерения.

В теории информации факт проведения измерений в диапазоне от Хн до Хв означает, что при использовании данного средства измерения может быть получен результат измерений хи только в пределах от Хн до Хв. Другими словами, вероятность получения значений хи, меньших Хн и больших Хв, равна нулю. Вероятность же получения результата хи в пределах от Хн до Хв равна единице. Если предположить, что плотность распределения различных значений измеряемой величины вдоль всей шкалы средства изме­рения одинакова, то с точки зрения теории информации наше зна­ние о значении измеряемой величины до измерения может быть

 
   


представлено графиком распределения плотности f1(x) вдоль шка­лы значений (рис. 1).

Поскольку вероятность получения результата измерений хи в пределах от Хн до Хв равна единице, то площадь под кривой f1(x) должна быть равна единице. При равномерном распределении плотности вероятности:

.

После проведения измерения из-за наличия погрешности сред­ства измерения (±Δ) действительное значение измеряемой ве­личины X лежит в пределах от Хи— Δ до Xи+ Δ, т. е. в пределах участка 2Δ.

С информационной точки зрения интерпретация результата из­мерения состоит в том, чтобы область неопределенности прости­ралась от Хн до Хв и характеризовалась сравнительно небольшой плотностью распределения f1(x). После измерения неопределен­ность уменьшилась до величины 2Δ, а плотность распределения увеличилась до величины f2(x) с учетом того, что Δ<<(ХвХн), что и отражено на рис.1.

Получение какой-либо информации об интересующей нас ве­личине заключается в конечном счете в уменьшении неопределен­ности ее значения, что и следует из (10).

(14)

 

Определим количество информации в общем случае как

Ix=H(X) – H(X/xи),

где Н(Х) — априорная энтропия; Н(Х/хи) — условная энтропия.

В нашем примере с равномерным законом распределения

;

.

(15)

 

Полученное количество информации:

.

Данная операция, которая обычно используется при опреде­лении относительной погрешности измерения, характеризует один из основных приемов анализа информационных свойств измере­ний.

Энтропийное значение погрешности измерений

Как было показано, с точки зрения теории информации коли­чество информации Iх, получаемое в результате любого измерения, соответствует уменьшению неопределенности «познания» измеряе­мой величины и равно разности энтропии до и после проведения измерений [формула (14)]. При этом априорная энтропия Н(Х) зависит только от закона распределения различных значений из­меряемой величины, рассматриваемой как случайная. А условная энтропия Н(Х/Хи) равна энтропии закона распределения погреш­ностей измерений.

При исследовании средства измерения удобнее оперировать энтропийным значением погрешности измерений, которое одно­значно определяет ограничение процесса, связанного с измерени­ем параметра (параметров) объекта измерений.

Энтропия погрешности измерения рав­на логарифму интервала неопределенности. Длина этого интерва­ла может быть выражена также через значение среднего квадратического отклонения погрешности измерения. Для равномерного распределения дисперсия:

 

Отсюда СКО .

Таким образом, , а    интервал      неопределенности . Чем меньше СКО, тем меньше неопределенность результатов измерений.

Условная энтропия равна:

(16)

 

.

За энтропийное значение погрешности измерении принимается наибольшее ее значение при равномерном законе распределения, которая «вносит» такое же дезинформационное действие, как и погрешность с данным законом распределения. Так, если погреш­ность измерений распределена нормально, то энтропийное значе­ние ΔЭ погрешности:

.

Зависимость между энтропийным и средним    квадратическим начениями погрешности имеет вид:

,

где kЭ — энтропийный коэффициент.

Для нормального закона распределения погрешностей измере­ний kЭ ≈ 2,07, для равномерного закона kЭ = ΔЭ / σx ≈ 1,73. Сравнение значений энтропийных коэффициентов нормально и равномерно распределенных погрешностей измерений позволяет сделать вы­вод о том, что при одинаковых значениях СКО погрешность  (при нормальном законе распределения)   вносит большее дезинформа­ционное действие, чем погрешность, распределенная равномерно.

Практические методы определения энтропийного значения погрешности измерений

Любые методы определения или нормирования точности сред­ства измерения сводятся к установлению соответствия с погреш­ностью измерений.

С точки зрения информационного подхода к измерениям удоб­но сравнивать средства измерений по количеству информации, по­лучаемой при измерении, а, следовательно, по энтропийному зна­чению погрешности измерений.

Метод определения погрешности аналого-цифровых пре­образователей. Рассматриваемый ниже метод распространяется на любые аналого-цифровые преобразователи, которые характе­ризуются наличием аналогового параметра на входе и цифрового кода на выходе. К их числу относятся аналого-цифровые преоб­разователи, цифровые преобразователи угла, линейных перемеще­ний и т. д.

Рассмотрим класс аналого-цифровых преобразователей — циф­ровые преобразователи угла (ЦПУ). Чтобы применить энтропий­ный критерий точности к ЦПУ, необходимо по возможности про­анализировать структуру погрешностей и их источников.

Результирующая погрешность ЦПУ без учета влияния внешних факторов складывается из погрешности кванто­вания Δкв и инструментальной погреш­ности Δ1 (погрешности воспроизведе­ния уровней квантования). На рис. 2 приведена структура погрешности та­кого преобразователя.

Для ЦПУ с идеальной шкалой име­ет место только погрешность кванто­вания Δкв, в реальном же ЦПУ грани­цы квантов реальной шкалы могут быть пространственно сдвинуты относительно идеальной шкалы, что порождает инструментальную погрешность Δ1.

Погрешность квантования для N-разрядного ЦПУ является случайной величиной с равномерной плотностью распределения в диапазоне ±g/2, где g = 2n 2-N — квант младшего разряда ЦПУ (в радианах). Эту величину называют максимальной информаци­онной способностью ЦПУ. В случае N-разрядного ЦПУ она со­ставляет N бит.

Пусть требуется определить информационную способность ЦПУ с учетом инструментальной погрешности Δ1. Искомая величина лежит в пределах от 0 до N бит, причем она равна N при отсутствии инструментальной погрешности Д1 (идеальный ЦПУ) и равна 0, если цифровой код на выходе ЦПУ не зависит от значе­ния угла на его входе.

Информационная способность ЦПУ при наличии инструмен­тальной погрешности Δ1 равна:

I = NΔH,

где N — информационная способность для идеального ЦПУ; ΔН— потеря информации за счет инструментальной погрешности Δ1 или энтропия закона распределения инструментальной погрешности.

Таким образом, задача определения информационной способ­ности ЦПУ сводится к расчету энтропийного значения погрешно­сти Δ1. Значение ΔН можно найти аналитически:

,

где f(Δ) — плотность распределения инструментальной погреш­ности Δ1. Можно показать, что значение ΔН не изменится при на­личии постоянной составляющей погрешности преобразования (постоянного сдвига значения угла, соответствующего выходному коду, относительно поданного на вход ЦПУ значения угла). Пусть сдвиг значения угла составляет φ радиан, тогда

.

Отсюда следует: значение постоянной составляющей не сказы­вается на мере неопределенности. С точки зрения измерительного преобразования важно лишь абсолютное значение погрешности, полученной в результате единичного преобразования. При одно­кратном измерении нет возможности набрать статистические дан­ные и определить постоянную составляющую погрешности.

Чтобы использовать энтропийный подход, следует рассматри­вать каждое преобразование как независимое и определять поте­рю информации ЦПУ при единственном преобразовании. Это воз­можно, если рассматривать вклад каждого из разрядов ЦПУ в результирующую погрешность отдельно, определяя количество ин­формации, которое теряет каждый разряд при очередном преоб­разовании, а затем найти среднее значение по нескольким сеансам измерений.

Этот подход позволяет решить задачу учета влияния постоян­ной составляющей погрешности на основе энтропийной оценки.


Расчетная часть

Исходные данные: Маятник часов при температуре t0 имеет длину l0, и часы идут точно. Коэффициент линейного расширения материала маятника α = 1,85 ∙ 10-5. Насколько будут отставать или убегать часы, если температура окружающего воздуха будет на 10˚C выше t0? (При выводе формулы следует учесть малость значений коэффициента линейного расширения материала маятника).

Решение:

Одному полному обороту часовой стрелки соответствует вполне определенное число N колебаний.

За сутки часовая стрелка на обычных часах сделает два полных оборота:

.

При изменении температуры на t0˚C длина маятника будет l = l0 (1 + αr), а период колебаний изменится на:

.

За сутки часы отстанут (или убегут) на время:

.

Ответ. 8 секунд.


Выводы

1)                       «Основная идея ... состоит в том, что с инфор­мацией можно обращаться почти так же, как с такими физически­ми величинами, как масса или энергия».

2)                       Энтропией системы (измеряемой величины) называется сумма произведений вероятностей различных состояний системы на ло­гарифмы этих вероятностей, взятая с обратным знаком.

3)                       При исследовании средства измерения удобнее оперировать энтропийным значением погрешности измерений, которое одно­значно определяет ограничение процесса, связанного с измерени­ем параметра (параметров) объекта измерений.


Список литературы

1)                Кузнецов В.А., Ялунина Г.В. Основы метрологии – М.: Издательство стандартов, 1995 – 280 с.

2)                Сергеев А.Г.  Метрология – М.: Логос, 2005 г. – 272 с.

3)                Радкевич Я.М., Лактионов Б.И. Метрология, стандартизация и взаимозаменяемость. – М.: Издательство Государственного горного университета, 1996 – 212 с.

 

 


Ключевые слова -


ФНГ ФИМ ФЭА ФЭУ Яндекс.Метрика
Copyright 2021. Для правильного отображения сайта рекомендуем обновить Ваш браузер до последней версии!