О САЙТЕ
Добро пожаловать!

Теперь вы можете поделиться своей работой!

Просто нажмите на значок
O2 Design Template

ФЭА / АИТ / КУРСОВАЯ РАБОТА по дисциплине «Метрология, стандартизация и сертификация» на тему: «ЭНТРОПИЯ И ЕЁ СВОЙСТВА»

(автор - student, добавлено - 26-04-2014, 12:41)

СКАЧАТЬ:  kursovaya-rabota-po-metrologii.zip [191,48 Kb] (cкачиваний: 173)

 

 

 

КУРСОВАЯ РАБОТА

по дисциплине «Метрология, стандартизация и сертификация»

на тему:

 «ЭНТРОПИЯ И ЕЁ СВОЙСТВА»

 

 


СОДЕРЖАНИЕ

 

ВВЕДЕНИЕ. 3

ТЕОРЕТИЧЕСКАЯ ЧАСТЬ. 5

1. Понятие случайной величины.. 5

2. Числовые характеристики случайных величин. 7

3. Основные виды законов распределения случайных величин. 8

4. Энтропия как мера неопределённости состояния случайной величины   10

5. Энтропия и информация. 13

6. Применение теории информации для характеристики процессов измерения  14

7. Энтропийное значение погрешности измерений. 17

8. Свойства энтропии. 19

РАСЧЁТНАЯ ЧАСТЬ. 20

ВЫВОДЫ.. 23

СПИСОК ЛИТЕРАТУРЫ.. 24

ПРИЛОЖЕНИЕ. 25

 


ВВЕДЕНИЕ

 

Первоначально метрология возникла как наука о различных мерах и соотношениях между ними. Слово метрология образовано из двух греческих слов: μετρον – мера и λογος – учение или наука и в буквальном переводе означает – учение о мерах.

Метрология в её современном понимании – наука об измерениях, методах и средствах обеспечения их единства и требуемой точности. Реальная жизнь, вместе с тем, показывает, что метрология – не только наука, но и область практической деятельности.

Проблемы, которые решаются в метрологии, определены следующими направлениями: общая теория измерения, единицы физических величин и их системы, методы и средства измерений, методы определения точности измерения, основы обеспечения единства измерения и единообразия средств измерений, методы передачи размеров единиц эталонов и образцовых средств измерений к рабочим средствам измерений.

Под измерениями понимают способ количественного познания свойств физических объектов, обладающих разнообразными физическими свойствами, количество которых неограниченно. Такие свойства получили название физических величин.

Физические величины различают в количественном и качественном отношении. Качественная сторона определяет «вид» величины, а количественная – её размер. Таким образом, физическая величина – свойство, общее в качественном отношении для множества объектов, и индивидуальное в количественном отношении для каждого из них. Размер физической величины существует объективно, вне зависимости оттого, что мы знаем о нём.

Измерение – совокупность операций, выполняемых с помощью технического средства, хранящего единицу величины, позволяющего сопоставить измеряемую величину с её единицей и получить значение величины. Это значение называют единицей измерения. Результат измерения практически всегда отличается от истинного значения физической величины. Истинное значение физической величины найти невозможно. Поэтому  цель измерения состоит не в том, чтобы узнать его, а в том чтобы оценить его с приемлемой достоверностью.

Отличие результата измерения от истинного значения физической величины объясняется несовершенством средств измерений, несовершенством способа применения средств измерения, влиянием условий выполнения измерения, участием человека с его ограниченными возможностями.

Измерения играют огромную роль в современном обществе. Наука, техника и промышленность не могут существовать без них. При разработке, производстве (в технологических процессах), эксплуатации технических систем, контроле состояния окружающей среды, медицине, торговле, учёте расходования материально-технических ресурсов и других видах деятельности общества измерения были, есть и будут одними из важнейших условий достижении поставленных целей. Каждую секунду в мире производятся миллиарды измерительных операций, результаты которых используются для обеспечения каче­ства и технического уровня выпускаемой продукции, безопасной и безаварийной работы транспорта, обоснования медицинских и эко­логических диагнозов, анализа информационных потоков.

Метрология воедино связывает теорию и практику в любых отраслях знаний. Как нельзя обойтись без математики в теоретиче­ских расчётах, так нельзя обойтись без метрологии при реализации этих расчётов. Это подметил и четко сформулировал Д. И. Менделеев: «Точная наука немыслима без меры».

 

ТЕОРЕТИЧЕСКАЯ ЧАСТЬ

 

1. Понятие случайной величины

Результаты измерений многих физических величин, особенно, при проведении серии многократных повторных измерений величин динамически изменяющихся процессов, имеют случайный характер, причем, случайный – в вероятностно-статистическом смысле. Это происходит из-за неизбежного влияния на результаты измерений многих основных и не основных факторов, случайно изменяющихся по величине и направлению. Поэтому такие физические величины называют случайными величинами. В общем случае характер изменения случайных величин подчиняется определенным закономерностям, а результаты измерений характеризуются величинами определенных показателей. Следовательно, случайной величиной называют такую величину X, которая в результате измерения может принять одно из множества возможных значений x1, x2…, xn, причём, заранее не известно, – какое именно. Дискретной случайной величиной называют случайную величину отдельные значения, которые можно пронумеровать. Непрерывной называют случайную величину, возможные значения которой заполняют некоторый промежуток.

Поскольку результаты любых измерений являются величинами случайными, для получения достоверных данных, а тем более, делать научно обоснованные выводы, эти результаты следует обрабатывать, применяя хорошо разработанные методы теории вероятностей и математической статистики. Для того чтобы полностью охарактеризовать случайную величину, необходимо не только указать, какие значения она может принять, но и как часто, то есть с какими вероятностями p1p2, …, pn она принимает эти значения. Следовательно, нужно задать распределение этой случайной величины. Описание же совокупности значений случайной величины с указанием вероятностей соответствующих этим значениям называется законом распределения этой величины.

Общей формой закона распределения, пригодной как для дискретной, так и для непрерывной случайных величин является задание функции распределения F(x).

Функция распределения имеет следующие свойства:

1) ;

2) .

Плотностью вероятности непрерывной случайной величины называют производную функции распределения (рис. 3):

.                                                                                (1.1)

Вероятность попадания дискретной случайной величины Х в интервал (a; b) будет равна:

         .                                                        (1.2)

Для непрерывной случайной величины:

         .                                                             (1.3)

Геометрически эта вероятность равна площади криволинейной трапеции ограниченной графиком плотности распределения, прямыми  и  и осью x. Поэтому по форме кривой плотности вероятности можно судить о том, какие значения случайной величины X наиболее вероятнее, какие менее.

Плотность вероятности обладает следующими свойствами:

1) ;

2) .

Также следует отметить, что для любой дискретной случайной величины .

 

 

 

2. Числовые характеристики случайных величин

Математическим ожиданием  дискетной случайной величины Х называется сумма произведений возможных её значений на соответствующие вероятности:

.                                                                          (2.1)

Математическим ожиданием непрерывной случайной величины Х называется определённый интеграл от произведения действительного переменного на плотность вероятности в пределах от  до :

.                                                                          (2.2)

Математическое ожидание является числовой характеристикой положения и измеряется в тех же единицах что и сама случайная величина.

Дисперсией случайной величины Х называется сумма квадратов отклонений случайной величины от её математического ожидания на соответствующие вероятности:

.                                                                 (2.3)

Для непрерывной случайной величины дисперсия определится как:

.                                                             (2.4)

Средним квадратическим отклонением случайной величины называют квадратный корень от дисперсии:

.                                                                                   (2.5)

Дисперсия и среднее квадратическое отклонение являются мерами рассеивания случайной величины. Дисперсия выражается в квадратах соответствующих единиц измерения. Среднее квадратическое отклонение измеряется в тех же единицах что и сама случайная величина. Чаще в качестве меры рассеивания случайной величины используют среднее квадратическое отклонение.

 

 

3. Основные виды законов распределения случайных величин

Существует несколько видов законов распределения непрерывной случайной величины. Рассмотрим два наиболее часто встречающихся из них.

1) Нормальный закон распределения.

Нормальный закон распределения величины Х представляется плотностью вероятности (рис. 2, a):

.                                                                       (3.1)

Функция распределения при нормальном законе распределения не выражается через элементарные функции, для её вычисления пользуются таблицами функции Лапласа в виде (рис. 2, b)

.                                                                           (3.2)

 

 

 
   

 

 

 

 

 

 

 


Рис. 2. Нормальный закон распределения

 

2) Равномерный закон распределения

Случайная величина Х, распределённая равномерно на интервале от а до b, имеет постоянную плотность распределения на этом интервале, и вне его равна нулю (рис. 3):

 
   

 

 

 

 

 

 

 

 

 


Рис. 3. Равномерный закон распределения

 

                                                                      (3.3)

Из условия , поскольку площадь, ограниченная кривой плотности распределения, равна единице, получим

.                                                                                   (3.4)

Функция распределения выражается через интеграл плотности вероятности:

                                                                    (3.5)

 

 

4. Энтропия как мера неопределённости состояния случайной величины

В качестве меры априорной неопределённости случайной физической величины применяется специальная характеристика, называемая энтропией.

Энтропией измеряемой величины Х называется сумма произведений вероятностей различных состояний случайной величины на логарифмы этих вероятностей, взятая с обратным знаком:

,                                                                (4.1)

где log – знак двоичного логарифма.

Знак минус перед суммой ставится для того, чтобы энтропия была положительной: вероятности pi меньше единицы и их логарифмы отрицательны.

Непрерывная измеряемая величина Х имеет неопределённость, характеризуемую значением энтропии

         .                                                        (4.2)

Вычисление энтропии можно несколько упростить, если ввести в рассмотрение функцию

.

Тогда энтропия случайной величины X равна

.                                                                        (4.3)

Функция  табулирована (см. приложение).

Существует понятие условной энтропии. Пусть имеются две независимые случайные величины Х и Y. Предположим, что случайная величина Х приняла состояние хi. Обозначим  условную вероятность того, что случайная величина Y примет состояние уi при условии, что случайная величина Х находится в состоянии хi:

.                                                 (4.4)

Условную энтропию при проведении измерений можно рассматривать как меру уменьшения неопределённости случайной величины Х, имеющей до измерения энтропию , а после измерения , т. е. , где хi – результат измерения.

Определим условную энтропию случайной величины Y как энтропии при условии, что случайная величина Х находится в состоянии xi:

,                                        (4.5)

где m число состояний случайной величины Y, или

.                                                          (4.6)

Условная энтропия зависит от того, какое состояние хi приняла случайная величина Х. Полная энтропия случайной величины Y будет равна

,                                            (4.7)

где n – число состояний случайной величины Х.

Поскольку результат измерений непосредственно зависит от значения погрешности Δ измерений, включающей в основном погрешность средства измерения, то в соответствии (4.2) и (4.4) условная энтропия будет равна

,                                                          (4.8)

где  – плотность распределения погрешности измерений;  – результат измерений.

В случае нормального закона распределения погрешности Δ измерений при среднем квадратическом отклонении условная энтропия после несложных вычислений с помощью формулы составит

.

Таким образом, чем больше погрешность измерений, представляемая средним квадратическим отклонением, т. е. средней квадратической погрешностью измерений, там больше значение  и, следовательно, тем меньше уменьшится неопределённость случайной величины Ix после проведения измерений.

Энтропия является основным понятием теории информации, которая основана на том, что при произведении измерений получается некоторая информация. Основными её задачами являются перевод полученной при измерении информации на язык специальных символов или сигналов, отыскание наиболее экономичных методов кодирования, позволяющих передать информацию с помощью минимального количества символов. Чтобы решить подобные задачи, нужно научиться измерять количественно объём передаваемой или хранимой информации, пропускную способность каналов связи и их чувствительность к помехам.

 

 

5. Энтропия и информация

Очевидно, что чем больше неопределённость случайной величины, тем больше количества информации требуется для её описания. Если до проведения измерений априорная энтропия измеряемой величины была , а после измерений она стала равной . Обозначим Ix информацию, получаемую в результате измерений. Она равна уменьшению энтропии:

         .                                                               (5.1)

Если в результате измерений мы нашли истинное значение измеряемой величины, то энтропия стала равной нулю, отсюда

         ,

т. е. количество информации, приобретаемое при полном выяснении состояния некоторой физической величины, равно энтропии этой системы.

С учётом формулы (4.1):

                   .                                                                    (5.2)

Формула (5.2) означает, что информация  есть осреднённое по всем состояниям случайной величины значение логарифма вероятности состояния с обратным знаком.

Действительно, для получения  каждое значение  (логарифма вероятности i-го значения) со знаком минус множится на вероятность этого состояния и все такие произведения складываются. Естественно каждое отдельное слагаемое –  следует рассматривать как частную информацию, получаемую от отдельного измерения, состоящего в том, что случайная величина находиться в состоянии xi. Обозначим эту информацию .

.                                               (5.3)

Тогда информация  представится как средняя (или полная) информация, получаемая от всех возможных отдельных измерений с учетом их вероятностей.

Так как все числа  не больше единицы, то как частная информация , так и полная  не могут быть отрицательными.

Если все возможные состояния случайной величины равновероятны, то частная информация от каждого отдельного измерения равна полной средней (полной) информации:

,

.

 

 

6. Применение теории информации для характеристики процессов измерения

Точность измерения обычно характеризуется числовым значением полученных при измерении или априорно известных погрешностей измерений.

Пусть в результате однократного измерения значения измеряемой величины Х результат измерения равен хи. Если известно, что средство измерения имеет случайную абсолютную погрешность в пределах , то не следует утверждать, что действительное значение измеряемой величины равно xи. Можно лишь утверждать, что это значение лежит в полосе . Незнание истинного значения измеряемой величины сохраняется после получения результата хи, но теперь оно характеризуется не исходной энтропией , разброса действительного значения X величины относительно полученного результата хи. Эта условная энтропия  определяется погрешностью данного средства измерения.

В теории информации факт проведения измерений в диапазоне от хн до хв означает, что при использовании данного средства измерения может быть получен результат измерений хи только в пределах от хн до хв. другими словами, вероятность получения значений хи, меньших хн и больших хв равна нулю. Вероятность же получения результата хи равна единице.

Если предположить, что плотность распределения различных значений измеряемой величины вдоль всей шкалы средства измерения одинакова, то с точки зрения теории информации наше знание о значении измеряемой величины до измерения может быть представлено графиком плотности распределения плотности  вдоль шкалы значений (рис. 4):

Поскольку вероятность получения результата измерений хи в пределах от хн до хв равна единице, то площадь под кривой  должна быть равна единице. При равномерном распределении плотности вероятности

.

 

 

 

 

 

 

 

 

 

 

 


Рис 4. Априорная плотность распределения данного измерительного прибора

После проведения измерения из-за наличия погрешности средства измерения  действительное значение измеряемой величины Х лежит в пределах от  до , т. е. в пределах участка .

С информационной точки зрения интерпретация результата измерения состоит в том, чтобы область неопределённости простиралась от хн до хв и характеризовалась сравнительно небольшой плотностью распределения . После измерения неопределённость уменьшилась до величины  с учетом того, что , что и отражено на рис. 4.

Определим количество информации в общем случае как

,

где  – априорная энтропия,  – условная энтропия.

В нашем примере с равномерным законом распределения

;

.

Полученное количество информации

.

Данная операция, которая обычно используется при определении относительной погрешности измерения, характеризует один из основных приёмов анализа информационных свойств измерений.

 

 

 

7. Энтропийное значение погрешности измерений

Как было показано, с точки зрения теории информации количество информации , получаемое в результате любого измерения, соответствует уменьшению неопределённости выяснения состояния некоторой измеряемой величины и равно разности энтропии до и после проведения измерений [формула (5.1)]. При этом априорная энтропия  зависит только от закона распределения различных значений некоторой случайной величины. А условная энтропия  равна энтропии закона распределения погрешностей измерений.

При исследовании средства измерения удобнее оперировать энтропийным значением погрешности измерений, которое однозначно определяет ограничение процесса, связанного с измерением параметра (параметров) объекта измерений.

Энтропия погрешности измерения рана логарифму интервала неопределённости. Длина этого интервала может быть выражена также через значение среднего квадратического отклонения погрешности измерения. Для равномерного распределения дисперсия

 

Так как

.

Отсюда среднее квадратическое отклонение

.

Таким образом, , а интервал неопределённости . Чем меньше среднее квадратическое отклонение, тем меньше неопределённость результатов измерений.

Условная энтропия равна

.

За энтропийное значение погрешности измерений принимается наибольшее её значение при равномерном законе распределения, которая «вносит» такое же дезинформационное действие, как и погрешность с данным законом распределения.

Так, если погрешность измерений распределена нормально, то энтропийное значение погрешности

.

Зависимость между энтропийным и средним квадратическими значениями погрешности имеет вид

,

где kэ – энтропийный коэффициент.

Для обычного закона распределения погрешностей измерений , для равномерного закона . Сравнение значений энтропийных коэффициентов нормально и равномерно распределённых погрешностей измерений позволяет сделать вывод о том, что при одинаковых значениях среднего квадратического отклонения погрешность (при нормальном законе распределения) вносит большее дезинформационное действие, чем погрешность, распределённая равномерно.

 

8. Свойства энтропии

1) Энтропия обращается в нуль, когда одно из состояний системы достоверно (вероятность равна единице), а другие – невозможны (вероятности равны нулю).

2) Если рассмотреть случайную дискретную величину Х, которая имеет n равновероятных значений, то вероятность каждого из них будет равна  и

         .

Таким образом, энтропия системы с равновозможными состояниями ровна логарифму числа состояний. При увеличении числа состояний энтропия увеличивается.

3) Энтропия обладает свойством аддитивности: когда несколько независимых систем объединяются в одну, их энтропии складываются:

         .

4) Единицы измерения энтропии зависят от выбора основания логарифма. При использовании десятичного логарифма энтропия определяется в так называемых десятичных единицах (дит). В случае двоичных логарифмов энтропия выражается в двоичных единицах (бит). На практике удобнее всего пользоваться логарифмами при основании 2, поскольку при этом достигается согласие с применяемой в электронных цифровых вычислительных машинах двоичной системой счисления.


 

РАСЧЁТНАЯ ЧАСТЬ

 

Задание:

При отсутствии фазометра можно измерить cosφ (коэффициент мощности) косвенно – с помощью ваттметра, амперметра и вольтметра. Определить погрешность оценки cosφ двигателя, если имеется ваттметр, амперметр и вольтметр класса точности 2,5.

Решение:

1) Построим схему подключения приборов:

 

 

 

2) Выведем формулу для выражения коэффициента мощности пе­ременного тока через значения силы тока, напряжения и мощности.

Мгновенное значение мощности в цепи переменного тока запишется в виде:

;

Отсюда:

.

Раскрыв  имеем:

.

Все омметры градуируются не по мгновенному, а по среднему значению мощности переменного тока за период колебаний. Учи­тывая, что  получим:

.

Все амперметры и вольтметры градуируются по действующим значениям силы тока и напряжения, которые определяются по фор­му­лам:

 

Подставив последние равенства в выражение для вы­числения средней мощности, получим:

.

3) Относительная погрешность измерения находится по фор­муле:

,

где – измеренное, – действительное значение физи­ческой величины.

Измеренное значение физической величины можем представить в виде:

,

где a – погрешность измеритель­ного прибора.

Тогда погрешность в определении произ­ведения IU за­пишется в виде:

 

,

где a и b – погреш­ности вольтметра и амперметра соответственно.

Формула для вычисления погрешности в определении  за­пи­шется в виде:

,

где с – погрешность ваттметра.

Для худшего случая, когда знаки погрешностей противопо­ложны, и учитывая, что , имеем .

Вольтметр, амперметр и ваттметр в данной задаче имеют класс точности 2,5, отсюда: %.

Тогда получим:

 

Искомое значение погрешности в определении коэффициента мощности будет равно:

.

Ответ: 7,689 %.

 

 

ВЫВОДЫ

 

В результате проведения измерений невозможно определить истинное значение измеряемой величины. Поэтому цель любого измерения состоит не в том, чтобы узнать его, а в том чтобы, оценить его с приемлемой достоверностью, рассматривая его условно как параметр некоторой функции распределения случайной величины, при этом и функция распределения также неизвестна. То есть, цель любого измерения – получение информации об истинном значении измеряемой физической величины.

Для автоматизации процессов измерения нужно научиться измерять получаемую при измерениях информацию, пропускную способность каналов связи и их чувствительность к помехам. Также важной задачей является отыскание наиболее экономных методов кодирования информации, позволяющих передать её с помощью минимального количества символов.

Для решения этих задач была разработана специальная теория информации. Энтропия является основным понятием теории информации, так как не только является мерой априорной неопределённости состояния некоторой случайной величины, но и равна количеству информации приобретаемой при полном выяснении её состояния.

 

 

СПИСОК ЛИТЕРАТУРЫ

 

1)    Кузнецов В.А., Ялунина Г. В. Основы метрологии: Учеб. Посо­бие. – М.: Издательство стандартов, 1995.

2)    Шабалин С.А. Прикладная метрология в вопросах и ответах. – М.: Издательство стандартов, 1990.

3)    Сергеев А.Г., Крохин В. В. Метрология. Учебное пособие. – М.: Издательство «Логос». 2001.

4)    Радкевич Я.М., Лактионов Б.И. Метрология и взаимозаменяемость. – М.: Издательство Московского государственного горного университета. 1995.


ПРИЛОЖЕНИЕ

 

Значения функции

 


Ключевые слова -


ФНГ ФИМ ФЭА ФЭУ Яндекс.Метрика
Copyright 2021. Для правильного отображения сайта рекомендуем обновить Ваш браузер до последней версии!