О САЙТЕ
Добро пожаловать!

Теперь вы можете поделиться своей работой!

Просто нажмите на значок
O2 Design Template

ФЭА / АИТ / КУРСОВАЯ РАБОТА по дисциплине: «Метрология, стандартизация и сертификация» на тему: «Энтропия и её свойства »

(автор - student, добавлено - 16-05-2014, 20:03)

СКАЧАТЬ:  kursach-po-metrologii.zip [62,99 Kb] (cкачиваний: 73)

 

 

КУРСОВАЯ РАБОТА

 

по дисциплине:

 

«Метрология, стандартизация и сертификация»

 

на тему:

«Энтропия и её свойства »

 

 

 

 

 

ЗАДАНИЕ

на курсовую работу по дисциплине

«Метрология, стандартизация и сертификация»

 

 

Тема Энтропия и её свойства.

 

Исходные данные  Вероятность того, что параметры одного из трёх блоков системы управления баллистической ракеты выйдут за время полёта из допусков, равны 0,1;0,2;0,3. Известно, что если из поля допусков выйдут параметры одного блока, то ракета не долетит до цели с вероятностью 0,25, если двух блоков, то 0,4, если трех, то 0,5.

 

Литература

  1. 1.               РадкевичЯ.М., Лактионов Б.И. Метрология, стандартизация и взаимозаменяемость. – М.: Изд-во Московского Государственного горного университета, 1996.
  2. 2.               Кузнецов В.А., Ялунина Г.В. Основы метрологии. – М.: Изд-во стандартов, 1995.
  3. 3.               Проненко В.И., Якирин Р.В. Метрология в промышленности. – Киев: Изд-во Техника, 1979.

 

 

Предоставить следующий материал:

 

  1. Пояснительную записку, включающую: 

а)           Введение; 

б)          Теоретическую часть; 

в)           Расчётную часть; 

г)           Выводы.

 

 

Дата выдачи задания____________________________________________________

    Срок предоставления работы _____________________________________________

    Консультант____________________________________________________________

   Зав. кафедрой_____________________________________________________________

 

 

СОДЕРЖАНИЕ

 

ВВЕДЕНИЕ.. 4

Энтропия как мера степени неопределенности состояния физической системы.. 7

ПРИМЕНЕНИЕ ИНФОРМАЦИОННОЙ ТЕОРИИ ДЛЯ ОЦЕНКИ РЕЗУЛЬТАТОВ И ПОГРЕШНОСТЕЙ ИЗМЕРЕНИЯ. 12

Основные положения теории информации. 12

Энтропийное значение погрешности измерений. 15

Практические методы определения энтропийного значения погрешности измерений. 18

 

Метод определения погрешности аналого-цифровых

преобразователей.. 18

РАСЧЁТНАЯ ЧАСТЬ.. 21

ВЫВОДЫ.. 23

СПИСОК  ЛИТЕРАТУРЫ.. 25

 

 

 

 

 

ВВЕДЕНИЕ

 

Трудно найти понятия более общие для всех наук (не только естественных) и, вместе с тем, иногда носящих оттенок загадочности, чем энтропия и информация. Отчасти это связано с самими названиями. Если бы не звучное название “энтропия” осталась бы с момента первого рождения всего лишь “интегралом Клаузиуса”, вряд ли она бы не рождалась вновь и вновь в разных областях науки под одним именем. Кроме того, ее первооткрыватель Клаузиузус, первым же положил начало применению введенного им для, казалось бы, узкоспециальных термодинамических целей понятия к глобальным космологическим проблемам (тепловая смерть Вселенной). С тех пор энтропия многократно фигурировала в оставшихся навсегда знаменитыми спорах. В настоящее время универсальный характер этого понятия общепризнан и она плодотворно используется во многих областях.

Научно-технический прогресс во всех областях наук, техники, производства и потребления связан с созданием новых видов технических устройств, автоматизированных систем управления и контроля различного назначения. При этом идет процесс электронизации практически любых технических устройств, будь то такие традиционно механические системы, как станки, автомобили или бытовые приборы, как холодильники, стиральные машины и др. Вместе с тем, непрерывно повышаются требования к качеству и надежности функционирования технических устройств, и чем сложнее это устройство, тем труднее достигнуть высокого уровня показателей качества и надежности. Общеизвестно, что обеспечить эти показатели невозможно без проведения измерений десятков, сотен, в ряде случаев тысяч параметров и характеристик технических устройств.

Установлено, что более чем за четыре тысячелетия до новой эры в Вавилоне и Египте уже проводили астрономические измерения. На протяжении всей истории развития науки и техники перед человеком возникало и возникает множество проблем, для решения которых необходимо располагать количественной информацией о том или ином свойстве объектов материального мира (явлении, процессе, теле, веществе, изделии и пр.). Основным способом получения такой информации являются измерения, при правильном выполнении которых находится результат измерения с большей или меньшей точностью, отражающий интересующие свойства объекта познания.

Измерения играют важнейшую роль в жизни человека и являются начальной ступенью познания, которые часто не превышают уровня эмпирических. Здесь очень к месту подходит выражение: «Теория без практики – мертва, практика без теории – слепа». Поскольку критерием истины всегда служит практика (эксперимент), результаты измерений очень часто выступают в качестве критерия истины. Измерения делают представления о свойствах окружающего нас мира более полными и понятными. Без преувеличения можно сказать, что прогресс науки и техники определяется степенью совершенства измерений и измерительных приборов. Итак, измерения служат источником нашего научного и практического познания. По этому поводу великий Макс Планк сказал: «В физике существует только то, что можно измерить». 

Основы отечественной метрологии заложил русский ученый Д.И.Менделеев. Роль и значение измерений Д.И.Менделеев определял так: «В природе мера и вес суть главное орудие познания. Наука начинается с тех пор, как начинают измерять, точная наука немыслима без меры». Зарождение в нашей стране метрологической службы следует отнести к 1842 г., в котором был издан закон о мерах и весах, предусматривающий создание первого в России метрологического учреждения – Депо образцовых мер. В 1893 г. Д.И.Менделеев  основал Главную палату мер и весов, в задачи которой входило не только хранение эталонов и обеспечение поверки по ним средств измерений, но и проведение научных исследований в области метрологии. Затем в стране стали создаваться местные поверочные палаты.

История развития техники электрических измерений связана с именами русских ученых М.В.Ломоносова и Г.В.Рихмана, которые в 40-х годах  XVIII века сконструировали первый в мире электроизмерительный прибор, названный авторами указатель электрической силы.

С каждым новым поколением технических, особенно радиоэлектронных, устройств растут требования к точности измерений их параметров и характеристик. Например, в американской глобальной навигационной космической системе  NAVSTAR для того , чтобы обеспечить кораблям, самолетам и другим подвижным объектам точность определения местонахождения не хуже 20-30 м, предусмотрена установка на борту спутников этой системы квантовых стандартов частоты с точностью до 10-3.близкую к этой точности имеют государственные (национальные) эталоны времени и частоты. Высокие требования к точности измерений предъявляются в ракетно- космической технике. Известно, что 80 % отклонений головных частей ракет от допустимых значений обусловлены незначительными погрешностями измерений при регулировке параметров бортовых и наземных систем.

Таким образом, развитие новых направлений радиотехники и телекоммуникационных систем, бурный рост радиоэлектронной промышленности, внедрение компьютеров, автоматизация производства невозможны без совершенствования метрологического обеспечения и измерительной аппаратуры, создания новых методов измерений и средств контроля. На всех этапах исследования, разработки, производства и эксплуатации радиоэлектронных устройств работа инженеров связана с большим числом измерений радиотехнических величин. От того, насколько правильно и быстро проводятся измерения, зависят сроки разработки, качественные показатели и надежность аппаратуры, а также затраты на ее создание и использование.

 

Энтропия как мера степени неопределенности состояния физической системы

 

Любое сообщение, с которым мы имеем дело в теории информации, представляет собой совокупность сведений о некоторой физической системе. Средства измерений предназначаются для получения измерительной информации и обладают, таким образом, информационными характеристиками. При их нахождении исходят из того, что измеряемая величина обладает неопределенностью до тех пор, пока не произведено ее измерение. Степень неопределенности зависит от ряда факторов.

Рассмотрим некоторую систему X, которая может принимать конечное множество состоянийx1 , x2 , x3 …, xn с вероятностями  p1, p2,, p3 …, pnгде

                                                                            

 - вероятность того, что система  X  примет состояние xi (символом  обозначается событие: система находится в состоянии  xi). Очевидно,, как сумма вероятностей полной группы независимых событий.

В качестве меры априорной неопределенности системы X (измеряемой дискретной случайной величины X) в теории информации применяется специальная характеристика, называемая энтропией.

Энтропия – мера неопределенности некоторой ситуации. Можно также назвать ее мерой рассеяния и в этом смысле она подобна дисперсии. Но если дисперсия является адекватной мерой рассеяния лишь для специальных распределений вероятностей случайных величин, то энтропия не зависит от типа распределения. С другой стороны, энтропия вводится так, чтобы обладать, кроме универсальности и другими желательными свойствами. Так, если некий опыт имеет n равновероятных исходов, а другой опыт m равновероятных исходов, то составной опыт имеет nm таких исходов. Если мы вводим меру неопределенности f , то естественно потребовать, чтобы она была такова, чтобы во-первых, неопределенность росла с ростом числа возможных исходов, а во-вторых, неопределенность составного опыта была равна просто сумме неопределенности отдельных опытов, иначе говоря, мера неопределенности была аддитивной: f(nm)=f(n)+f(m). Именно такая удобная мера неопределенности была введена К. Шенноном: H(X)= —P (Xi) log P (Xi),

где Х – дискретная случайная величина с диапазоном изменчивости N, P(Xi) – вероятность i – го уровня X.

                                                         (*)

                                                        (**)

где индекс i выбран для характеристики произвольного состояния  источника сообщения А, индекс j выбран для характеристики произвольного состояния адресата В.

         Различают понятия частной и общей условной энтропии. Выражения (*) и (**) представляют собой частные условные энтропии.

         Общая условная энтропия сообщения В относительно сообщения А характеризует количество информации, содержащейся в любом символе алфавита, и определяется усреднением по всем символам, т. е. по всем состояниям с учетом вероятности появления каждого из состояний, и равна сумме вероятностей появления символов алфавита на неопределенность, которая остается после того, как адресат принял сигнал

            (1)

         Выражение (1) является общим выражением для определения количества информации на один символ сообщения для случая неравномерных и взаимонезависимых символов. Так как представляет собой вероятность совместного появления двух событий , то формулу (1) можно записать следующим образом:

 

Понятие общей и частной условной энтропии широко используется при вычислении информационных потерь в каналах связи с шумами.

Энтропией системы (измеряемой величины) называется сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взятая с обратным знаком:

                                                                             (2)

где log – знак двоичного логарифма.

Знак минус перед суммой ставится для того, чтобы энтропия была положительной: вероятности  pi  меньше единицы и их логарифмы отрицательны.

 Непрерывная измеряемая величина X априори  имеет неопределенность, характеризуемую значением энтропии

                                                                    (3)

где f(x) – плотность распределения величины X.

Энтропия обращается в нуль, когда одно из состояний системы достоверно (вероятность равна единице), а другие – невозможны (вероятности равны нулю).

Если рассмотреть случайную дискретную величину X, которая имеет n равновероятных значений, то вероятность каждого из них будет равна pi=1/n  и

 

Таким образом, энтропия системы с равновозможными состояниями равна логарифму числа состояний. При увеличении числа состояний энтропия увеличивается.

Энтропия обладает свойством аддитивности: когда несколько независимых систем объединяются в одну, их энтропии складываются:

H(X, Y) = H(X) + H(Y).

Единицы измерения энтропии зависят от выбора основания логарифма. При использовании десятичных логарифмов энтропия определяется в так называемых десятичных единицах (дит). В случае двоичных логарифмов энтропия выражается в двоичных единицах (бит). На практике удобнее всего пользоваться логарифмами при основании 2, поскольку при этом достигается согласие с применяемой в электронных цифровых вычислительных машинах двоичной системой счисления.

Вычисление энтропии по формуле (2) можно несколько упростить, если ввести в рассмотрение функцию                                         (4)

Формула (2) примет вид

                                                                        (5)

Существует понятие условной энтропии. Пусть имеются две зависимые системы X  и  YПредположим, что система X приняла состояние xi. Обозначим p(yi/xi)  условную вероятность того, что система Y примет состояние yi при условии, что система X находится в состоянии xi:

                                                (6)

Условную энтропию при проведении измерений можно рассматривать как меру уменьшения неопределенности системы X , имеющей до измерения энтропию H(x), а после измерения H(x/xi), т.е. Ix=H(X) – H(X/xi),где  xiрезультат измерения.

Определим условную энтропию системы Y как энтропию при условии, что система X находится в состоянии xi:

                     ,          (7)

где m – число состояний системы Y , или

                                                        (8)

Условная энтропия зависит от того, какое состояние xi приняла система X. Полная энтропия системы Y будет равна

                   ,                          (9)

где nчисло состояний системы X.

Рассмотрим пример. Поскольку результат измерений непосредственно зависит от значения погрешности  измерений, включающей в основном погрешность средства измерения, то в соответствии с (3) и (6) условная энтропия будет равна

                                      (10)

где  - плотность распределения погрешности измерений; xи – результат измерения.

Если погрешность измерения распределена равномерно на интервале , то условная энтропия

                    . 

В случае нормального закона распределения погрешности  измерений при среднем квадратическом отклонении  условная энтропия после несложных вычислений с помощью формулы (10) составит

                    ,

где е – основание натуральных логарифмов.

Таким образом, чем больше погрешность измерений, представляемая средним квадратическим отклонением, т.е. средней квадратической погрешностью измерений, тем больше значение H(x/xи) и, следовательно, тем меньше уменьшится неопределенность системы  Ix после проведения измерений.

 

ПРИМЕНЕНИЕ ИНФОРМАЦИОННОЙ ТЕОРИИ ДЛЯ ОЦЕНКИ РЕЗУЛЬТАТОВ И ПОГРЕШНОСТЕЙ ИЗМЕРЕНИЯ.

Основные положения теории информации

 

Основные положения теории информации были разработаны К.Шенноном: «Основная идея ... состоит в том, что с информацией можно обращаться почти также, как с такими физическими величинами, как масса или энергия».

Любая информация, чтобы быть переданной, должна быть соответственным образом «закодирована», т.е. переведена на язык специальных символов или сигналов.

Одной из задач теории информации является отыскание наиболее экономных методов кодирования, позволяющих передать информацию с помощью минимального количества символов. Эта задача решается с учетом наличия или отсутствия искажений (помех) в канале связи.

Другая типичная задача: имеется источник информации (передатчик), непрерывно вырабатывающий информацию, и канал связи, по которому эта информация передается в другую инстанцию (приемник). Какова должна быть пропускная способность канала связи для того, чтобы канал передавал всю поступающую информацию без задержек и искажений?

Чтобы решить подобные задачи, нужно научиться измерять количественно объем передаваемой или хранимой информации, пропускную способность каналов связи и их чувствительность к помехам.

Энтропия и информация

 

Рассмотрим некоторую систему X , над которой производится измерение, и оценим информацию, получаемую в результате того, что состояние системы X становится полностью известным (погрешность измерений равна нулю). До проведения измерений априорная энтропия системы была H(X), после измерений энтропия стала равной нулю, если в результате измерения мы нашли истинное значение величины. Обозначим Ix информацию, получаемую в результате измерений. Она равна уменьшению энтропии

    Ix=H(X) – H(X/xи) = 0      или            Ix=H(X),

т.е. количество информации, приобретаемое при полном выяснении состояния некоторой физической системы, равно энтропии этой системы. Здесь H(X) – безусловная (априорная) энтропия; H(X/xи) – условная (апостериорная, т.е. полученная после измерений) энтропия, т.е. энтропия величины  X  при условии, что получен результат измерения xи.

С учетом формулы (2)

                    ,                                                   (11)

 

где . Формула (11) означает, что информация Ix есть осредненное по всем состояниям системы значение логарифма вероятности состояния с обратным знаком.

Действительно, для получения Ix  каждое значение log pi (логарифм вероятности i-го значения)  со знаком минус множится на вероятность этого состояния,  и все такие произведения складываются. Естественно каждое отдельное слагаемое -  log pi  следует рассматривать как частную информацию, получаемую от отдельного измерения, состоящего в том, что система X  находится в состоянии xi. Обозначим эту информацию Ixi.

                   .                                                                                      (12)

 

Тогда информация Ix представится как средняя (или полная) информация, получаемая от всех возможных отдельных измерений с учетом их вероятностей.

Так как все числа   pi  не  больше единицы, то как частная информация Ixi, так  и полная Ix не могут быть отрицательными.

Если все возможные состояния системы одинаково вероятны (p1=p2=p3=…=pn=1/n), то частная информация от каждого отдельного измерения Ixi = - log  p = log  n   равна  средней (полной) информации

                    .                                         (13)

Приведем пример. Производится  n  независимых измерений. Вероятность отсутствия грубых погрешностей при каждом измерении равна p. После k-го измерения (1<k<n) производится проверка, позволяющая определить наличие или отсутствие грубой погрешности. Если она есть, измерения прекращаются. Определить  k из условия, что количество информации, получаемое проверкой, было максимально.

Рассмотрим состояние физической системы Xk, определяемое достоверностью проведенных k измерений (без грубых погрешностей) параметра системы. Возможные состояния системы  Xk  будут:

x1  -  в  результатах измерений отсутствует грубая погрешность;

x-  в результатах измерений есть хотя бы одна грубая погрешность.

Вероятности состояний даны в табл. 1.

                                                                                Таблица 1

xi

x1

x2

pi

1-(1-p)k

(1-p)k

 

Информация, получаемая проверкой состояния системы Xk, будет максимальна, когда оба состояния  x1  и  x2  будут равновероятны, т.е.

                    ,

откуда

                                 .

Например, при  p=0,2,  получаем  k=1/0,32193.

Таким образом, проверку отсутствия грубой погрешности в указанных условиях следует осуществлять после проведения трех измерений.

 

Энтропийное значение погрешности измерений

 

Как было показано, с точки зрения теории информации количество информации Ix , получаемое  в результате любого измерения, соответствует уменьшению неопределенности  «познания» измеряемой величины и равно разности энтропии до и после проведения измерений. При этом априорная энтропия H(X) зависит только от закона распределения различных значений измеряемой величины, рассматриваемой как случайная. А условная энтропия H(X/xи) равна энтропии закона распределения погрешностей измерений.

При исследовании средства измерения удобнее оперировать энтропийным значением погрешности измерений,  которое однозначно определяет ограничение процесса, связанного с измерением параметра (параметров) объекта измерений.

Энтропия погрешности измерения равна логарифму интервала неопределенности. Длина этого интервала может быть выражена также через значение среднего квадратического отклонения погрешности измерения. Для равномерного распределения дисперсия

 

Но  .   Тогда 

Отсюда СКО .

Таким образом, , а интервал неопределенности . Чем меньше СКО, тем меньше неопределенность результатов измерений.

 

Условная энтропия равна

                   .                                     (14)

За энтропийное  значение погрешности измерений принимается наибольшее ее значение при равномерном законе распределения, которая «вносит» такое же дезинформационное действие, как и погрешность с данным законом распределения. Так, если погрешность измерений распределена нормально, то энтропийное значение   погрешности

                   .

Подобным образом определяется энтропийное  значение погрешности для любого конкретного закона распределения плотности вероятности.

В общем виде зависимость между энтропийным и среднеквадратическим значениями погрешности может быть представлена в виде

                    ,

где kэ – энтропийный коэффициент.

Энтропийный коэффициент kэ  зависит от вида закона распределения плотности вероятностей погрешностей. Для равномерного распределения энтропийный коэффициент

                    ,

а для нормального распределения

                                 .

Сравнение значений энтропийных коэффициентов нормально и равномерно распределенных погрешностей измерений позволяет сделать вывод о том, что при одинаковых значениях СКО погрешность (при нормальном законе распределения) вносит большее дезинформационное действие, чем погрешность, распределенная равномерно.

Некоторые метрологи в области радиотехнических измерений считают энтропийную погрешность более точной и отвечающей современному информационному подходу к характеристике процесса измерения физических величин. Информационный подход позволяет с единых позиций анализировать измерительные устройства как в статическом, так и в динамическом режимах работы, оптимизировать технические характеристики и оценить предельные возможности тех или иных средства измерений.

Однако классические методы оценки погрешности измерений также имеют свои преимущества и по-прежнему широко применяются в метрологии.

 

Практические методы определения энтропийного значения погрешности измерений

 

 

Любые методы определения или нормирования точности средства измерения сводятся к установлению соответствия с погрешностью измерений.

С точки зрения информационного подхода к измерениям удобно сравнивать средства измерений по количеству информации, получаемой при измерении, а, следовательно, по энтропийному значению погрешности измерений.

Метод определения погрешности аналого-цифровых преобразователей

 

Рассматриваемый ниже  метод распространяется на любые аналого-цифровые  преобразователи, которые характеризуются наличием аналогового параметра на входе и цифрового кода на выходе. К их числу относятся аналого-цифровые преобразователи, цифровые преобразователи угла, линейных перемещений и т.д.

Рассмотрим класс аналого-цифровых преобразователей – цифровые преобразователи угла (ЦПУ). Чтобы применить энтропийный критерий точности к ЦПУ, необходимо по возможности проанализировать структуру погрешностей и их источников. Результирующая погрешность ЦПУ без учета влияния внешних факторов складывается  из погрешности квантования  и инструментальной погрешности  (погрешности воспроизведения уровней квантования). На рис. 1 приведена структура погрешности такого преобразователя.

        1           0          1           0        ИШ

                      

                       1         0           1         0          РШ

 

 

 

           рис.1  Структура погрешности ЦПУ                

 

Для ЦПУ с идеальной шкалой имеет место только погрешность квантования , в реальном же ЦПУ границы квантов реальной шкалы могут быть пространственно сдвинуты относительно идеальной шкалы, что порождает инструментальную погрешность .

Погрешность квантования для N-разрядного ЦПУ является случайной величиной с равномерной плотностью распределения в диапазоне  где  - квант младшего разряда ЦПУ (в радианах). Эту величину называют максимальной информационной способностью ЦПУ. В случае N – разрядного ЦПУ она составляет N бит.

Пусть требуется определить информационную способность ЦПУ с учетом инструментальной погрешности . Искомая величина лежит в пределах от 0 до  N  бит, причем она равна N  при отсутствии инструментальной погрешности   (идеальный ЦПУ) и равна 0, если цифровой код на выходе не зависит от значения угла на его входе.

Информационная способность ЦПУ при наличии инструментальной погрешности  равна

                   ,

где N – информационная способность для идеального ЦПУ;   - потеря информации за счет инструментальной погрешности  или энтропия закона распределения инструментальной погрешности.

 Таким образом, задача определения информационной способности ЦПУ сводится к расчету энтропийного значения погрешности . Значение  можно найти аналитически

                 ,

где  - плотность распределения инструментальной погрешности .Можно показать, что значение  не изменится при наличии постоянной составляющей погрешности преобразования (постоянного сдвига значения угла, соответствующего выходному коду, относительно поданного на вход  ЦПУ значения угла).

Пусть сдвиг  значения угла составляет  радиан, тогда

               .

Отсюда следует: значение постоянной составляющей не сказывается на мере неопределенности. С точки зрения измерительного преобразования важно лишь абсолютное значение погрешности, полученной в результате единичного преобразования. При однократном измерении нет возможности набрать статистические данные и определить постоянную составляющую погрешности.

Чтобы использовать энтропийный подход, следует рассматривать каждое преобразование как независимое и определять потерю информации ЦПУ при единственном преобразовании. Это возможно, если рассматривать вклад каждого из разрядов ЦПУ в результирующую погрешность отдельно, определяя количество информации, которое теряет каждый разряд при очередном преобразовании, а затем найти среднее значение по нескольким сеансам измерений.

Этот подход позволяет решить задачу учета влияния постоянной составляющей погрешности на основе энтропийной оценки.

 

 

РАСЧЁТНАЯ ЧАСТЬ

 

Задача. Вероятность того, что параметры одного из трёх блоков системы управления баллистической ракеты выйдут за время полёта из допусков, равны 0,1;0,2;0,3. Известно, что если из поля допусков выйдут параметры одного блока, то ракета не долетит до цели с вероятностью 0,25, если двух блоков, то 0,4, если трех, то 0,5. Найти вероятность Р(А) того, что цель не будет поражена.

Найти: Вероятность Р(А) того, что цель не будет поражена.

Решение.

Обозначим вероятности отказа первого, второго и третьего блоков соответственно P1P2P3. По условию:

P1 =0,1;

P2 = 0,2;

P3 = 0,3.

К попаданию в цель – событию А – ведут три гипотезы:

H1 – за поле допусков вышли параметры одного блока;

H2 – за поле допусков вышли параметры двух блоков;

H3 - за поле допусков вышли параметры трёх блоков

Согласно теореме сложения и умножения вероятностей имеем:

Р(Н1) = 0,1(1-0,2)*(1-0,3) + 0,2*(1-0,1)*(1-0,3) + 0,3*(1-0,1)*(1-0,2) = 0,398;

Р(Н2) = 0,1*0,2*(1-0,3) + 0,1*0,3*(1-0,2) + 0,2*0,3*(1-0,1) = 0,092;

Р(Н3) = 0,1* 0,2 *0,3 = 0,006.

 

 По условию задачи дано:

P(A/H1) =0,25;

P(A/H2) = 0,4;

P(A/H3) =0,5.

 

Следовательно, по формуле полной вероятности получим:

Р(А) = Р(Нi)*P(A/Hi) = 0.398*0.25 + 0.092*0.4 + 0.006*0.5≈ 0,139         

 

Ответ: Р(А) = 0,139.

 

 

ВЫВОДЫ

 

При разработке, производстве (в технологических процессах), эксплуатации технологических систем, контроле состояния окружающей среды, в медицине, торговле, учете расходования материально-технических ресурсов и других видах деятельности общества измерения были, есть и будут одними из важнейших условий достижения поставленных целей. Более того, измерения являются связующим звеном, обеспечивающим «все артерии, все сосуды» человеческой  деятельности. Обходиться без них не удается никому и в то же время многим не удается избавиться от неприятностей, связанных с результатами неправильно проведенных (по объективным или субъективным причинам) измерений.

Каждое новое поколение многообразной измерительной техники в связи с повышением требований к достоверности, быстродействию (своевременности), глубине познания объекта измерений (контроля) становится сложным и все более электронизированным. Это требует от тех, кто организует и проводит измерения, значительно больших знаний по сравнению с тем, что требовалось знать всего 20-25 лет тому назад. И, конечно, особенно четкие и многообразные знания основ метрологии и измерительной техники необходимы в настоящее время многочисленным специалистам, работающим в приборостроении, структурах метрологического обеспечения производства, технологических устройств, и особенно тем специалистам, которые заняты весьма непростыми и ответственными проблемами обеспечения единства измерений в стране, созданием и эксплуатацией эталонов – патриархов измерительной техники. 

В ряде случаев к одной из основных задач метрологии относят необходимость: обеспечить исследования, производство, эксплуатацию многообразных технических устройств; медицину соответствующими измерениями и средствами измерений. При этом нередко эту задачу не считают важнейшим фактором успешной деятельности современного общества, что иногда обходится слишком дорого.

По опубликованным в США данным, в период 1974-1978 гг. на американских АЭС произошла 31 авария, причем все они были связаны с недостатками измерений (в 10 случаях оказались неисправными измерительные приборы, в 21 – «грубые» погрешности в градуировке датчиков).

Качеством, точностью измерений в настоящее время определяется возможность или невозможность создания принципиально новых технических устройств.

Зачастую информация об объекте измерения известна до проведения исследований, что является важнейшим фактором, обусловливающим эффективность измерения. Такую информацию об объекте измерения называют априорной информацией. При полном отсутствии этой информации измерение в принципе невозможно, так как неизвестно, что же необходимо измерить, а следовательно, нельзя выбрать нужные средства измерений. При наличии априорной информации об объекте в полном объеме, т.е. при известном значении измеряемой величины, измерения попросту не нужны. Априорная информация определяет достижимую точность измерения и их эффективность.

Информация, получаемая в результате измерения, может содержаться в объекте измерения в двух формах: пассивной и активной. Пассивная информация – это совокупность сведений, заключенных в том, как устроен объект; такой информацией является, например, информация о величине напряжения источника питания. С другой стороны, информация является активной, если она имеет форму энергетической характеристики какого-либо явления.

Итак, измерение представляет собой специфический информационный процесс, результатом которого является получение количественной информации об измеряемых величинах – измерительной информации.

 

 

СПИСОК  ЛИТЕРАТУРЫ

 

  1. Радкевич Я.М., Лактионов Б.И. Метрология, стандартизация и взаимозаменяемость. – М.: Изд-во Московского Государственного горного университета, 1996 – 212 с.
  2. Шабалин С.А. Прикладная метрология в вопросах и ответах. 2-е издание, переработанное и дополненное. – М.: Изд-во стандартов, 1990 – 189 с.
  3. Кузнецов В.А., Ялунина Г.В. Основы метрологии. – М.: Изд-во стандартов, 1995 – 279 с.
  4. Нефедов В.И., Хахин В.И., Федорова Е.В. и др. Метрология и электрорадиоизмерения в телекоммуникационных системах – М.: Высш. шк., 2001 – 383 с:.
  5. Проненко В.И., Якирин Р.В. Метрология в промышленности. – Киев: Изд-во Технiка, 1979 – 221 с.
    1. 6.                Шамбадаль П. Развитие и приложения понятия энтропии . М.: Наука, 1967 -290.

 

 


Ключевые слова -


ФНГ ФИМ ФЭА ФЭУ Яндекс.Метрика
Copyright 2021. Для правильного отображения сайта рекомендуем обновить Ваш браузер до последней версии!