Что такое основная погрешность что такое дополнительная погрешность
Погрешность измерений
Неотъемлемой частью любого измерения является погрешность измерений. С развитием приборостроения и методик измерений человечество стремиться снизить влияние данного явления на конечный результат измерений. Предлагаю более детально разобраться в вопросе, что же это такое погрешность измерений.
Погрешность измерения – это отклонение результата измерения от истинного значения измеряемой величины. Погрешность измерений представляет собой сумму погрешностей, каждая из которых имеет свою причину.
По форме числового выражения погрешности измерений подразделяются на абсолютные и относительные
Абсолютная погрешность – это погрешность, выраженная в единицах измеряемой величины. Она определяется выражением.
(1.2), где X — результат измерения; Х0 — истинное значение этой величины.
Поскольку истинное значение измеряемой величины остается неизвестным, на практике пользуются лишь приближенной оценкой абсолютной погрешности измерения, определяемой выражением
(1.3), где Хд — действительное значение этой измеряемой величины, которое с погрешностью ее определения принимают за истинное значение.
Относительная погрешность – это отношение абсолютной погрешности измерения к действительному значению измеряемой величины:
(1.4)
По закономерности появления погрешности измерения подразделяются на систематические, прогрессирующие, и случайные .
Систематическая погрешность – это погрешность измерения, остающаяся постоянной или закономерно изменяющейся при повторных измерениях одной и той же величины.
Прогрессирующая погрешность – это непредсказуемая погрешность, медленно меняющаяся во времени.
Систематические и прогрессирующие погрешности средств измерений вызываются:
Систематическая погрешность остается постоянной или закономерно изменяющейся при многократных измерениях одной и той же величины. Особенность систематической погрешности состоит в том, что она может быть полностью устранена введением поправок. Особенностью прогрессирующих погрешностей является то, что они могут быть скорректированы только в данный момент времени. Они требуют непрерывной коррекции.
Случайная погрешность – это погрешность измерения изменяется случайным образом. При повторных измерениях одной и той же величины. Случайные погрешности можно обнаружить только при многократных измерениях. В отличии от систематических погрешностей случайные нельзя устранить из результатов измерений.
По происхождению различают инструментальные и методические погрешности средств измерений.
Инструментальные погрешности — это погрешности, вызываемые особенностями свойств средств измерений. Они возникают вследствие недостаточно высокого качества элементов средств измерений. К данным погрешностям можно отнести изготовление и сборку элементов средств измерений; погрешности из-за трения в механизме прибора, недостаточной жесткости его элементов и деталей и др. Подчеркнем, что инструментальная погрешность индивидуальна для каждого средства измерений.
Методическая погрешность — это погрешность средства измерения, возникающая из-за несовершенства метода измерения, неточности соотношения, используемого для оценки измеряемой величины.
Погрешности средств измерений.
Абсолютная погрешность меры – это разность между номинальным ее значением и истинным (действительным) значением воспроизводимой ею величины:
(1.5), где Xн – номинальное значение меры; Хд – действительное значение меры
Абсолютная погрешность измерительного прибора – это разность между показанием прибора и истинным (действительным) значением измеряемой величины:
(1.6), где Xп – показания прибора; Хд – действительное значение измеряемой величины.
Относительная погрешность меры или измерительного прибора – это отношение абсолютной погрешности меры или измерительного прибора к истинному
(действительному) значению воспроизводимой или измеряемой величины. Относительная погрешность меры или измерительного прибора может быть выражена в ( % ).
(1.7)
Приведенная погрешность измерительного прибора – отношение погрешности измерительного прибора к нормирующему значению. Нормирующие значение XN – это условно принятое значение, равное или верхнему пределу измерений, или диапазону измерений, или длине шкалы. Приведенная погрешность обычно выражается в ( % ).
(1.8)
Основная – это погрешность средства измерений, используемого в нормальных условиях, которые обычно определены в нормативно-технических документах на данное средство измерений.
Дополнительная – это изменение погрешности средства измерений вследствии отклонения влияющих величин от нормальных значений.
Статическая – это погрешность средства измерений, используемого для измерения постоянной величины. Если измеряемая величина является функцией времени, то вследствие инерционности средств измерений возникает составляющая общей погрешности, называется динамической погрешностью средств измерений.
Также существуют систематические и случайные погрешности средств измерений они аналогичны с такими же погрешностями измерений.
Факторы влияющие на погрешность измерений.
Погрешности возникают по разным причинам: это могут быть ошибки экспериментатора или ошибки из-за применения прибора не по назначению и т.д. Существует ряд понятий которые определяют факторы влияющие на погрешность измерений
Вариация показаний прибора – это наибольшая разность показаний полученных при прямом и обратном ходе при одном и том же действительном значении измеряемой величины и неизменных внешних условиях.
Класс точности прибора – это обобщенная характеристика средств измерений (прибора), определяемая пределами допускаемых основной и дополнительных погрешностей, а также другими свойствами средств измерений, влияющих на точность, значение которой устанавливаются на отдельные виды средств измерений.
Классы точности прибора устанавливают при выпуске, градуируя его по образцовому прибору в нормальных условиях.
Прецизионность — показывает, как точно или отчетливо можно произвести отсчет. Она определяется, тем насколько близки друг к другу результаты двух идентичных измерений.
Разрешение прибора — это наименьшее изменение измеряемого значения, на которое прибор будет реагировать.
Диапазон прибора — определяется минимальным и максимальным значением входного сигнала, для которого он предназначен.
Полоса пропускания прибора — это разность между минимальной и максимальной частотой, для которых он предназначен.
Чувствительность прибора — определяется, как отношение выходного сигнала или показания прибора к входному сигналу или измеряемой величине.
Шумы — любой сигнал не несущий полезной информации.
Основная и дополнительная погрешности СИ.
Основная погрешность средства измерений – это погрешность в условиях, принятых за нормальные, т.е. при нормальных значениях всех величин, влияющих на результат измерения.
ГОСТ 8.395 При градуировке приборов все значения влияющих величин могут поддерживаться в узких пределах их изменения, например, окружающая температура (20 ± 5)ºС, напряжение питания Uном ±5%, коэффициент гармоник напряжения питания не более 1%,относительная влажность (65±5%), параметры внешних электрических и магнитных полей и т.д. Такие оговоренные в технической документации условия градуировки принято называть нормальными, а погрешность прибора, возникающую в этих условиях, основной погрешностью.
Дополнительная погрешность возникает при отличии значений влияющих величин от нормальных значений.
Обычно различают отдельные составляющие дополнительной погрешности, например температурную погрешность, погрешность из-за изменения напряжения питания и т.п. Дополнительные погрешности нормируются указанием коэффициентов влияния, которые показывают, каким образом, сказываются изменения отдельных влияющих величин на изменение показаний ИК
Функции влияния влияющих факторов, как правило, нелинейные, но для простоты вычислений их приближенно считают линейными и возникающие дополнительные погрешности определяют
Погрешность прибора в реальных условиях его эксплуатации называется эксплуатационной и складывается из его основной погрешности и всех дополнительных и может быть много больше его основной погрешности.
Статические и динамические погрешности.
Статическими называют погрешности, не зависящие от скорости изменения измеряемой величины во времени. Динамическими называют погрешности, отсутствующие, когда скорость изменения измеряемой величины во времени близка к нулю, и возрастающие при ее отклонении от нуля. Динамические погрешности можно рассматривать как разновидность дополнительной погрешности, вызванной влияющей величиной в виде скорости изменения во времени самой измеряемой величины. Эти погрешности свойственны как средствам, так и методам измерений.
Систематические и случайные погрешности.
Систематическими называются погрешности, не изменяющиеся с течением времени или являющиеся не изменяющимися во времени функциями определенных параметров. Основной отличительный признак систематических погрешностей состоит в том, что они могут быть предсказаны и благодаря этому почти полностью устранены введением соответствующих поправок.
Опасность постоянных систематических погрешностей заключается в том, что их присутствие чрезвычайно трудно обнаружить, т.к. внешне себя никак не проявляют и могут оставаться незамеченными. Однако, если такие погрешности выявить, например в процессе градуировки ИК, то их можно один раз скорректировать и полностью исключить их влияние.
Примером систематических погрешностей второго вида служит большинство дополнительных погрешностей, являющихся не изменяющимися во времени функциями вызывающих их влияющих величин (температур, частот, напряжения и т.п.). Эти погрешности благодаря постоянству во времени функций влияния могут быть предсказаны и скорректированы введением корректирующих цепей или поправок.
Прогрессирующими (или дрейфовыми) называются непредсказуемые погрешности, медленно изменяющиеся во времени. Эти погрешности, как правило, вызываются процессами старения тех или иных деталей аппаратуры (разрядкой источников питания, старением резисторов, конденсаторов, аналоговых полупроводниковых элементов). Прогрессирующие погрешности могут быть скорректированы введением поправки лишь в данный момент времени, а далее вновь непредсказуемо возрастают. Поэтому они требуют периодического повторения коррекции.
Случайными погрешностями называют непредсказуемые ни по знаку, ни по размеру погрешности. Причины их возникновения обычно трудно проанализировать. Присутствие случайных погрешностей легко обнаруживается при повторных измерениях в виде некоторого разброса получаемых результатов. Описание случайных погрешностей может быть осуществлено только на основе теории вероятностей и математической статистики.
Понятия полосы погрешностей, реальной и номинальной характеристик СИ. Все перечисленные ранее погрешности приводят к тому, что многократно снятые градуировочные характеристики прибора или серии однотипных приборов занимают на графике некоторую полосу. Поэтому в теории измерений используется понятие полосы неопределенности, или полосы погрешностей данного типа прибора, датчика или измерительного канала ИИС. Средняя линия этой полосы принимается за номинальную характеристику или номинальную функцию преобразования приборов этого типа, указывается в паспорте и используется для определения результатов измерения.
Погрешность данного измерительного преобразователя, датчика, прибора или канала ИИС есть разность между реальной и номинальной его характеристиками, т.е. не число, а функцияизмеряемой величины.
Абсолютная, относительная и приведенная погрешности СИ. Понятия абсолютной, относительной и приведенной погрешностей существующими стандартами установлены только для СИ, но их удобно использовать и при характеристике погрешностей результатов измерения.
Разность между реальной и номинальной характеристиками в виде
является абсолютной погрешностью, так как она выражаются в единицах величин x или y. Знак абсолютной погрешности принимают положительным, если реальная характеристика проходит выше номинальной.
Значение абсолютной погрешности не может быть определено в виде числа из-за того, что истинное значение x измеряемой величины неизвестно. По этой причине результат каждого измерения содержит неустранимую неопределенность значения измеряемой величины, и поэтому на практике может идти речь только об оценке каких-либо характеристик погрешности измерений, но не значений погрешности. Наиболее распространенной характеристикой погрешности является интервал , ограниченный предельными или предельно допускаемыми значениями. Обычно принимают
, то ест считают этот интервал симметричным относительно нуля:
.
Абсолютная погрешность, однако, сама по себе не является показателем точности измерений, так как одно и то же ее значение, например Dx = 0,01мм при x = 1000мм, соответствует высокой точности, а при x = 0,1мм – низкой. Поэтому для характеристики точности результатов измерения вводится понятие относительной погрешности, выражаемой в относительных единицах или в процентах
Относительная погрешность результата измерений (relative error)- отношение абсолютной погрешности результата измерений к истинному значению измеряемой величины, выражается в относительных единицах или в процентах.
Поскольку истинное значение измеряемой величины неизвестно, относительная погрешность вычисляется по отношению к результату измерения. Покажем, что такая замена в большинстве случаев допустима, ибо она приводит к изменению значения погрешности на величину второго порядка малости по сравнению с погрешностью
Относительная погрешность является наглядной характеристикой точности результата измерения, но часто не годится для нормирования погрешности СИ, так как при различных значениях x может принимать различные значения, в том числе
— возможно
Поэтому для указания и нормирования погрешности СИ используется еще одна разновидность погрешности, а именно так называемая приведенная погрешность.
Приведенная погрешность определяется как отношение абсолютной погрешности, выраженной в единицах входной или выходной величин, к протяженности диапазона изменения соответственно входной или выходной величины прибора или преобразователя и выражается в относительных единицах или в процентах
Основное отличие приведеннойпогрешности от относительной погрешности состоит в том, что абсолютная погрешность относится не к переменной текущей величине, а к постоянной величине протяженности диапазона, поэтому для всего диапазона измерения ее можно выразить одним числом, например максимальным значением. Приведенную погрешность удобно использовать для нормирования свойств многих многопредельных СИ, т.к. она может иметь одно и то же значение для всех диапазонов СИ.
Абсолютные и относительные погрешности могут служить характеристиками качества результатов измерений и средств измерений. Приведенные погрешности являются характеристикой только инструментальной погрешности средств измерений.
Аддитивные и мультипликативные погрешности. Эти термины служат для описания формы границ полосы погрешностей СИ. В том случае, когда полоса погрешностей ограничена двумя параллельными друг другу линиями, абсолютная погрешность СИ во всем его диапазоне измерений ограничена постоянным пределом ±D0, не зависящим от текущего значения x. Такая погрешность называется аддитивной, т.е. получаемой путем сложения, или погрешностью нуля. Это понятие одинаково применимо как к случайным, так и к систематическим погрешностям.
Примерами систематических аддитивных погрешностей являются погрешности от неточной установки прибора на нуль перед измерением, от термо-ЭДС в цепях постоянного тока и т.п. Примерами случайных аддитивных погрешностей являются погрешность от наводки переменной ЭДС на вход прибора, погрешности от тепловых шумов на входе канала.
Если ширина полосы погрешностей возрастает пропорционально росту входной величины x, а при x = 0 также равна нулю, то такая погрешность называется мультипликативной, то есть получаемой путем умножения, или погрешностью чувствительности вне зависимости от того, является ли погрешность случайной или систематической. Причинами возникновения мультипликативных погрешностей могут быть: изменение коэффициента усиления усилителя, отклонение от номинального значения коэффициента деления резистивного делителя или коэффициента трансформации измерительного трансформатора
Погрешность квантования. Это специфическая разновидность погрешности, возникающая в цифровых приборах, АЦП и ЦАП. Цифровой вольтметр, имеющий трехразрядный цифровой индикатор и диапазон измерения (0 ¸ 999)мВ, при изменении входного напряжения Ux в пределах от 0 до 1В не может дать других показаний, кроме дискретных значений Uy = 0-1-2-3-4-5-…-999 мВ. Следовательно, правильно отрегулированный прибор при возрастании Ux от 0 до 0,5мВ прибор показывает Uy = 0. При превышении значения 0,5мВ прибор дает показание Uy = 1 и сохраняет его доUx = 1,5мВ и т.д. Поэтому, хотя его номинальной характеристикой мы считаем прямую, его реальная характеристика представляет собой ступенчатую кривую
Текущая разность номинальной и реальной характеристик цифрового прибора и составляет погрешность квантования. Границы полосы погрешности квантования сохраняют на всем протяжении постоянную ширину, т.е. погрешность является аддитивной или погрешностью нуля.
Максимальное значение погрешности составляет половину младшего разряда СИ, в данном случае ± 0,5мВ.
Измеряемая величина Ux случайным образом может принимать любые промежуточные значения, следовательно, и погрешность квантования также случайным образом принимает значения в интервале от +D0 до -D0. Поэтому погрешность квантования является инструментальной случайной аддитивной статической погрешностью, так как не зависит ни от текущего значения результата измерения величины x, ни от скорости изменения x во времени.
Основная и дополнительная погрешности
Основная инструментальная погрешность находится по классу точности СИ. Например, при нормальных условиях щитовым электромагнитным вольтметром класса точности 1,5 (т.е. имеющим предел основной приведенной погрешности γп, не превышающий ±1,5 %) с диапазоном измеряемых значений 0. 300 В (нормирующее значение Хн = 300 В) получен результат измерения действующего значения напряжения U= 220 В. Требуется определить предельные значения абсолютнойΔ и относительной δ инструментальных погрешностей результата измерения U.
Оценим предельное значение основной абсолютной погрешности Δ:
Предельное значение основной относительной погрешности δ:
δ = Δ100/U = ±4,5·100/220 ≈ ±2,0 %.
Расчет суммарной погрешности результата измерения в общем случае предполагает нахождение максимально возможного числа составляющих (основной, дополнительной, методической, взаимодействия и т.д.).
Дополнительная погрешность возникает при работе СИ (в частности, прибора) не в нормальных, а в рабочих условиях, когда одна или несколько влияющих величин выходят за пределы области нормальных значений (но находятся внутри диапазона рабочих значений).
Влияющая величина (ВВ) – это такая физическая величина β, которая не измеряется в данном эксперименте, но влияет на результат измерения или преобразования. Например, в эксперименте по измерению тока в электрической цепи некоторые другие физические величины (температура окружающей среды, атмосферное давление, относительная влажность воздуха, электрические и магнитные поля, напряжение питания СИ) являются влияющими величинами. Конечно, если мы измеряем температуру окружающей среды, то температура в данном эксперименте есть измеряемая величина.
Влияющие величины в общем случае могут меняться в довольно широких диапазонах. При оценке работоспособности СИ в различных условиях воздействия окружающей среды различают три области возможных значений ВВ:
• область нормальных значений ВВ (при этом значение ВВ находится в пределах заранее оговоренных – нормальных – значений);
• область рабочих значений ВВ (при этом значение ВВ находится в диапазоне своих рабочих значений);
• область значений ВВ, при которых возможны хранение или транспортировка СИ.
С точки зрения оценки инструментальных погрешностей нас интересуют лишь первые две области. Область нормальных значений ВВ обычно задается симметричным относительно номинального значения диапазоном. В этом диапазоне возможных значений ВВ условия применения СИ считаются нормальными (НУ) и при этом имеет место только основная погрешность СИ.
Областью рабочих значений называется более широкий диапазон возможных изменений ВВ, в котором СИ может нормально использоваться. Границы этого диапазона задаются нижним и верхним предельными значениями ВВ, соответственно. В этом диапазоне значений ВВ условия применения СИ называются рабочими (РУ) и при этом имеет место не только основная, но еще и дополнительная погрешность. Таким образом, при работе в пределах рабочих условий, но за пределами нормальных, общая инструментальная погрешность складывается уже из основной и дополнительной составляющих.
Например, для самой важной практически во всех измерительных экспериментах ВВ – температуры окружающей среды – область нормальных (для Беларуси) значений и, следовательно, нормальных условий применения СИ в большинстве обычных технических измерительных экспериментов составляет (20 ± 5) °С или (20 ± 2) °С.
Области нормальных значений не являются постоянными, а зависят от особенностей выполняемых измерений, измеряемых величин, классов точности СИ. Например, чем точнее СИ, тем уже требуемый диапазон нормальных температур. Для мер электрического сопротивления высшего класса точности (0,0005; 0,001; 0,002) допустимое отклонение температуры от номинального значения составляет, соответственно, ±0,1 °С; ±0,2 °С; ±0,5 °С. Для зарубежных приборов часто за номинальное принимается значение температуры +23 °С.
Области нормальных значений ВВ в специальных измерениях оговариваются отдельно в описании СИ или в методиках проведения измерений.
Для СИ промышленного применения области рабочих значений ВВ являются более широкими, чем, скажем, для лабораторных СИ. Измерительная аппаратура военного назначения имеет еще более широкие области рабочих значений ВВ.
Условия хранения допускают наиболее широкие диапазоны значений ВВ. Например, для основного параметра окружающей среды – температуры – в паспорте на прибор может быть записано: «. диапазон рабочих температур: 0. +40 °С, диапазон температур хранения: –10. +60°С».
Зная класс точности, коэффициенты влияния окружающей среды (например, температурный коэффициент), а также коэффициенты влияния неинформативных параметров измеряемых сигналов (например, частоты периодического сигнала напряжения при измерении действующего значения), можно оценить значение дополнительной погрешности и затем найти суммарную инструментальную, сложив основную и дополнительную составляющие.
Рассмотрим пример нахождения оценки дополнительной составляющей инструментальной погрешности на примере влияния только одной (но самой важной и, к счастью, наиболее легко определяемой) ВВ – температуры. Допустим, после выполнения эксперимента по классу точности миллиамперметра найдена его основная инструментальная погрешность Δо = ±1,0 мА; температура в ходе эксперимента была зафиксирована +28 °С. Температурный коэффициент в паспорте на прибор определен таким образом: «. дополнительная погрешность на каждые 10 °С отличия от номинальной температуры +20 °С равна основной погрешности в пределах изменения температуры окружающей среды от 0 до +50 °С». Тогда предельное значение дополнительной абсолютной погрешности Δд в данном случае определяется следующим образом: