Погрешности результатов измерений
Погрешность измерения - отклонение измеренного значения величины от ее истинного (действительного) значения.
Классификация погрешностей
1. По характеру проявления погрешности СИ делятся на:
Систематическая погрешность - составляющая погрешности СИ, принимаемая постоянной или закономерно изменяющейся.
К систематическим погрешностям СИ относят методические, инструментальные, субъективные и другие погрешности, которые при проведении измерений необходимо учитывать и по возможности устранять.
Случайная погрешность - составляющая погрешности СИ, изменяющаяся случайным образом.
Она приводит к неоднозначности показаний и обусловлена причинами, которые нельзя точно предсказать и учесть.
Однако при проведении некоторого числа повторных опытов теория вероятности и математическая статистика позволяют уточнить результат измерения, т. е. найти значение измеряемой величины, более близкое к действительному значению, чем результат одного измерения.
Промахи - грубые погрешности, связанные с ошибками оператора или неучтенными внешними воздействиями.
Их обычно исключают из результатов измерений.
2. По причинам возникновения погрешности СИ делятся на:
Методические - погрешности, возникающие вследствие несовершенства, неполноты теоретических обоснований принятого метода измерения, использования упрощающих предположений и допущений при выводе применяемых формул, из-за неправильного выбора измеряемых величин.
Например, измерение температуры с помощью термопары может содержать методическую погрешность, вызванную нарушением температурного режима исследуемого объекта (вследствие внесения термопары).
Инструментальные - погрешности, обусловленные свойствами применяемых СИ (стабильностью, чувствительностью к внешним воздействиям и т.д.), их влиянием на объект измерений, технологией и качеством изготовления (например, неточность градуировки, конструктивные несовершенства).
Субъективные - погрешности, вызванные состоянием оператора, проводящего измерения, его положением во время работы, несовершенством органов чувств, эргономическими свойствами СИ - все это сказывается на точности визирования.
Использование цифровых приборов и автоматических методов измерения позволяет исключить такого рода погрешности.
3. По способу выражения погрешности СИ делятся на:
Абсолютная погрешность - разность между показаниями прибора и действительным значением измеряемой величины.
Абсолютная погрешность определяется как разность
Δ = Х – Хи
или
Δ = Х - Хд,
где Х - показание прибора
Хи - истинное значение измеряемой величины
Хд - действительное значение измеряемой величины
Относительная погрешность - погрешность СИ, выраженная отношением абсолютной погрешности СИ к действительному значению измеренной физической величины в пределах диапазона измерений.
Относительная погрешность определяется как отношение
Δ = ± Δ/Х ∙ 100 %
или
δ = ± Δ/Хд ∙ 100 %
где Х - показание прибора
Хд - действительное значение измеряемой величины
Приведённая погрешность - относительная погрешность, выраженная отношением абсолютной погрешности СИ к условно принятому значению величины, постоянному во всем диапазоне измерений или в части диапазона.
Условно принятое значение величины называют нормирующим значением Хнорм.
Приведенная погрешность
У = ± Δ/ Хn ∙ 100 %
где Хn - нормированное значение величины.
Например, Хn = Хmах, где Хmах - максимальное значение измеряемой величины.
2