Ошибки результатов измерений классифицируются на

Работа по теме: Конспект лекций. Глава: 5. 4 Погрешности измерений и их классификация. ВУЗ: СФУ.

Измерение
— экспериментальное сравнение, данной
величины с другой, такого же рода
величиной, принятой за единицу меры.

Задачей
измерения является:

1)
получение приблизительного значения
измеряемой величины;

2)
оценка величины погрешности.

Измерения
могут быть прямыми
и косвенными.

Прямое
измерение

непосредственное сравнение измеряемой
величины с единицей измерения с помощью
приборов и устройств, проградуированных
в соответствующих единицах (измерение
линейных размеров линейкой, штангенциркулем;
измерение времени секундомером;
взвешивание и т.п.)

Косвенно
измеряемая величина

рассчитывается с помощью некоторой
зависимости (формулы) от других величин,
полученных прямыми измерениями
(определение скорости v=s / t по пути и
времени, плотности ρ= m / v по массе и
объему и т.д.).

Любое
измерение не дает абсолютно точного
значения измеряемой величины – неточность
приборов, влияние внешних факторов,
трение и т.д., –поэтому измеренные
значения всегда отклоняются от истинного.
Эти отклонения называются ошибками
или погрешностями
измерений.

Источниками
погрешности являются: несовершенство
применяемых методов и средств измерений,
непостоянство влияющих на результат
измерения физических величин, а также
индивидуальные особенности экспериментатора.
Кроме того, на точность измерений влияют
внешние и внутренние помехи, климатические
условия и порог чувствительности
измерительного прибора.

Истинное
значение физической величины

это значение, идеальным образом отражающее
свойство данного объекта, как в
качественном, так и в количественном
отношении. Оно не зависит от средств
нашего познания и является той абсолютной
истиной, к которой мы стремимся, пытаясь
выразить ее в виде числовых значений.

На
практике это абстрактное понятие
приходится заменять понятием
«действительное значение».

Действительное
значение физической величины

— значение, найденное экспериментально
и настолько приближающееся к истинному,
что для данной цели может быть использовано
вместо него.

Результат
измерения
представляет
собой приближенную оценку истинного
значения величины, найденную путем
измерения.

Точность
измерений

отражает меру близости результатов
измерений к истинному значению измеряемой
физической величины. Высокой точности
измерений соответствует малая погрешность.

Так,
например, измерение силы тока в 10А и
100А может быть выполнено с идентичной
абсолютной погрешностью Δ = +1А.

Погрешность
результата измерения

это разница между результатом измерения
и истинным (действительным) значением
измеряемой величины.

Погрешность
средства измерения

разность между показаниями средства
измерения и истинным (действительным)
значением измеряемой физической
величины. Она характеризует точность
результатов измерений, проводимых
данным средством.

Эти
два понятия во многом близки друг к
другу и классифицируются по одинаковым
признакам.

Классификация
погрешностей

  • В
    зависимости от формы выражения

    различают абсолютную, относительную
    и приведенную погрешности.

Абсолютной
погрешностью
Δ,
выражаемой в единицах измеряемой
величины, называется отклонение
результата измерения х от истинного
значения хи:

Δ
= х — хи

Абсолютная
погрешность характеризует величину и
знак полученной погрешности, но не
определяет качество самого проведенного
измерения.

Понятие
погрешности характеризует как бы
несовершенство измерения. Качество
(точность) первого измерения ниже
второго. Поэтому, чтобы иметь возможность
сравнивать качество измерений, введено
понятие относительной погрешности.

Относительной
погрешностью
δ
называется отношение абсолютной
погрешности измерения к истинному
значению измеряемой величины:

Мерой
точности измерений служит показатель,
обратный модулю относительной погрешности:

Относительную
погрешность δ часто выражают в процентах:

Приведенная
погрешность γ

— это отношение абсолютной погрешности
Δ к некоторому нормирующему значению
XN
(например, к конечному значению шкалы
прибора или сумме значений шкал при
двусторонней шкале):

где
Xn —
нормирующее значение, которое зависит
от типа шкалы измерительного прибора
и определяется по его градуировке:

— если
шкала прибора односторонняя, то есть
нижний предел измерений равен нулю, то
Xn
определяется равным верхнему пределу
измерений;

— если
шкала прибора двухсторонняя, то
нормирующее значение равно ширине
диапазона измерений прибора.

Приведённая
погрешность является безразмерной
величиной, либо измеряется в процентах.

  • По
    характеру (закономерности) проявления

    погрешности
    делятся на систематические, случайные
    и грубые (промахи).

Систематическая
погрешность

Δс
— составляющая погрешности измерения,
остающаяся постоянной или закономерно
меняющаяся при повторных измерениях
одной и той же физической величины.

Величина
систематической погрешности Δс
характеризует один из показателей
качества измерений — правильность
полученного результата, чем меньше
величина Δс,
тем правильнее полученный результат.

Систематическая
ошибка может быть обусловлена
неисправностью прибора, несовершенством
методики измерений (например неучетом
сил трения) и т.д

Такие
погрешности могут быть выявлены путем
детального анализа возможных их
источников и уменьшены введением
соответствующей поправки, применением
более точных приборов, калибровкой
приборов с помощью рабочих мер и пр.
Однако полностью их устранить нельзя.

Случайная
погрешность

— изменяющаяся случайным
образом по знаку и значению при повторных
измерениях одной и той же величины в
одних и тех же условиях.

Случайные
погрешности могут быть связаны с
несовершенством приборов (трение в
механических приборах и т. п.),
тряской в городских условиях, с
несовершенством объекта измерений
(например, при измерении диаметра тонкой
проволоки, которая может иметь не совсем
круглое сечение в результате несовершенства
процесса изготовления), с особенностями
самой измеряемой величины (например
при измерении количества элементарных
частиц, проходящих в минуту через счётчик
Гейгера).

Величина
случайной погрешности
характеризует другой
показатель качества измерений — сходимость
результатов при повторных измерениях
одного и того же значения измеряемой
физической величины.

В
отличие от систематических погрешностей
случайные погрешности нельзя исключить
из результатов измерений путем введения
поправки, однако, их можно существенно
уменьшить путем многократного измерения
этой величины и последующей статистической
обработкой полученных результатов.

Грубая
погрешность (промах)

— это случайная погрешность результата
отдельного наблюдения, входящего в ряд
измерений, которая для данных условий
резко отличается от остальных результатов
этого ряда.

Данные
погрешности возникают из-за ошибок
оператора или неучтенных внешних
воздействий.

  • По
    причинам возникновения (по виду
    источника)

1
Инструментальные
погрешности
возникают
из-за несовершенства средств измерения,
т.е. от погрешностей средств измерений.
Иногда эту погрешность называют
аппаратурной.

Источниками
инструментальных погрешностей могут
быть, например, неточная градуировка
прибора и смещение нуля, вариация
показаний прибора в процессе эксплуатации
и т.д. Уменьшают инструментальные
погрешности применением более точного
прибора.

2
Внешняя погрешность

важная составляющая погрешности
измерения, связанная с отклонением
одной или нескольких влияющих величин
от нормальных значений или выходом их
за пределы нормальной области (например,
влияние влажности, температуры, внешних
электрических и магнитных полей,
нестабильности источников питания,
механических воздействий и т.д.).

В
большинстве случаев внешние погрешности
являются систематическими и определяются
дополнительными погрешностями применяемых
средств измерений.

3
Методическая погрешность

обусловлена несовершенством метода
измерений, влиянием выбранного средства
измерений на измеряемые параметры
сигналов, некорректностью алгоритмов
или расчетных формул, по которым
производят вычисления, округления
результатов, отличием принятой модели
объекта измерений от той, которая
правильно описывает его свойство,
определяемое путем измерения.

Отличительной
особенностью методических погрешностей
является то, что они не могут быть указаны
в нормативно-технической документации
на используемое средство измерений,
поскольку от него не зависят, а должны
определяться оператором в каждом
конкретном случае. В связи с этим оператор
должен четко различать фактически
измеренную им величину и величину,
подлежащую измерению.

Если,
например, вольтметр имеет недостаточно
высокое входное сопротивление, то его
подключение к схеме способно изменить
в ней распределение токов и напряжений.
При этом результат измерения будет
отличаться от действительного.

Пример
1

Рассмотрим
появление методической погрешности
при измерении сопротивления методом
вольтметра-амперметра (рисунок 8).

Рисунок
8- К появлению методической погрешности

Для
определения значения сопротивления Rx
резистора необходимо измерить ток IR,
протекающий через резистор и падение
напряжения на нем UR.
В приведенной схеме, реализующей этот
метод, падение напряжения на резисторе
измеряется вольтметром непосредственно,
в то время как амперметр измеряет
суммарный ток, часть которого протекает
через резистор, часть через вольтметр.
В результате измеренное значение
сопротивления будет не Rx
= UR
/ IR,
а R’ = UR
/ (IR
+ Iv)
и появляется методическая погрешность
измерения ΔR = R’ — Rx
. Методическая погрешность уменьшается
и стремится к нулю при токе Iv
→ 0, т.е. при внутреннем сопротивлении
вольтметра Rv
→ ∞.

Методическую
погрешность можно уменьшить путем
применения более точного метода
измерения.

4
Субъективные (личные) погрешности

вызываются ошибками оператора при
отсчете показаний средств измерения
(погрешности от небрежности и невнимания
оператора, от параллакса, т.е. от
неправильного направления взгляда при
отсчете показаний стрелочного прибора
и пр.).

Подобные
погрешности устраняются применением
современных цифровых приборов или
автоматических методов измерения.

  • В
    зависимости от влияния характера
    изменения измеряемых величин

    погрешности
    средств измерений делят на статические
    и динамические.

Статическая
погрешность

— это погрешность средств измерений
применяемого для измерения физической
величины, принимаемой за неизменную.

Динамической
называют
погрешность средств измерений, возникающая
дополнительно при измерении переменной
физической величины и обусловленная
несоответствием его реакции на скорость
(частоту) изменения измеряемого сигнала.

  • По
    условиям, в которых используются
    средства измерения
    ,
    различают основную и дополнительную
    погрешности.

Основная
погрешность

измерений — та погрешность, которая
имеет место при нормальных условиях
его эксплуатации, оговоренных в
регламентирующих документах (паспорте,
технических условиях и пр.)

Дополнительная
погрешность

средства измерения возникает вследствие
выхода какой-либо из влияющих величин
(температуры, влажности и др.) за пределы
нормальной области значений.

Пример
3

Вольтметр
предназначен для измерения переменного
тока с номинальным значением частоты
(50 ± 5)Гц. Отклонение частоты за эти
пределы приведет к дополнительной
погрешности измерения.

  • По
    зависимости абсолютной погрешности
    от значений измеряемой величины

    различают
    погрешности (рисунок 9):

  • аддитивные
    Δа
    , не зависящие от измеряемой величины;

  • мультипликативные
    Δм
    , которые прямо пропорциональны
    измеряемой величине;

  • нелинейные
    Δн
    , имеющие нелинейную зависимость от
    измеряемой величины.

Рисунок
9 — Аддитивная (а), мультипликативная
(б), нелинейная (в) погрешности

Эти
погрешности применяют в основном для
описания метрологических характеристик
средств измерений.

Примеры
аддитивных погрешностей — от постоянного
груза на чашке весов, от неточной
установки на нуль стрелки прибора перед
измерением, от термо-ЭДС в цепях
постоянного тока.

Причинами
возникновения мультипликативных
погрешностей могут быть: изменение
коэффициента усиления усилителя,
изменение жесткости мембраны или пружины
прибора, изменение опорного напряжения
в цифровом вольтметре.

Заканчивая
анализ классификации погрешностей
измерений, необходимo отметить, что она
(как и любая другая классификация) носит
досрочно условный (относительный)
характер.

Ответы
на вопросы, об отнесении погрешности
конкретного измерения к тем или иным
классам и о делении их на случайные и
систематические, могут бытъ даны лишь
при наличии полной информации о свойствах
параметров характеристик измеряемого
объекта, измерительных устройств,
условий, в которых проводились измерения,
а также, как правило, только после
проведения многочисленных повторных
измерений.

Наглядным
примером может служить климатическая
погрешность измерительного прибора.
Если возможен контроль температуры,
при которой проводятся измерения, и
имеется поправочная таблица, то такую
погрешность следует рассматривать как
систематическую. Однако при отсутствии
контроля температур эта же погрешность
учитывается как случайная.

Обобщённой
характеристикой средств измерения
является класс точности, определяемый
предельными значениями допускаемых
основной и дополнительной погрешностей,
а также другими параметрами, влияющими
на точность средств измерения; значение
параметров установлено стандартами на
отдельные виды средств измерений. Класс
точности средств измерений характеризует
их точностные свойства, но не является
непосредственным показателем точности
измерений, выполняемых с помощью этих
средств, так как точность зависит также
от метода измерений и условий их
выполнения. Измерительным приборам,
пределы допускаемой основной погрешности
которых заданы в виде приведённых
основных (относительных) погрешностей,
присваивают классы точности, выбираемые
из ряда следующих чисел: (1; 1,5; 2,0; 2,5; 3,0;
4,0; 5,0; 6,0)*10n,
где показатель степени n = 1; 0; −1; −2
и т. д.

Диапазон
измерений

— это
та часть диапазона показаний прибора,
для которой усыновлены погрешности
прибора (если известны погрешности
прибора, то диапазон измерений и показаний
прибора совпадает).

Разность
между
максимальным и минимальным показаниями
прибора называют
размахом.

Другой
характеристикой прибора является его
чувствительность,
т.
е. способность отсчитывающего устройства
реагировать на изменения измеряемой
величины. Под порогом чувствительности
прибора понимают наи­меньшее значение
измеряемой величины, вызывающее изменение
показания прибора, которое можно
зафиксировать.

Основной
характеристикой прибора является его
точность.
Она
характеризуется суммарной погрешностью.

Средства
измерения делятся на классы точности.
Класс
точности —

это
обобщенная характеристика, определяемая
пределами основной и дополнительных
допускаемых погрешностей, влияющих на
точность.

Стабильность
(воспроизводимость
прибора) — это свойство отсчетного
устройства
обеспечивать
постоянство показаний одной и той же
величины.

Все
средства измерения (приборы, используемые
для измерения в научных исследованиях)
проходят
периодическую
поверку

на
точность. Такая поверка предусматривает
определение и по возможности уменьшение
погрешностей приборов. Поверка позволяет
установить соответствие данного прибора
регламентированной степени точности
и определяет возможность его применения
для данных измерений, т. е. определяются
погрешности и устанавливается, не
выхолят ли они за пределы допускаемых
значении. Поверку средств измерений
производят на различных уровнях.

Государственные
метрологические институты и лаборатории
по надзору за стандартами и измерительной
техникой производят государственный
контроль за
обеспечением в стране единства мер.

В
периоды между государственными поверками
осуществляется ведомственная
поверка средств
измерений, которая по объему работ мало
чем от­личается от государственных
поверок. Такие поверки более оперативны
и про­водятся по специальному графику,
разработанному для данной организации.

Рабочая
поверка средств
измерений проводится в низовых звеньях
каждым экспериментатором непосредственно
в организациях перед началом из­мерений
и наблюдений.

Под
регулировкой
прибора понимают
операции, направленные на снижение
систематических ошибок до величины,
меньшей допустимой погрешности.

В зависимости от обстоятельств, при которых проводились измерения, а также в зависимости от целей измерения, выбирается та или иная классификация погрешностей. Иногда используют одновременно несколько взаимно пересекающихся классификаций, желая по нескольким признакам точно охарактеризовать влияющие на результат измерения физические величины. В таком случае рассматривают, например, инструментальную составляющую неисключённой систематической погрешности. При выборе классификаций важно учитывать наиболее весомые или динамично меняющиеся или поддающиеся регулировке влияющие величины. Ниже приведены общепринятые классификации согласно типовым признакам и влияющим величинам.

По виду представления, различают абсолютную, относительную и приведённую погрешности.

Абсолютная погрешность это разница между результатом измерения X и истинным значением Q измеряемой величины. Абсолютная погрешность находится как D = X — Q и выражается в единицах измеряемой величины.

Относительная погрешность это отношение абсолютной погрешности измерения к истинному значению измеряемой величины: d = D / Q = (X – Q) / Q .

Приведённая погрешность это относительная погрешность, в которой абсолютная погрешность средства измерения отнесена к условно принятому нормирующему значению QN , постоянному во всём диапазоне измерений или его части. Относительная и приведённая погрешности – безразмерные величины.

В зависимости от источника возникновения, различают субъективную, инструментальную и методическую погрешности.

Субъективная погрешность обусловлена погрешностью отсчёта оператором показаний средства измерения.

Инструментальная погрешность обусловлена несовершенством применяемого средства измерения. Иногда эту погрешность называют аппаратурной. Метрологические характеристики средств измерений нормируются согласно ГОСТ 8.009 – 84, при этом различают четыре составляющие инструментальной погрешности: основная, дополнительная, динамическая, интегральная. Согласно этой классификации, инструментальная погрешность зависит от условий и режима работы, а также от параметров сигнала и объекта измерения.

Методическая погрешность обусловлена следующими основными причинами:

– отличие принятой модели объекта измерения от модели, адекватно описывающей его метрологические свойства;

– влияние средства измерения на объект измерения;

– неточность применяемых при вычислениях физических констант и математических соотношений.

В зависимости от измеряемой величины, различают погрешность аддитивную и мультипликативную. Аддитивная погрешность не зависит от измеряемой величины. Мультипликативная погрешность меняется пропорционально измеряемой величине.

В зависимости от режима работы средства измерений, различают статическую и динамическую погрешности.

Динамическая погрешность обусловлена реакцией средства измерения на изменение параметров измеряемого сигнала (динамический режим).

Статическая погрешность средства измерения определяется при параметрах измеряемого сигнала, принимаемых за неизменные на протяжении времени измерения (статический режим).

По характеру проявления во времени, различают случайную и систематическую погрешности.

Систематической погрешностью измерения называют погрешность, которая при повторных измерениях одной и той же величины в одних и тех же условиях остаётся постоянной или закономерно меняется.

Случайной погрешностью измерения называют погрешность, которая при повторных измерениях одной и той же величины в одних и тех же условиях изменяется случайным образом.

Погрешности измерений и их
классификация
.

При
измерении физических величии с помощью даже самых точных и совершенных средств
и методов
их результат всегда отличается от истин­ного
значения измеряемой физической величины, т.е. определяется с неко­торой
погрешностью.
Источниками погрешностей измерения являются сле­дующие
причины: несовершенство используемых методов и средств измере­ний,
нестабильность измеряемых физических величин, непостоянство климатических
условий, внешние и внутренние помехи, а также различные субъек­тивные факторы
экспериментатора.

Определение
«погрешность» является одним из центральных в метрологии, в котором
используются понятия «погрешность результата измере­ния» и «погрешность
средства измерения».

Погрешностью результата измерения (погрешностью измерения) называется отклонение
результата измерения от истинного значения измеряемой физической величины. Так
как истинное значение измеряемой величины неизвестно, то при количественной
оценке погрешности пользуются
дейст­вительным значением физической
величины.

Это
значение находится экспериментальным путем и настолько близко к истинному
значению, что для поставленной измерительной задачи может быть использовано
вместо него.

Погрешность средства измерения (СИ) — разность между показаниями СИ
и истинным (действительным) значением измеряемой физической величины. Она
характеризует точность результатов измерений, проводимых дан­ным
средством

Существует пять основных
признаков, по
которым классифицируются погрешности измерения.

По
способу количественного выражения погрешности измерения делятся на абсолютные,
относительные и приведенные.

Абсолютной погрешностью , выражаемой в единицах
измеряемой величины, называется отклонение результата измерения
х от истинного зна­чения хн:                                (1.1)

и знак полученной
погрешности, но не определяет качество самого проведенного измерения.

Понятие
погрешности характеризует как бы несовершенство измере­ния.
Характеристикой качества измерения является используемое в метроло­гии понятие
точности измерений, отражающее меру близости результатов измерений к истинному
значению измеряемой физической величины. Точ­ность и погрешность связаны
обратной зависимостью. Иначе говоря, высо­кой точности измерений соответствует
малая погрешность. Так, например, измерение силы тока в 10 А и 100 А может быть
выполнено с идентичной аб­солютной погрешностью ∆ = ±1 А. Однако качество
(точность) первого из­мерения ниже второго. Поэтому, чтобы иметь возможность
сравнивать каче­ство измерений, введено понятие относительной погрешности.

Относительной погрешностью δ называется отношение
абсолютной погрешности измерения к истинному значению измеряемой величины:

                                                                   (1.2)

Мерой
точности измерений служит величина,
обратная модулю отно­сительной погрешности, т.е. 1/|δ|. Погрешность δ часто выражают в
про­центах:

δ
= 100
н (%). Поскольку обычно △⋍хн, то относительная по­грешность
может быть определена как δ
или δ = 100/х (%).

Если
измерение выполнено однократно и за
абсолютную погрешность результата измерения
принята разность между
показанием прибора и ис­тинным значением измеряемой величины
хН то из соотношения (1.2)
следу­ет, что значение относительной погрешности δ уменьшается с ростом вели­чины
хн  (здесь предполагается
независимость
от хн). Поэтому для изме­рений
целесообразно выбирать такой прибор, показания которого были бы в последней
части его шкалы (диапазона измерений), а для сравнения различ­ных приборов
использовать понятие приведенной погрешности.

Приведенной погрешностью δпр, выражающей
потенциальную точ­ность измерений, называется отношение абсолютной погрешности
к неко­торому нормирующему
значению
XN (например, к конечному
значению шкалы прибора или сумме конечных значений шкал при двусторонней шка­ле).     

По
характеру (закономерности) изменения погрешности измерений подразделяются на
систематические, случайные и грубые (промахи).

Систематические погрешности с — составляющие погрешности из­мерений,
остающиеся постоянными или закономерно изменяющиеся , при многократных (повторных)
измерениях одной и той же величины в одних и тех же условиях. Такие погрешности
могут быть выявлены путем детального анализа возможных их источников и
уменьшены (применением более точных приборов, калибровкой приборов с помощью
рабочих мер и пр.). Однако полностью их устранить нельзя.

По
характеру изменения во времени систематические погрешности подразделяются на
постоянные (сохраняющие величину и
знак),
прогресси­рующие (возрастающие или убывающие во времени), периодические, а также изменяющиеся во
времени по сложному непериодическому закону. Основ­ные из этих погрешностей —
прогрессирующие.

Прогрессирующая (дрейфовая) погрешность — это непредсказуемая по­грешность,
медленно меняющаяся во времени. Прогрессирующие погрешно­сти характеризуются
следующими особенностями:

        
возможна
их коррекция поправками только в данный момент времени, а далее эти погрешности
вновь непредсказуемо изменяются;

          
изменения
прогрессирующих погрешностей во времени представляют со­бой нестационарный
случайный процесс (характеристики которого изменяются во времени), и поэтому в
рамках достаточно полно разработанной теории стационарных случайных процессов
они могут быть описаны лишь с некоторыми ограничениями.

Случайные погрешности 
— составляющие погрешности измерений, изменяющиеся случайным образом при
повторных (многократных) измере­ниях одной и той же величины в одних и тех же
условиях. В появлении таких погрешностей нет каких-либо закономерностей, они
проявляются при повторных измерениях одной и той же величины в виде некоторого
разброса получаемых результатов. Практически случайные погрешности неизбежны,
неустранимы и всегда имеют место в результатах измерений. Описание случайных
погрешностей возможно только на основе теории случайных процессов и
математической статистики. В отличие от систематических случайные погрешности
нельзя исклю­чить из результатов измерений путем введения поправки, однако их
можно существенно уменьшить путем многократного измерения этой величины и
последующей статистической обработкой полученных результатов.

Грубые погрешности (промахи) —
погрешности, существенно превы­шающие ожидаемые при данных условиях измерения.
Такие погрешности возникают из-за ошибок оператора или неучтенных внешних
воздействий. Их выявляют при обработке результатов измерений и исключают из рас­смотрения,
пользуясь определенными правилами.

По причинам возникновения погрешности измерения подразделяются
на методические, инструментальные, внешние и субъективные.

Методические
погрешности
возникают обычно из-за
несовершенства метода измерений, использования неверных теоретических
предпосылок (допущений) при измерениях, а также из-за влияния выбранного
средства изме­рения на измеряемые физические величины. При подключении
электроизме­рительного прибора от источника сигнала потребляется некоторая
мощность. Это приводит к искажению режима работы источника сигнала и вызывает
погрешность метода измерения (методическую погрешность).

Так,
например, если вольтметр обладает недостаточно высоким входным сопротивлением,
то его подключение к исследуемой схеме способно из­менить в ней распределение
токов и напряжений. При этом результат изме­рения может существенно отличаться
от действительного. Для расчета мето­дической погрешности при измерении токов и
напряжений необходимо знать внутренние сопротивления амперметров
RA
и вольтметров
Rv. Методическую
погрешность можно уменьшить путем применения бо­лее точного метода измерения.

Инструментальные
(аппаратурные, приборные) погрешности

возни­кают из-за несовершенства средств измерения» т.е. из-за погрешностей
средств измерений. Источниками инструментальных погрешностей могут быть,
например, неточная градуировка прибора и смещение нуля, вариация показаний
прибора в процессе эксплуатации и т.д. Уменьшают инструмен­тальные погрешности
применением более точного прибора.

Внешняя
погрешность —
важная составляющая погрешности
измере­ния,
связанная с отклонением одной или
нескольких влияющих величин от нормальных значений или выходом их за пределы нормальной области (на­пример,
влияние влажности, температуры
, внешних электрических и
магнит­ных полей, нестабильности источников питания, механических воздействий и
т.д.). В большинстве случаев внешние погрешности являются систематиче­скими и
определяются дополнительными погрешностями применяемых средств измерений. .

Субъективные
погрешности
вызываются ошибками оператора при от­счете
показаний средств измерения (погрешности от небрежности и невни­мания
оператора, от параллакса, т.е. от неправильного направления взгляда при отсчете
показаний стрелочного прибора и пр.). Подобные погрешности устраняются
применением современных цифровых приборов или автомати­ческих методов
измерения.

По характеру поведения измеряемой физической величины в процессе
измерений различают статические и динамические погрешности.

Статические
погрешности
возникают при измерении
установившего­ся значения измеряемой величины, т.е. когда эта величина
перестает изме­няться во времени.

Динамические
погрешности
имеют место при динамических
измерени­ях, когда измеряемая
величина
изменяется во времени и требуется установить закон ее изменения. Причина
появления динамических погрешностей состо­ит в несоответствии скоростных
(временных) характеристик прибора и ско­рости изменения измеряемой величины.

Средства измерений
могут применяться в нормальных и рабочих усло­виях.

Эти
 условия для
конкретных видов СИ (средств  измерения) установлены в
стандартах или технических условиях.

Нормальным
 условиям
применения средств измерений должен
удовлетворять ряд следующих (основных) требований:

температура
окружающего воздуха (20±5) °С;  

относительная
влажность (65±15) %;  

атмосферное
давле­ние (100±4) кПа;  

напряжение
питающей сети (220±4) В и (115±2,5) В;  

частота
сети (50±1) Гц и (400±12) Гц.

Как
следует из перечисленных требований, нормальные условия применения СИ
характеризуются диапазоном значений влияющих на них величин типа климатических
факторов и параметров элек­тропитания.

Рабочие
условия
применения СИ определяются диапазоном
значений влияющих величин не только климатического характера и параметров
электропитания, но и типа механических воздействий. В частности, диапазон климатических
воздействий делится на ряд групп, охватывающих широкий диапазон изменения
окружающей температуры.

Понравилась статья? Поделить с друзьями:
  • Ошибки формата tutdf
  • Ошибки регистрации могут возникнуть
  • Ошибки регистрации возникают при каком наблюдении
  • Ошибки фис фрдо
  • Ошибки распределяющей шляпы