Презентация Элементы общей теории ошибок в приложении к обработке результатов измерений

Смотреть слайды в полном размере
Презентация Элементы общей теории ошибок в приложении к обработке результатов измерений


Вашему вниманию предлагается презентация «Элементы общей теории ошибок в приложении к обработке результатов измерений», с которой можно предварительно ознакомиться, просмотреть текст и слайды к ней, а так же, в случае, если она вам подходит - скачать файл для редактирования или печати.

Презентация содержит 74 слайда и доступна для скачивания в формате ppt. Размер скачиваемого файла: 5.26 MB

Просмотреть и скачать

Pic.1
ЛЕКЦИЯ 7. ЭЛЕМЕНТЫ ОБЩЕЙ ТЕОРИИ ОШИБОК В ПРИЛОЖЕНИИ К ОБРАБОТКЕ РЕЗУЛЬТАТОВ ИЗМЕРЕНИЙ Общая теория о
ЛЕКЦИЯ 7. ЭЛЕМЕНТЫ ОБЩЕЙ ТЕОРИИ ОШИБОК В ПРИЛОЖЕНИИ К ОБРАБОТКЕ РЕЗУЛЬТАТОВ ИЗМЕРЕНИЙ Общая теория ошибок – специальная область прикладной математики, использующая математический аппарат дифференциального исчисления и посвященная различным аспектам оценки погрешностей косвенных измерений. Косвенными принято называть такие измерения, результат которых находится не в ходе прямого измерения, а путем расчета с помощью конкретных функциональных зависимостей, у которых в качестве аргументов выступают результаты тех или иных прямых измерений. В наиболее общей форме основные задачи общей теории ошибок можно сформулировать следующим образом. Пусть у – результат косвенных измерений, х1, х2, … хn – аргументы, значения которых измеряются (определяются) в ходе эксперимента, а f – конкретная функциональная зависимость которая их связывает: y=f(х1, х2, … хn ) Вывод: Поскольку измерение (определение) величин xi всегда сопряжено с ошибкой (погрешностью) ±Δxi, то и определение величины y также сопровождается ошибкой (погрешностью) и ±Δу.
Pic.2
Поскольку между у и xi существует функциональная зависимость f, закономерна постановка следующих зад
Поскольку между у и xi существует функциональная зависимость f, закономерна постановка следующих задач. Поскольку между у и xi существует функциональная зависимость f, закономерна постановка следующих задач. Прямая задача теории ошибок – если известны ошибки, допускаемые при измерении отдельных аргументов ±Δxi, и вид функции f, чему равна ошибка ±Δy в определении величины y. Обратная задача теории ошибок – каковы предельно допустимые ошибки ±Δxi …±Δxn при измерении каждого из аргументов xi, если заданная величина ±Δy – предельно допустимая ошибка результата анализа. Третья задача общей теории ошибок – каким образом следует согласовать между собой условия измерения аргументов xi, чтобы относительная ошибка εy была минимальной. Допущения: Если абсолютные ошибки измерения отдельных аргументов |Δxi| достаточно малы в сравнении с xi, а функция f непрерывна во всей области измерений, то абсолютная ошибка функции |Δy| тоже мала. Вывод: Тогда ошибки аргументов, как малые приращения dxi, порождают ошибку функции dy и можно записать: y+dy=f(x1 ± Δdxi;…, xn ± Δdxn) или для одного аргумента: y+dy=f(x+dx)
Pic.3
Разложив в ряд Тейлора, получим: Разложив в ряд Тейлора, получим: Ограничившись двумя членами, имеем
Разложив в ряд Тейлора, получим: Разложив в ряд Тейлора, получим: Ограничившись двумя членами, имеем: или переходя к абсолютным ошибкам: Для относительной ошибки: Для функции y=f(х1, х2, … хn ) нескольких переменных получаем: (*) (**)
Pic.4
Внимание! Ошибки прямых и косвенных измерений, входящие в формулы, относятся к классу предельных оши
Внимание! Ошибки прямых и косвенных измерений, входящие в формулы, относятся к классу предельных ошибок, которые могут быть допущены при наиболее неблагоприятных условиях. Внимание! Ошибки прямых и косвенных измерений, входящие в формулы, относятся к классу предельных ошибок, которые могут быть допущены при наиболее неблагоприятных условиях. Поэтому они всегда складываются!!! Соответственно коэффициенты с частными производными – как бы статистические веса, с которыми частные ошибки входят в состав суммы. Вывод: Это позволяет рассматривать последние уравнения как закон сложения предельных ошибок. Замечание: Предельные ошибки имеют статистический характер и часто за значение δxmax принимают единичную или удвоенную цену деления прибора, т. к. генеральное стандартное отклонение часто используют для определения наименьшей цены деления СИ. Вывод: Интервал ±2σ включает в себя лишь случайные реализации и деление его на глаз на более мелкие части лишено всякого смысла!!! Замечание: Иногда, в целях облегчения поверки СИ, четырехсигмовый (трехсигмовый) интервал делят на 5-10 частей, но это оговаривается в паспорте |d|≤4σ.
Pic.5
Внимание! Формулы аналогичные (*) и (**) справедливы и для оценок генеральных ср. кв. ошибок всех ча
Внимание! Формулы аналогичные (*) и (**) справедливы и для оценок генеральных ср. кв. ошибок всех частных метрологических операций. Связь между ср. кв. ошибками σy, σx имеет вид: Внимание! Формулы аналогичные (*) и (**) справедливы и для оценок генеральных ср. кв. ошибок всех частных метрологических операций. Связь между ср. кв. ошибками σy, σx имеет вид: Для относительного стандартного отклонения конечного результата справедливо: Внимание! Последние формулы справедливы лишь в отношении линейных функций, для других используются как приближенные. Основные отличия от (*) и (**) заключаются в следующем: Закон сложения ср. кв. ошибок отличен от закона сложения предельных ошибок. Предельные ошибки функции аддитивны относительно предельных ошибок аргументов. В случае ср. кв. ошибок аддитивны средневзвешенные дисперсии. В частности для y=x1+x2 имеем: δymax = δx1max + δx2max для , но
Pic.6
Если , оценка относительной погрешности приводит к: Если , оценка относительной погрешности приводит
Если , оценка относительной погрешности приводит к: Если , оценка относительной погрешности приводит к: Вывод: Первая задача теории ошибок всегда разрешима. Пример: Замечание: Общая погрешность косвенных измерений всегда выше погрешностей отдельных этапов измерительной процедуры. Соответственно по ходу последовательных стадий анализа погрешности накапливаются, и любой их пересчет сопровождается лишь возрастанием погрешностей. Ошибка в определении малых разностей Пусть оценка у=х1-х2 проводится путем измерения аргументов. В первом приближении имеем , тогда: Внимание! Чем меньше разность, тем больше относительная погрешность к ее оценке. Вывод: Малые разности всегда определяются с большими погрешностями!!!
Pic.7
Практический вывод: Измерения надо организовывать таким образом, чтобы у, х1, х2 были соизмеримы, но
Практический вывод: Измерения надо организовывать таким образом, чтобы у, х1, х2 были соизмеримы, но величины х1, х2 должны заметно отличаться друг от друга. В противном случае надо непосредственно измерять у, т. е. достаточно точно определять меньшую часть. Практический вывод: Измерения надо организовывать таким образом, чтобы у, х1, х2 были соизмеримы, но величины х1, х2 должны заметно отличаться друг от друга. В противном случае надо непосредственно измерять у, т. е. достаточно точно определять меньшую часть. Замечание: Обратная (вторая) задача теории ошибок имеет однозначное решение, лишь в случае одного аргумента, который не представляет практического интереса. Для функций нескольких аргументов решение оказывается неопределенным и требует наложения дополнительных ограничений. Наиболее простое из них – принцип равных влияний: Замечание: Третья задача разрешима лишь в отдельных случаях, где необходимо найти условия экстремума функции: для чего частные производные приравниваются нулю. Пример: Найти погрешность определения скорости седиментации.
Pic.8
ЛЕКЦИЯ 8. ОСНОВЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ ПРИМЕНИТЕЛЬНО К ОЦЕНКЕ ПОГРЕШНОСТЕЙ
ЛЕКЦИЯ 8. ОСНОВЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ ПРИМЕНИТЕЛЬНО К ОЦЕНКЕ ПОГРЕШНОСТЕЙ РЕЗУЛЬТАТОВ ИЗМЕРЕНИЙ Понятие о генеральной и выборочной совокупности Генеральной совокупностью называют совокупность объектов, из которых производится выборка. Выборочной совокупностью (выборкой) называют совокупность случайно отобранных объектов. Объемом совокупности называют число объектов этой совокупности. Повторной называют выборку, при которой отобранный объект возвращается в генеральную совокупность. Бесповторной называют выборку, при которой отобранный объект в генеральную совокупность не возвращается. На практике обычно пользуются случайным бесповторным отбором. Замечание: Выборка должна быть репрезентативной (представительной), т. е. правильно представлять пропорции генеральной совокупности. Вывод: В силу закона больших чисел выборка будет репрезентативной, если ее осуществлять случайно!!! Статистические оценки параметров распределения Обычно в распоряжении исследователя имеется лишь данные выборки, полученные по результатам наблюдений (которые обычно считают независимыми). Внимание! Через эти данные и выражают оцениваемый параметр!!! Статистической оценкой неизвестного параметра теоретического распределения называют функцию от наблюдаемых случайных величин, которая дает лишь приближенное значение оцениваемого параметра.
Pic.9
Вывод: Для того чтобы статистические оценки давали "хорошее" приближения оцениваемых парам
Вывод: Для того чтобы статистические оценки давали "хорошее" приближения оцениваемых параметров, они должны быть несмещенными, эффективными и состоятельными. Вывод: Для того чтобы статистические оценки давали "хорошее" приближения оцениваемых параметров, они должны быть несмещенными, эффективными и состоятельными. Несмещенной называют статистическую оценку, математическое ожидание которой равно оцениваемому параметру при любом объеме выборки. М(Х*)=Х Смещенной называют статистическую оценку, математическое ожидание которой не равно оцениваемому параметру. Эффективной называют статистическую оценку, которая (при заданном объеме выборки n) имеет наименьшую возможную дисперсию. Состоятельной называют статистическую оценку, которая при n→∞ стремится по вероятности к оцениваемому параметру. Генеральной средней называют среднее арифметическое значений признака генеральной совокупности , если все значения x1,…,xN признака ген. сов. объема N различны. Если они имеют частоты N1,…,NK, то N=N1+…+NK и Вывод: ген. ср. есть средняя взвешенная значений признака с весами, равными соответствующим частотам. Внимание! Для непрерывного распределения признака Х , ген. ср. определяют через МО
Pic.10
Выборочной средней называют среднее арифметическое значений признака выборочной совокупности , если
Выборочной средней называют среднее арифметическое значений признака выборочной совокупности , если все значения x1,…,xn признака выб. сов. объема n различны. Выборочной средней называют среднее арифметическое значений признака выборочной совокупности , если все значения x1,…,xn признака выб. сов. объема n различны. Если они имеют частоты n1,…,nK, то и Вывод: выб. ср. есть средняя взвешенная значений признака с весами, равными соответствующим частотам: Внимание! Выборочная средняя это определенное число, зависящее от объема выборки, следовательно, ее можно рассматривать, как случайную величину и говорить о распределениях (теоретическом и эмпирическом) и численных характеристиках (М и D). Замечание: Для независимых, одинаково распределенных случайных величин Xn, Вывод: Выборочная средняя есть несмещенная оценка ген. ср. Внимание! Выборочная средняя является состоятельной оценкой генеральной средней, т. е. стремится по вероятности к МО (частный случай теоремы Чебышева).
Pic.11
Вывод: При увеличении объема выборки выборочная средняя стремится по вероятности к генеральной средн
Вывод: При увеличении объема выборки выборочная средняя стремится по вероятности к генеральной средней, т. е. выборочная средняя – состоятельная оценка. Вывод: При увеличении объема выборки выборочная средняя стремится по вероятности к генеральной средней, т. е. выборочная средняя – состоятельная оценка. Внимание! Имеет место свойство устойчивости выборочных средних, т. к. по нескольким выборкам достаточно большого объема из одной ген. совок. могут быть найдены выб. средние, которые приближенно будут равны между собой. Замечание: Если дисперсии двух одинаково распределенных совокупностей равны между собой, то близость выборочных средних к генеральным не зависит от отношения объема выборки к объему генеральной совокупности. Вывод: Она зависит от объема выборки: чем объем выборки больше, тем меньше выборочная средняя отличается от генеральной. Групповой средней - называют среднее арифметическое значение признака, принадлежащее группе. Внимание! Зная групповые средние и объемы групп, можно найти общую среднюю для всей совокупности, как среднее арифметическое групповых средних, взвешенное по объемам групп. Отклонением – называют разность между значением признака и общей средней. – сумма произведений отклонений на соответствующие частоты равна нулю. Среднее значение отклонения равно нулю.
Pic.12
Генеральной дисперсией DГ называют среднее арифметическое квадратов отклонения признака ген. сов. от
Генеральной дисперсией DГ называют среднее арифметическое квадратов отклонения признака ген. сов. от их среднего значения: Генеральной дисперсией DГ называют среднее арифметическое квадратов отклонения признака ген. сов. от их среднего значения: Вывод: Ген. дисп. – средняя взвешенная квадратов отклонений с весами, равными соответствующим частотам. Ген. дисп. – характеризует рассеивание значений количественного признака ген. сов. вокруг своего среднего значения. Кроме того, для этого же пользуются ген. С. К. О. (стандартом) – квадратный корень из ген. дисп. Выборочной дисперсией DВ называют среднее арифметическое квадратов отклонения признака выборки от их среднего значения : Вывод: Выб. дисп. – средняя взвешенная квадратов отклонений с весами, равными соответствующим частотам. Выб. дисп. – характеризует рассеивание значений количественного признака выборки вокруг своего среднего значения. Кроме того, для этого же пользуются выб. С. К. О. (стандартом) – квадратный корень из выб. дисп:
Pic.13
Практический вывод: В общем случае дисперсия равна среднему квадрату значений признака минус квадрат
Практический вывод: В общем случае дисперсия равна среднему квадрату значений признака минус квадрат общей средней: Практический вывод: В общем случае дисперсия равна среднему квадрату значений признака минус квадрат общей средней: Групповой дисперсией – называют дисперсию значений признака, принадлежащих группе относительно групповой средней: Внимание! Зная дисперсию каждой группы, можно найти их среднюю арифметическую. Внутригрупповой дисперсией – называют среднюю арифметическую дисперсий, взвешенную по объемам групп. Внимание! Зная групповые средние и общую среднюю, можно найти дисперсию групповых средних относительно общей средней. Межгрупповой дисперсией – называют дисперсию групповых средних относительно общей средней: Общей дисперсией – называют дисперсию значений признака всей совокупности относительно общей средней: Вывод: Если совокупность состоит из нескольких групп, то общая дисперсия равна сумме внутригрупповой и межгрупповой дисперсий:
Pic.14
Оценка генеральной дисперсии по исправленной выборочной Оценка генеральной дисперсии по исправленной
Оценка генеральной дисперсии по исправленной выборочной Оценка генеральной дисперсии по исправленной выборочной Внимание! Выб. дисп. – является смещенной оценкой DГ т. е. МО выборочной дисперсии не равно оцениваемой ген. дисп. и Вывод: Только исправленная дисперсия – является несмещенной оценкой генеральной дисперсии. Для оценки ген. дисп. принимают испр. дисп. : Для оценки СКО генеральной совокупности - "исправленное" СКО: Замечание: Исправленное СКО не является несмещенной оценкой!!! Внимание! На практике пользуются исправленной дисперсией, если примерно n<30.
Pic.15
Точечной называют оценку, которая определяется – одним числом. Точечной называют оценку, которая опр
Точечной называют оценку, которая определяется – одним числом. Точечной называют оценку, которая определяется – одним числом. Внимание! При выборке малого объема она может значительно отличаться от оцениваемого параметра, т. е. приводить к грубым ошибкам. Интервальной называют оценку, которая определяется двумя числами – концами интервала. Вывод: Интервальные оценки позволяют установить точность и надежность оценок. Точность оценки характеризуется положительным числом δ, характеризующим модуль разности между статистической характеристикой Θ* (по данным выборки) и оцениваемым неизвестным параметром Θ, т. е. |Θ - Θ*| < δ. Вывод: Статистические методы не позволяют категорически утверждать, что оценка Θ* удовлетворяет неравенству |Θ - Θ*| < δ, можно лишь говорить о вероятности γ, с которой это неравенство осуществляется. Надежностью (доверительной вероятностью) оценки Θ по Θ* называют вероятность γ с которой осуществляется неравенство , т. е. имеет место P [|Θ - Θ*| < δ] = γ или P [Θ*- δ < Θ < Θ* + δ] = γ Вывод: Представленные равенства означают, что вероятность того, что интервал (Θ*- δ, Θ*+ δ) покрывает (заключает в себя) неизвестный параметр Θ, равна γ. Внимание! Случайной величиной здесь является не оцениваемый параметр Θ, а интервал (доверительный), то правильнее говорить, не о вероятности попадания Θ в него, а о вероятности покрытия.
Pic.16
Доверительным называют интервал (Θ*- δ, Θ*+ δ), который покрывает (заключает в себя) неизвестный пар
Доверительным называют интервал (Θ*- δ, Θ*+ δ), который покрывает (заключает в себя) неизвестный параметр Θ, с заданной надежностью γ. Доверительным называют интервал (Θ*- δ, Θ*+ δ), который покрывает (заключает в себя) неизвестный параметр Θ, с заданной надежностью γ. Внимание! Надежность γ обычно задают наперед, при этом обычно используются следующие значения: 0,999 –для специальных теоретических исследований; 0,99 – в особо ответственных случаях; 0,95 (1,96σ) – при обработке аналитических данных; 0,9 (1,65σ) – при обработке данных технологического эксперимента; 0,8 (1,28σ) – при обработке данных биологического эксперимента. ±σ, γ - 0,68; ±2σ(1,96σ), γ - 0,95; ±3σ - 0,997; ±4σ - 0,99994. Вычисление случайной погрешности РИ (анализа), выраженных непрерывными величинами Замечание: При вычислении случайной погрешности измерений (анализа) исходят из следующего: если в идеальных условиях измерять одну и ту же величину бесчисленное множество раз, то множество результатов сгруппированных вокруг истинного значения измеряемой величины, образует генеральную совокупность. Вывод: При этом среднее арифметическое (генеральное среднее) этих результатов будет точно равно истинному значению измеряемой величины.
Pic.17
Замечание: В реальных условиях приходиться иметь дело с ограниченным числом повторений (выборкой из
Замечание: В реальных условиях приходиться иметь дело с ограниченным числом повторений (выборкой из генеральной совокупности) и среднее арифметическое (выборочное среднее) отличается от ген. сред. величиной случайной погрешности. Замечание: В реальных условиях приходиться иметь дело с ограниченным числом повторений (выборкой из генеральной совокупности) и среднее арифметическое (выборочное среднее) отличается от ген. сред. величиной случайной погрешности. Вывод: Эту величину и ее знак установить невозможно, поэтому за случайную погрешность принимают половину доверительного интервала, который с данной доверительной вероятностью накрывает генеральное среднее. Внимание! Правила вычисления доверительного интервала различны в зависимости закона распределения экспериментальных точек вокруг выборочного среднего. Наиболее часто встречается нормальное распределение. Особым случаем, которого является логарифмически нормальное распределение. Последнее имеет место, когда факторы, искажающие РИ, пропорциональны самому результату (мультипликативные составляющие). Внимание! Лог. норм. распределение наблюдается при использовании аналитических методов на пределе их чувствительности, а также при большой широте диапазона измеряемых величин, например при ситовом анализе. Замечание: Во всех остальных случаях распределения (не вполне строго) обычно относят к "нестандартным" (непараметрическим) распределениям. Общий порядок вычисления выборочного среднего и случайной погрешности представлен на блок-схеме.
Pic.18
Элементы общей теории ошибок в приложении к обработке результатов измерений, слайд 18
Pic.19
Доверительные интервалы для оценки математического ожидания нормального распределения при известном
Доверительные интервалы для оценки математического ожидания нормального распределения при известном σ Доверительные интервалы для оценки математического ожидания нормального распределения при известном σ Пусть количественный признак Х распределен нормально и известно СКО - σ Требуется оценить МО - а по выборочной средней , т. е. найти доверительные интервалы, покрывающие параметр а с надежностью γ. Известно, что если случайная величина Х распределена нормально, то выборочная средняя , найденная по независимым наблюдениям, также распределена нормально и имеет место: Требуя выполнения соотношения получаем: где Вывод: Смысл последнего выражения таков: с надежностью γ можно утверждать, что доверительный интервал покрывает неизвестный параметр а; точность оценки
Pic.20
Пример: Случайная величина Х имеет нормальное распределение с σ=3, объем выборки n=36, надежность оц
Пример: Случайная величина Х имеет нормальное распределение с σ=3, объем выборки n=36, надежность оценки γ =0,95. Пример: Случайная величина Х имеет нормальное распределение с σ=3, объем выборки n=36, надежность оценки γ =0,95. Найти доверительные интервалы для оценки неизвестного МО - а, по выборочным средним . Находим t : Из 2Ф(t)=0,95, получаем Ф(t)=0,475, по таблице функции Лапласа находим t=1,96. Точность оценки Доверительный интервал Ответ: Внимание! Ошибочно писать т. к. доверительная вероятность не следует связывать с оцениваемым параметром, она связана лишь с границами доверительного интервала, которые изменяются от выборки к выборке. Вывод: Если требуется оценить МО с заданной точностью и надежностью γ, то минимальный объем выборки, который обеспечит эту точность, равен:
Pic.21
Робастное (устойчивое) статистическое оценивание Робастное (устойчивое) статистическое оценивание От
Робастное (устойчивое) статистическое оценивание Робастное (устойчивое) статистическое оценивание Отсчеты, принадлежащие другой генеральной совокупности, по своим значениям могут несущественно отличаться от значений интересующей нас генеральной совокупности. Обнаружить их можно по виду плотности распределения (смесь). Наличие таких аномальных отсчетов принято называть загрязнением выборки. Внимание! Выделить члены выборки принадлежащие к каждой из генеральной совокупности в этом случае практически невозможно. Другим видом аномальных отсчетов являются плотности распределения которые не соприкасаются и не смешиваются между собой. Вывод: Такие отсчеты резко отличающиеся от большинства других отсчетов принято называть промахами и исключать из выборки. Замечание: Особую неприятность доставляют отсчеты которые не входят в основную выборку, но и не удалены от нее на значительное расстояние (предполагаемый промах).
Pic.22
На практике крайние значения выборки стали отбрасывать, этот способ получил название "цензуриро
На практике крайние значения выборки стали отбрасывать, этот способ получил название "цензурированная выборка". Для его реализации необходимы какие-либо формальные критерии. На практике крайние значения выборки стали отбрасывать, этот способ получил название "цензурированная выборка". Для его реализации необходимы какие-либо формальные критерии. Замечание: Простейшим методом цензурирования является "правило 3σ" с границей |ХГР|= 3σ и |Хi| ≥ 3σ - промах. Внимание! Однако во многих случаях это правило оказывается слишком "жестким". Вывод: Было предложено: при 6<n≤100 |ХГР|= 3σ ; при 100<n≤1000 |ХГР|= 4,5σ ; при 1000<n≤10000 |ХГР|= 5σ . Внимание! Еще более квалифицированно (с использованием таблиц вероятности крайних членов вариационного ряда для нормального распределения) это регламентировал ГОСТ 11. 002-73, а также определяет ГОСТ Р ИСО 5479-2002. Замечание: Однако для распределений отличных от нормального использование подобных таблиц лишено всякого смысла. По той же причине (нормальный закон распределения), не спасает положения и использование распределения Стьюдента с границами tγ S.
Pic.23
Пример: при n = 100, |Хi| ≥ 3σ - промах для нормального распределения, для равномерного промах |Хi|
Пример: при n = 100, |Хi| ≥ 3σ - промах для нормального распределения, для равномерного промах |Хi| ≥ 1,8σ , а для распределения Лапласа |Хi|=3σ принадлежит выборке. Пример: при n = 100, |Хi| ≥ 3σ - промах для нормального распределения, для равномерного промах |Хi| ≥ 1,8σ , а для распределения Лапласа |Хi|=3σ принадлежит выборке. Вывод: Границы tσ и tγS цензурирования выборки зависят не только от объема выборки, но и от вида распределения. При выявлении выбросов возникают серьезные вопросы: являются ли отклонившиеся данные действительно ошибками или это реальные значения и как получить адекватные оценки для параметров изучаемой совокупности. Внимание! Решением подобных вопросов занимается специальный раздел статистики – робастное (устойчивое) оценивание. Методы робастного оценивания – это статистические методы, которые позволяют получить достаточно надежные оценки статистической совокупности с учетом неявности закона ее распределения и наличия существенных отклонений в значениях данных. У истоков их разработки стояли Хубер, Смирнов и Тьюки. При решении таких задач выделяют два основных подхода. Первый ориентирован на устранение из выборки ошибок и оценку по "исправленным" значениям. Второй подход предполагает выделение истинных значений признака и собственно ошибки х = хист + ξ.
Pic.24
Замечание: При этом осуществляется модификация данных таким образом, чтобы искажающий элемент ξ полу
Замечание: При этом осуществляется модификация данных таким образом, чтобы искажающий элемент ξ получил нормальное распределение с нулевым МО. Тогда для некоторого множества грубых ошибок ∑ξ приближается к нулю, а оценки - к истинным значениям. Замечание: При этом осуществляется модификация данных таким образом, чтобы искажающий элемент ξ получил нормальное распределение с нулевым МО. Тогда для некоторого множества грубых ошибок ∑ξ приближается к нулю, а оценки - к истинным значениям. Алгоритм обработки "засорений" включает последовательное выполнение следующих шагов. Распознавание ошибок в данных. Выбор метода и проведение робастного оценивания данных. Критериальная или логическая проверка и интерпретация результатов устойчивого оценивания. Внимание! Проверку выборки на наличие аномальных значений проводят при числе повторений опыта n ≥ 3, т. к. при n=2 невозможно определить, какая из величин аномальна. При n < 11, проверку проводят в предположении, что распределение нормально или лог. нормально. Замечание: Простой формальный прием для обнаружения грубых ошибок основывается на расчете Т – критерия Смирнова-Граббса: Вывод: Наблюдаемое значение Т – критерия сравнивают с пороговыми, заданными соответствующими распределениями ТКР=Тα,n, если превышение то относят к классу выбросов. Аналогично, если уровень значимости α равен или превышает 0,05, то данные не аномальны.
Pic.25
КРИТЕРИЙ СМИРНОВА-ГРАББСА (Т) ТЕХНОЛОГИЧЕСКИЙ КРИТЕРИЙ СМИРНОВА-ГРАББСА (Т) ТЕХНОЛОГИЧЕСКИЙ
КРИТЕРИЙ СМИРНОВА-ГРАББСА (Т) ТЕХНОЛОГИЧЕСКИЙ КРИТЕРИЙ СМИРНОВА-ГРАББСА (Т) ТЕХНОЛОГИЧЕСКИЙ
Pic.26
Внимание! Существуют и другие критерии цензурирования выборки Внимание! Существуют и другие критерии
Внимание! Существуют и другие критерии цензурирования выборки Внимание! Существуют и другие критерии цензурирования выборки Замечание: Если имеется несколько подозрительных элементов, то проверку осуществляют в несколько стадий: Сначала составляют уменьшенную выборку, включив в нее все неподозрительные элементы и один подозрительный (с минимальным отклонением от среднего). Если проверка выявляет аномальность этого элемента, то отбрасывают все подозрительные элементы. Иначе в выборку включают исследованный элемент и повторяют проверку. Пример: Результаты определения содержания вещества в продукте представлены в таблице. Произвести проверку на аномальность.
Pic.27
Внимание! В большинстве практических случаев проверку на нормальность не проводят, априори считая ра
Внимание! В большинстве практических случаев проверку на нормальность не проводят, априори считая распределение нормальным или логарифмически нормальным. Внимание! В большинстве практических случаев проверку на нормальность не проводят, априори считая распределение нормальным или логарифмически нормальным. Замечание: В случае малой выборки отклонение от нормального распределения практически не сказывается на точности вычисления погрешности. Вывод: Исключение составляют выборки с числом элементов 11 и более, для которых подобная проверка обязательна. Выборку объемом 11-50 (30) элементов можно проверить на нормальность по следующей формуле: где - выборочное среднее отклонение; di - отклонение от среднего i-го элемента выборки (по модулю). Полученное значение сравнивают с табличным, определяя доверительную вероятность соответствия норм. распр. Вывод: Если γ ≥ 0,95 распределение считают нормальным.
Pic.28
ЗНАЧЕНИЯ ВЫБОРОЧНОГО СРЕДНЕГО ОТКЛОНЕНИЯ ДЛЯ РАЗЛИЧНЫХ УРОВНЕЙ ЗНАЧИМОСТИ
ЗНАЧЕНИЯ ВЫБОРОЧНОГО СРЕДНЕГО ОТКЛОНЕНИЯ ДЛЯ РАЗЛИЧНЫХ УРОВНЕЙ ЗНАЧИМОСТИ
Pic.29
Пример: Анализ пробы сточных вод на содержание белка представлен в таблице. Проверить полученные рез
Пример: Анализ пробы сточных вод на содержание белка представлен в таблице. Проверить полученные результаты на нормальность распределения. Пример: Анализ пробы сточных вод на содержание белка представлен в таблице. Проверить полученные результаты на нормальность распределения.
Pic.30
Внимание! При объеме выборки более 50 (30) элементов проверку осуществляют с помощью критериев согла
Внимание! При объеме выборки более 50 (30) элементов проверку осуществляют с помощью критериев согласия. Внимание! При объеме выборки более 50 (30) элементов проверку осуществляют с помощью критериев согласия. Статистическая проверка гипотез. Основные понятия Статистической называют гипотезу о виде неизвестного распределения, или о параметрах известных распределений. Пример: Генеральная совокупность распределена по нормальному закону. Дисперсии двух нормальных совокупностей равны между собой. Нулевой (основной) называют выдвинутую гипотезу Н0, конкурирующей (альтернативной) называют гипотезу Н1, которая противоречит нулевой. Пример: Н0 : а=10; Н1 : а≠10 Простой называют гипотезу, содержащую только одно предположение. Пример: Н0 : а=10; (σ - известно) – простая гипотеза. Сложной называют гипотезу, которая состоит из конечного или бесконечного числа простых гипотез. Н0 : а>10 – сложная гипотеза, для нормального распределения а=10; (σ - неизвестно) – сложная гипотеза.
Pic.31
Ошибка первого рода – отвергнута правильная гипотеза. Ошибка первого рода – отвергнута правильная ги
Ошибка первого рода – отвергнута правильная гипотеза. Ошибка первого рода – отвергнута правильная гипотеза. Ошибка второго рода – принята неправильная гипотеза. Внимание! Последствия этих ошибок могут оказаться весьма различными. Правильное решение принимается только в двух случаях: гипотеза принимается причем и в действительности она правильная; гипотеза отвергается причем и в действительности она неверна. Вероятность совершить ошибку первого рода обозначают α и называют - уровнем значимости. Обычно α=0,05 или 0,01. α=0,05 означает, что в пяти случаях из ста имеется риск допустить ошибку первого рода (отвергнуть правильную гипотезу). Статистическим критерием (или просто критерием) – называют случайную величину К, которая служит для проверки нулевой гипотезы. Наблюдаемым значением КН – называют значение критерия, вычисленное по выборкам. Замечание: После выбора критерия множество его значений разбивают на два непересекающихся подмножества: одно содержит значение критерия, при которых нулевая гипотеза отвергается, другое – при которых она принимается.
Pic.32
Критической областью – называют совокупность значений критерия, при которых нулевую гипотезу отверга
Критической областью – называют совокупность значений критерия, при которых нулевую гипотезу отвергают (наиболее важная область, т. к. "все остальное тоже может быть"). Критической областью – называют совокупность значений критерия, при которых нулевую гипотезу отвергают (наиболее важная область, т. к. "все остальное тоже может быть"). Областью принятия гипотезы (ОДЗ) – называют совокупность значений критерия, при которых гипотезу принимают. Основной принцип проверки статистических гипотез – если наблюдаемое значение критерия принадлежит критической области – гипотезу отвергают, если наблюдаемое значение критерия принадлежит области принятия гипотезы – гипотезу принимают. Критическими точками (границами) kКР – называют точки, отделяющие критическую область от области принятия гипотезы. Правосторонней называют критическую область, определенную неравенством К > kКР, где kКР - положительное число. Левосторонней называют критическую область, определенную неравенством К < kКР, где kКР - отрицательное число. Односторонней называют правостороннюю или левостороннюю критическую область. Двусторонней называют критическую область, определенную неравенствами К < k1, и К > k2, где k2 > k1. Для симметрии относительно нуля |К| > kКР.
Pic.33
Правосторонняя критическая область Правосторонняя критическая область Р (К > kКР) = α - уровень з
Правосторонняя критическая область Правосторонняя критическая область Р (К > kКР) = α - уровень значимости. Нулевую гипотезу отвергают, в противном случае нет оснований, чтобы отвергнуть нулевую гипотезу. Внимание! Пользуясь этим равенством, мы с вероятностью α рискуем совершить ошибку первого рода. Внимание! Пусть нулевая гипотеза принята. Однако - ошибочно думать, что тем самым она доказана!!! Правильно говорить: "Данные наблюдений согласуются с нулевой гипотезой и, следовательно, не дают оснований ее отвергнуть". Отвергают гипотезу более категорично, чем принимают. Левосторонняя критическая область Р (К < kКР) = α, kКР < 0; при КН < kКР нулевую гипотезу отвергают. Двусторонняя критическая область Р (К < k1) + Р (К > k1) = α - бесчисленное число вариантов. При симметрии относительно нуля Р (К < -kКР) = Р (К > kКР) и получаем Р(К>kКР) = α/2. Вывод: Односторонний критерий более "жестко" отвергает нулевую гипотезу чем двухсторонний! Замечание: Не следует путать с доверительным интервалом! Если имеются односторонние ограничения (только снизу или только сверху) целесообразно пользоваться односторонней доверительной вероятностью: т. к. это позволяет уменьшить погрешность РИ. При этом доверительный интервал имеет вид (ограничения снизу) или (ограничения сверху).
Pic.34
Критерием согласия – называют критерий проверки гипотезы о предполагаемом законе неизвестного распре
Критерием согласия – называют критерий проверки гипотезы о предполагаемом законе неизвестного распределения. Критерием согласия – называют критерий проверки гипотезы о предполагаемом законе неизвестного распределения. Замечание: Имеется несколько критериев согласия χ2 (Пирсона), Колмогорова, Смирнова и т. д. Внимание! При объеме выборки более 50 (30) проверку обычно ведут по критерию Пирсона следующим образом. Сначала элементы выборки ранжируют. Полученный ряд разбивают на классы, число которых определяют формулой: , где l - число классов l >5. Замечание: Минимальное число классов 5, ширина всех классов обычно одинакова. Желательно чтобы в каждом классе было не менее 5 элементов выборки. По крайней мере, такие классы должны доминировать. Для каждого класса вычисляют величину абсциссы нормального распределения: , где xклi – величина, соответствующая началу данного класса. По величине Ui воспользовавшись таблицами или Excel для каждого класса определяют значение ординаты нормального распределения φ(Ui).
Pic.35
С помощью ординаты φ(Ui) вычисляют теоретическое количество элементов выборке в каждом из классов: С
С помощью ординаты φ(Ui) вычисляют теоретическое количество элементов выборке в каждом из классов: С помощью ординаты φ(Ui) вычисляют теоретическое количество элементов выборке в каждом из классов: где , n’i – теоретическое количество элементов в данном классе, а – ширина класса. Замечание: Классы, имеющие число элементов менее 5, объединяют с соседними классами. Теоретическое число элементов объединенного класса представляет собой сумму теоретического числа элементов объединяемых классов. Внимание! Фактически находят варианты теоретического и эмпирического распределения, как середины абсцисс каждого класса. Вычисляют теоретические и эмпирические частоты для вариант распределения. В качестве критерия проверки нулевой гипотезы применяют: f = l – lоб - 3, где f – число степеней свободы, ni, ni’ - эмпирические и теоретические частоты соответственно, lоб - число объединенных классов. При сравнении вычисленного значения критерия с табличным определяют при данном числе степеней свободы вероятность того, что отклонение от нормальности распределения носит случайный характер. Вывод: Условие нормальности – уровень значимости α ≤ 0,95.
Pic.36
Пример: Одну и ту же пробу проанализировали 60 раз. Проверить полученные данные на нормальность расп
Пример: Одну и ту же пробу проанализировали 60 раз. Проверить полученные данные на нормальность распределения. Пример: Одну и ту же пробу проанализировали 60 раз. Проверить полученные данные на нормальность распределения. Наименьшее экспериментальное значение – 25,10%, наибольшее – 25,64%, число классов 601/2≈8, ширина класса (25,64-25,10)/8=0,08, выборочное среднее – 25,39%, СКО – 0,2338. Исходя из этих значений находим Ui , φi и др. данные. Для f=8-2-3=3 с помощью χ2 получим α < 0,95. Вывод: Отличие данного распределения от нормального носит случайный характер, что не противоречит гипотезе о нормальном распределении данных.
Pic.37
Внимание! Критерий Пирсона отвечает на вопрос – случайно ли расхождение частот. Возможно, оно случай
Внимание! Критерий Пирсона отвечает на вопрос – случайно ли расхождение частот. Возможно, оно случайно (незначительно) или неслучайно (значимо) и тогда теоретические частоты вычислены исходя из неверной гипотезы о виде распределения. Внимание! Критерий Пирсона отвечает на вопрос – случайно ли расхождение частот. Возможно, оно случайно (незначительно) или неслучайно (значимо) и тогда теоретические частоты вычислены исходя из неверной гипотезы о виде распределения. Вывод: Как и любой другой критерий он не доказывает справедливость гипотезы (генеральная совокупность распределена нормально), а лишь устанавливает на принятом уровне значимости ее согласие или несогласие с данными наблюдений. Доказано, что при n→∞ закон распределения случайной величины суммы χ2 независимо от того, какому закону подчиняется ген. совокуп. , стремиться к закону распределения χ2 с k степенями свободы. Внимание! Число степеней свободы находят из равенства: k = s -1- r где s - число классов (групп) выборки (частичных интервалов), r - число параметров предполагаемого распределения, которые оценены по выборке. В частности, для нормального распределения их два МО и СКО, поэтому k = s - 3. Вывод: Односторонний критерий более "жестко" отвергает нулевую гипотезу, чем двухсторонний, имеем и при нет оснований отвергать нулевую гипотезу. Её отвергают при
Pic.38
Критерий Смирнова-Колмогорова позволяет сравнивать две независимые выборки и ответить на вопрос, отн
Критерий Смирнова-Колмогорова позволяет сравнивать две независимые выборки и ответить на вопрос, относятся ли они к одной и той же генеральной совокупности без выбора для сравнения какой-либо предполагаемой модели. Критерий Смирнова-Колмогорова позволяет сравнивать две независимые выборки и ответить на вопрос, относятся ли они к одной и той же генеральной совокупности без выбора для сравнения какой-либо предполагаемой модели. Внимание! Этот критерий чувствителен к различию центров, величин рассеяния, асимметрии и эксцесса. В качестве статистики используется наибольшая (по модулю) разность между ординатами кривых обеих относительных накопленных частот. Замечание: Сравнение производится при одинаковых для обеих выборок границах и числе интервалов группирования. В начале накопленные частоты F1, F2 делятся на соответствующие объемы выборок n1, n2. Затем вычисляется разность и максимум этой разности используется как искомая статистика (для двустороннего критерия).
Pic.39
Распределение этой статистики было табулировано Смирновым. Распределение этой статистики было табули
Распределение этой статистики было табулировано Смирновым. Распределение этой статистики было табулировано Смирновым. Для n1 + n2 >35 значение критических может приближенно быть вычислено как: где для уровня q = 1 – P При сопоставлении данной выборки с объемом n1=n с выбранной аналитической моделью n2 =∞ имеем: для D при n= n1=n2 и для Вывод: Достоинство данного критерия состоит в том, что он позволяет определить уровень значимости q (для n>35), не прибегая к использованию каких-либо таблиц. Внимание! Критерий Смирнова-Колмогорова в общем случае неприменим, если в F0(x) входят оценки параметров, которые были произведены по той же самой выборке, по которой была вычислена
Pic.40
Пусть количественный признак X распределен нормально, причем СКО σ неизвестно. Требуется оценить МО
Пусть количественный признак X распределен нормально, причем СКО σ неизвестно. Требуется оценить МО - a с помощью доверительных интервалов. Пусть количественный признак X распределен нормально, причем СКО σ неизвестно. Требуется оценить МО - a с помощью доверительных интервалов. Строим случайную величину которая имеет распределение Стьюдента, с k = n - 1 степенями свободы. Здесь, исправленное СКО S и случайные величины. Получаем: Далее, заменяя случайные величины на неслучайные , найденные по выборке получаем доверительный интервал покрывающий a с надежностью γ. Замечание: Для малых выборок (n<30), в особенности для малых значений n, замена распределения Стьюдента нормальным приводит к грубым ошибкам и неоправданному сужению доверительного интервала, т. е. к неоправданному повышению точности оценки.
Pic.41
Пример: Количественный признак X генеральной совокупности распределен нормально. При n=16, определен
Пример: Количественный признак X генеральной совокупности распределен нормально. При n=16, определено Пример: Количественный признак X генеральной совокупности распределен нормально. При n=16, определено Оценить неизвестное МО при помощи доверительного интервала с надежностью 0,95. Найдем tγ, пользуясь таблицей, при γ=0,95, n=16, находим tγ = 2,13 и и Ответ: С надежностью 0,95 неизвестный параметр а заключен в доверительном интервале 19,774,< а <20,626 Замечание: Погрешность опыта для n=2…10 иногда определяют по формуле: где М – поправка на смещение СКО. Внимание! Уменьшение интервала наиболее заметно при 2-4 повторностей, что связано с увеличением симметрии в результатах. В тех случаях когда априори распределение лог. норм. все вычисления производят с логарифмами элементов выборки. Крайние точки доверительного интервала получают потенцированием соответствующих величин. При этом полученный интервал всегда несимметричен относительно среднего. Замечание: При n<11 и , данные можно обрабатывать как нормально распределенные.
Pic.42
Значение при односторонней доверительной вероятности Значение при односторонней доверительной вероят
Значение при односторонней доверительной вероятности Значение при односторонней доверительной вероятности
Pic.43
Взаимное сопоставление результатов измерений Взаимное сопоставление результатов измерений Часто быва
Взаимное сопоставление результатов измерений Взаимное сопоставление результатов измерений Часто бывает необходимо сопоставить результаты измерений (анализа) полученные в различное время и различными исследователями. Как правило, средние значения параметров различаются величиной. Однако такое расхождение может находиться в пределах погрешности измерений. Требуется определить значимость расхождения средних величин. Замечание: Приемы идентификации различны для непрерывных и дискретных величин.
Pic.44
Если распределение норм. или лог. норм. поступают следующим образом. Если распределение норм. или ло
Если распределение норм. или лог. норм. поступают следующим образом. Если распределение норм. или лог. норм. поступают следующим образом. Сравнивают дисперсии с помощью критерия Фишера по формуле: Значения критерия и чисел степеней свободы, вычисленные для большей и меньшей дисперсий f1 = n1 – 1, f2 = n2 – 1 соответственно, служат для определения вероятности равенства дисперсий по таблице. Замечание: Обычно, при P > 0,05 дисперсии считают равными, т. е. их различие носит случайный характер. В противном случае дисперсии являются неравными, т. е. их различие закономерно. Более строго: Нулевая гипотеза H0: D(X)=D(Y), конкурирующая гипотеза H1: D(X)>D(Y). Правосторонняя критическая область F > FКР определяется условием: а область принятия нулевой гипотезы, где нет оснований её отвергать – неравенством F < FКР .
Pic.45
Нулевая гипотеза H0: D(X)=D(Y), конкурирующая гипотеза H1: D(X)≠D(Y). Двусторонняя критическая облас
Нулевая гипотеза H0: D(X)=D(Y), конкурирующая гипотеза H1: D(X)≠D(Y). Двусторонняя критическая область определяется условием P(F<F1)=α/2 и P(F>F2)=α/2 с правой критической точкой Нулевая гипотеза H0: D(X)=D(Y), конкурирующая гипотеза H1: D(X)≠D(Y). Двусторонняя критическая область определяется условием P(F<F1)=α/2 и P(F>F2)=α/2 с правой критической точкой Замечание: Левостороннюю обычно не ищут, а область принятия нулевой гипотезы, где нет оснований её отвергать, определяют неравенством F1<F<F2. Вывод: Критическая область строится от вида конкурирующей гипотезы. Если дисперсии равны, вычисляют среднее значение дисперсии и значение критерия Стьюдента где Для f=f1+f2, используя вычисленное значение tγ по таблице определяют вероятность того, что разница двумя данными средними результатами закономерна. Нижнее граничное значение вероятности обычно 0,95. Т. К. критическая область строится от вида конкурирующей гипотезы.
Pic.46
Для нулевой гипотезы H0: М(X)=М(Y) и конкурирующей гипотезы H1:М(X)≠М(Y) имеем двустороннюю критичес
Для нулевой гипотезы H0: М(X)=М(Y) и конкурирующей гипотезы H1:М(X)≠М(Y) имеем двустороннюю критическую область, которая определяется условием P(tγ < tЛЕВ)=α/2 и P(tγ >tЛЕВ)=α/2, где область принятия гипотезы Для нулевой гипотезы H0: М(X)=М(Y) и конкурирующей гипотезы H1:М(X)≠М(Y) имеем двустороннюю критическую область, которая определяется условием P(tγ < tЛЕВ)=α/2 и P(tγ >tЛЕВ)=α/2, где область принятия гипотезы Нулевая гипотеза H0: М(X)=М(Y), конкурирующая гипотеза H1:М(X)>М(Y). Правосторонняя критическая область F>FКР определяется условием P(tγ<tПР. КР), где tПР. КР(α,f) область принятия нулевой гипотезы, где нет оснований её отвергать – неравенством tγ<tПР. КР. Аналогично для левосторонней области. Если дисперсии не равны, но число повторений анализа в обоих случаях одинаково n=n1=n2, значение критерия Стьюдента равно: с числом степеней свободы: где Замечание: Для найденного значения критерия и числа степеней свободы по таблице определяют вероятность того, что разница между средними значениями закономерна.
Pic.47
Если дисперсии не равны и число повторений анализов различно, значение критерия Стьюдента вычисляют
Если дисперсии не равны и число повторений анализов различно, значение критерия Стьюдента вычисляют по формуле: Если дисперсии не равны и число повторений анализов различно, значение критерия Стьюдента вычисляют по формуле: с числом степеней свободы: где Дальнейшие действия аналогичны. При известных ген. дисперсиях, если оба анализа выполнены одним и тем же методом: если разными: Замечание: Граничное значение α обычно 0,95.
Pic.48
Сопоставление точности двух методов анализа Сопоставление точности двух методов анализа При выборе м
Сопоставление точности двух методов анализа Сопоставление точности двух методов анализа При выборе метода анализа обычно принимают решение, являющееся компромиссом, между стоимостью или трудоемкостью, с одной стороны и точностью с другой. При этом необходимо сравнить точность двух или более методов между собой. Наиболее удобно если известны генеральные дисперсии методов. Внимание! Метод с меньшей генеральной дисперсией является более точным. Соотношение погрешностей двух методов при равном числе повторностей или если их число не превышает четырех определяется равенством: Иногда выгоднее выполнить большое число повторностей малотрудоемкого, но низкоточного метода, нежели две повторности высокоточного анализа высокой трудоемкости. В этом случае проводят ориентировочный расчет. Погрешность высокоточного рассчитывают как: Низкоточного: приняв во внимание, что
Pic.49
Замечание: Подобное сравнение имеет смысл при f ≥ 5 (двухстороннее ограничение) или f ≥ 4 (односторо
Замечание: Подобное сравнение имеет смысл при f ≥ 5 (двухстороннее ограничение) или f ≥ 4 (одностороннее ограничение). Замечание: Подобное сравнение имеет смысл при f ≥ 5 (двухстороннее ограничение) или f ≥ 4 (одностороннее ограничение). При меньшем числе повторений погрешность высокоточного метода будет заведомо меньше, чем низкоточного. Значения χ2 определяется числом степеней свободы и Р=0,95. Из известных трех значений σ2 в последнюю формулу подставляют σ2max Внимание! Точность двух методов можно сравнить, когда ген. дисп. неизвестны, с использованием критерия Фишера. Если дисперсии равны, методы считают равноточными. В противном случае менее точен метод с большей дисперсией. Внимание! При малом числе повторений (5-6) четырех-пятикратная разница между выборочными дисперсиями не позволяет сделать заключение об их отличии друг от друга. Для этого необходимо 20-30 степеней свободы. Замечание: Чтобы набрать их не нужно специально организовывать 20-30 кратные измерения одного и того же образца. Достаточно воспользоваться данными нескольких образцов близкого состава, а затем сложить дисперсии. Вывод: При этом точность увеличится.
Pic.50
Если удастся набрать не менее 60 степеней свободы для каждого из методов, то можно вычислить ген. ди
Если удастся набрать не менее 60 степеней свободы для каждого из методов, то можно вычислить ген. дисперсии по последней формуле. Если удастся набрать не менее 60 степеней свободы для каждого из методов, то можно вычислить ген. дисперсии по последней формуле. При этом для каждого из методов получают три значения ген. дисперсии – среднее, верхнее и нижнее (доверительный интервал для ген. дисперсии несимметричен). Среднее получают для Р=0,95, Верхнее для Р=0,025, Нижнее для Р=0,975. α =1-Р Замечание: Невозможность вычисления точного значения ген. дисп. является частным проявлением законов статистики – по выборочным значениям можно определить характеристику, лишь с некоторой погрешностью, которая зависит от числа проведенных экспериментов.
Pic.51
Цель и особенности эксперимента по определению функциональной зависимости Цель и особенности экспери
Цель и особенности эксперимента по определению функциональной зависимости Цель и особенности эксперимента по определению функциональной зависимости На практике необходимость измерений большинства величин вызывается тем, что они не остаются постоянными, а изменяются в функции от изменения других величин. В этом случае целью измерения является установление вида функциональной зависимости y=f(x). Для этого должны одновременно определяться величины как х, так и соответствующие им величины у. Задачей эксперимента является - установление математической модели исследуемой зависимости. Определение математической модели включает в себя указание вида модели и определение значений ее параметров (коэффициентов, степеней и т. п. ). Искомая функция может быть как функцией одной независимой переменной, так и многих переменных. В современной теории эксперимента независимые переменные принято называть факторами, а зависимую переменную у – откликом (ГОСТ 24026-80). В соответствии с этим стандартом эксперимент по определению функции вида y=f(x) принято именовать – однофакторным, а эксперимент по определению функции вида y=F(x1,…,хk) – многофакторным.
Pic.52
Искомая мат. модель функциональной зависимости может быть найдена лишь в результате совместной обраб
Искомая мат. модель функциональной зависимости может быть найдена лишь в результате совместной обработки всех полученных значений x и y. Искомая мат. модель функциональной зависимости может быть найдена лишь в результате совместной обработки всех полученных значений x и y.
Pic.53
Выбор вида математической модели и остаточная погрешность адекватности Выбор вида математической мод
Выбор вида математической модели и остаточная погрешность адекватности Выбор вида математической модели и остаточная погрешность адекватности Задача выбора вида функциональной зависимости – задача не формализуемая, т. к. одна и та же кривая на данном участке примерно с одинаковой точностью может быть описана самыми различными аналитическими выражениями. Например, U - образная кривая. Это часть гиперболы, параболы, эллипса, синусоиды и т. п. Внимание! Рациональный выбор того или иного аналитического описания может быть обоснован лишь при учете определенного перечня требований. Внимание! Главное требование к математической модели – это удобство ее последующего использования. Основное, что обеспечивает удобство математического выражения, - его компактность. Например, известно, что любую функцию y=f(x) можно описать многочленом y=a0+a1x+…+anxn, но если есть возможность использовать одночленные элементарные функции, то ясно, что такое представление лучше. Вывод: Компактность модели достигается удачным выбором элементарных функций, обеспечивающих хорошее приближение при малом их числе.
Pic.54
Другое весьма желательное (но иногда трудно достижимое) требование – содержательность, иначе говоря,
Другое весьма желательное (но иногда трудно достижимое) требование – содержательность, иначе говоря, – интерпретируемость предлагаемого аналитического описания. Другое весьма желательное (но иногда трудно достижимое) требование – содержательность, иначе говоря, – интерпретируемость предлагаемого аналитического описания. Обычно это достигается приданием определенного смысла константам или функциям, входящим в найденную мат. модель. Практический вывод: Выбор мат. модели остается за человеком и не может быть передан машине. Только человек знает, для чего используется модель, каковы ее ограничения и на основе каких понятий будут интерпретированы ее параметры. Основной помехой для установления вида исследуемой зависимости является разброс экспериментальных данных. Если диффузность исходных данных мала (случайный разброс почти отсутствует), то привлечение статистических методов для их обработки излишне и кривую можно просто провести через точки. Однако даже в этом случае не следует соединять экспериментальные точки отрезками прямых линий, а провести плавную кривую. При этом несколько точек могут не лежать на этой кривой и их следует рассматривать как возможные выбросы или промахи.
Pic.55
Внимание! Если диффузность исходных данных значительна (случайный разброс существенен), соединение п
Внимание! Если диффузность исходных данных значительна (случайный разброс существенен), соединение прямыми просто бессмысленно и требуется привлечение статистических методов. Внимание! Если диффузность исходных данных значительна (случайный разброс существенен), соединение прямыми просто бессмысленно и требуется привлечение статистических методов.
Pic.56
Одна из простейших методик – метод обведения контура плавных границ полосы рассеивания экспериментал
Одна из простейших методик – метод обведения контура плавных границ полосы рассеивания экспериментальных точек. Если некоторые точки остаются вне контура их рассматривают, как промахи. Одна из простейших методик – метод обведения контура плавных границ полосы рассеивания экспериментальных точек. Если некоторые точки остаются вне контура их рассматривают, как промахи. Форма обведенного контура чаще всего уже позволяет вынести суждения о характере функциональной зависимости . Для однозначного вывода проводят осевую (среднюю) линию этого контура. Замечание: Несмотря на свою простоту метод обведения контура, позволяет быстро указать желаемое положение и форму искомой кривой и провести ее не через отдельные точки, а сообразуясь с положением их всех на графике в целом.
Pic.57
При большом рассеянии результатов форма контура имеет бессмысленные, случайные очертания. Здесь прих
При большом рассеянии результатов форма контура имеет бессмысленные, случайные очертания. Здесь приходиться ограничиваться установлением уровня и наклона искомой зависимости полагая ее прямой проходящей через центр полосы. При большом рассеянии результатов форма контура имеет бессмысленные, случайные очертания. Здесь приходиться ограничиваться установлением уровня и наклона искомой зависимости полагая ее прямой проходящей через центр полосы.
Pic.58
Замечание: Не следует стремиться разбить поле на большое число областей, т. к. число точек ограничен
Замечание: Не следует стремиться разбить поле на большое число областей, т. к. число точек ограничено их должно быть от трех до пяти. Замечание: Не следует стремиться разбить поле на большое число областей, т. к. число точек ограничено их должно быть от трех до пяти. Метод "выделения остатка" полезен при аналитическом и графическом анализе. Метод состоит в последовательном представлении функции y=f(x) в виде y=f1(x)+ f2(x) с заданием первого слагаемого и выделении второго, затем вновь f2(x) =f3(x)+ f4(x) до тех пор пока не будет найдено описание последнего остатка. Погрешность адекватности модели – погрешность описания данного явления вследствие недостаточного соответствия аппроксимирующей функции всем особенностям формы экспериментальной кривой. Для улучшения соответствия приходиться усложнять модель. Это приводит к противоречию между компактностью и точностью описания данных.
Pic.59
Вывод: Рациональное решение – прекратить усложнение модели, когда она еще относительно проста, прими
Вывод: Рациональное решение – прекратить усложнение модели, когда она еще относительно проста, примирившись с приемлемой остаточной погрешностью адекватности. Вывод: Рациональное решение – прекратить усложнение модели, когда она еще относительно проста, примирившись с приемлемой остаточной погрешностью адекватности. Особое значение имеет достоверность и достаточный объем исходных данных позволяющий установить степень их случайности. Внимание! Наиболее распространенная ошибкой начинающих является попытки детерминированного описания, т. е. включение в мат. модель тех наблюдаемых особенностей, которые в действительности являются случайными. Ориентир – примерное равенство остаточной погрешности адекватности модели и ширины полосы ее неопределенности (коэффициент корреляции) вследствие случайного разброса данных. Более простой ориентир – прекращение уточнение модели, если "она не противоречит данному полю экспериментальных данных". Замечание: Формулировка "не противоречит" является наиболее правильной при таких заключениях и именно ее надо использовать во всех подобных случаях. Далее следует подбор аппроксимирующих функций, в первую очередь из разряда элементарных.
Pic.60
При определении параметров аппроксимирующих функций используют графические, графоаналитические и ана
При определении параметров аппроксимирующих функций используют графические, графоаналитические и аналитические методы. При определении параметров аппроксимирующих функций используют графические, графоаналитические и аналитические методы. На графике можно однозначно опознать только прямую линию и только прямую можно продлить на достаточно большое расстояние. Другие кривые таким свойством не обладают. Вывод: При построении экспериментальных данных координатные оси модели преобразуют до тех пор, пока не будет получено уравнение прямой линии. Замечание: Особенно эффективно использование графоаналитических методов определения искомых параметров тогда, когда обратное преобразование в элементарных функциях не выражается и аналитическое решение невозможно. В аналитических методах число опытов больше чем число искомых коэффициентов, т. е. число независимых уравнений системы избыточно. Из них можно составить множество уравнений, каждое из которых даст свое решение. Внимание! но между собой они будут несовместны и получится пучок в области неопределенности.
Pic.61
Метод наименьших квадратов Метод наименьших квадратов К так называемым парным зависимостям вида y=f(
Метод наименьших квадратов Метод наименьших квадратов К так называемым парным зависимостям вида y=f(x) относится подавляющее большинство всех формул, используемых в естественно-научных и технических дисциплинах. Замечание: Сама по себе процедура линейного парного регрессионного анализа (метода наименьших квадратов на плоскости) очень проста. Пусть имеется n пар наблюдений значений отклика yi, полученных при фиксированных (в смысле записанных) значениях независимой переменной фактора xi. Задача линейного регрессионного анализа (метода наименьших квадратов) состоит в том, чтобы, зная положение точек на плоскости, так провести линию регрессии, чтобы сумма квадратов U, отклонений Δ2i, вдоль оси 0y (ординаты) этих точек от проведенной прямой была минимальной. При проведении регрессионного анализа к выдвинутой гипотезе (к форме уравнения регрессии) обычно предъявляется следующее требование: Это уравнение должно быть линейным по параметрам или допускать возможность линеаризации.
Pic.62
Обратимся к уравнению прямой Обратимся к уравнению прямой Тогда задачу МНК аналитически можно вырази
Обратимся к уравнению прямой Обратимся к уравнению прямой Тогда задачу МНК аналитически можно выразить следующим образом: или Иначе говоря: сумма квадратов отклонений вдоль оси должна быть минимальной (принцип Лежандра). Для решения поставленной задачи, необходимо в каждом конкретном случае вычислить значения коэффициентов а0, а1 минимизируя сумму отклонений U. Известно, что для этого необходимо вычислить частные производные функции U по коэффициентам а0, а1 и приравнять их нулю: Решая эту систему нормальных уравнений, находим искомые значения а0, а1
Pic.63
Для краткости, опуская индексы у знака суммы, получаем: Для краткости, опуская индексы у знака суммы
Для краткости, опуская индексы у знака суммы, получаем: Для краткости, опуская индексы у знака суммы, получаем: Решаем систему с помощью определителей: , имеем: откуда
Pic.64
Линия, которую определяет МНК, называется линией регрессии, а ее коэффициенты – коэффициентами регре
Линия, которую определяет МНК, называется линией регрессии, а ее коэффициенты – коэффициентами регрессии. Решение обычно осуществляют в табличной форме с проверкой правильности вычислений по формуле: Линия, которую определяет МНК, называется линией регрессии, а ее коэффициенты – коэффициентами регрессии. Решение обычно осуществляют в табличной форме с проверкой правильности вычислений по формуле: Аналогично для трех и более слагаемых. Свойства МНК Если первое уравнение системы разделить на n получим: или Таким образом первое уравнение МНК требует, чтобы линия регрессии проходила через точку с координатами , т. е. через центр тяжести поля экспериментальных точек. Если принять за ноль (перенести начало координат), то и можно утверждать, что первое уравнение МНК определяет средний уровень искомой линии регрессии.
Pic.65
Второе уравнение системы при дает Второе уравнение системы при дает отсюда , т. е. второе уравнение
Второе уравнение системы при дает Второе уравнение системы при дает отсюда , т. е. второе уравнение МНК определяет угол наклона искомой прямой, относительно оси х. При большем числе независимых переменных, решение уравнений МНК есть плоскость в многомерном пространстве. Первое уравнение определяет совмещение этой плоскости с центром тяжести поля экспериментальных точек, а остальные коэффициенты наклона этой плоскости к соответствующим осям. Особенности МНК 1. Полученные этим методом решения необратимы. Это обусловлено тем, что существует две модели регрессии. Прямая, и обратная , где Это уже другое соотношение. Для обратной регрессии получаем:
Pic.66
Решаем систему с помощью определителей: имеем: Решаем систему с помощью определителей: имеем: откуда
Решаем систему с помощью определителей: имеем: Решаем систему с помощью определителей: имеем: откуда Естественно, , поэтому произведение , а равно величине: корень квадратный из которой и называется – коэффициентом взаимной (парной) корреляции.
Pic.67
В общем виде: В общем виде: либо с использованием средних: Следствием этого является то, что линии р
В общем виде: В общем виде: либо с использованием средних: Следствием этого является то, что линии регрессии, являясь диаметрами эллипса рассеивания экспериментальных точек, не совпадают с его осью. Линия регрессии y по x проходит более полого (ближе к оси x), чем ось эллипса, а линия x по y более круто (ближе к оси y) на ту же величину. Поэтому угловой коэффициент оси симметрии эллипса может быть выражен как a1/ρ или как a2 ρ, а отношение этих величин равно единице , отсюда
Pic.68
МНК очень чувствителен к неоднородности статистики экспериментальных данных и может дать абсурдное р
МНК очень чувствителен к неоднородности статистики экспериментальных данных и может дать абсурдное решение даже в том случае, если эта неоднородность вызвана наличием всего одного далеко отстающего промаха. МНК очень чувствителен к неоднородности статистики экспериментальных данных и может дать абсурдное решение даже в том случае, если эта неоднородность вызвана наличием всего одного далеко отстающего промаха. Вывод: Решение МНК должно приниматься по однородной, очищенной от промахов статистике. При коэффициенте корреляции близком к единице (при малом рассеивании экспериментальных точек) и большой протяженности поля точек, обе линии регрессии близки к оси эллипса и их различиями можно пренебречь. Замечание: При малом коэффициенте корреляции ρ<0,96, ρ2<0,92 это различие становится весьма существенным, а МНК – неэффективным. В этом случае переходят к другим методам, например – методу ортогональной регрессии. Выбор того или иного уравнения регрессии достаточно произволен и зависит от того, какую из случайных величин x или y считать заданной (независимой переменной). Такая ситуация всегда вызывала возражения экспериментаторов.
Pic.69
В принципе можно записать выражение для ортогональной регрессии, где расстояния от экспериментальных
В принципе можно записать выражение для ортогональной регрессии, где расстояния от экспериментальных точек до прямой регрессии измеряют по перпендикуляру к этой прямой в виде: В принципе можно записать выражение для ортогональной регрессии, где расстояния от экспериментальных точек до прямой регрессии измеряют по перпендикуляру к этой прямой в виде: где Линия ортогональной регрессии заданная этим соотношением является одной из главных осей эллипса рассеивания, а две другие линии регрессии – диаметры этого эллипса. Тогда уравнение эллипса рассеивания имеет вид: где - процентная точка распределения с двумя степенями свободы. Вывод: Ортогональная регрессия находит ограниченное применение, т. к. положение линии регрессии в системе координат зависит от выбранного по осям масштаба. Другими словами этот метод не обладает масштабной инвариантностью и находит ограниченное применение.
Pic.70
Процедуры вычисления коэффициентов регрессии, корреляции и некоторых других величин, необходимых для
Процедуры вычисления коэффициентов регрессии, корреляции и некоторых других величин, необходимых для проведения анализа могут быть упрощены, если вычислить промежуточные величины: Процедуры вычисления коэффициентов регрессии, корреляции и некоторых других величин, необходимых для проведения анализа могут быть упрощены, если вычислить промежуточные величины: С проверкой: Далее вычисления производят в следующем порядке: а) находят средние значения ; б) вычисляют коэффициенты регрессии: в) вычисляют величину г) вычисляют коэффициент корреляции
Pic.71
д) вычисляют стандартные ошибки: д) вычисляют стандартные ошибки: е) осуществляют проверку вычислени
д) вычисляют стандартные ошибки: д) вычисляют стандартные ошибки: е) осуществляют проверку вычислений: Далее, для статистического оценивания коэффициентов регрессии проверяют, отличается ли статистически значимо оценка каждого коэффициента регрессии от нуля, т. е. Границу значимости устанавливают на основании распределения Стьюдента: где βi - значение коэффициента регрессии в ген. совокупности; ai - выборочная оценка коэффициента регрессии, t(n-2,P) - табличное значение критической точки. Если условие выполняется, то можно сделать вывод что βi значимо отличается от нуля.
Pic.72
Оценку значимости коэффициента парной корреляции (проверку наличия корреляции) выполняют по формуле:
Оценку значимости коэффициента парной корреляции (проверку наличия корреляции) выполняют по формуле: Оценку значимости коэффициента парной корреляции (проверку наличия корреляции) выполняют по формуле: если это условие выполняется то гипотезу H0: r=0 отклоняют. Для этой цели также используют специальные таблицы для критических значений коэффициентов корреляции (r > rкр ). Для проверки значимости уравнения регрессии в целом с использованием критерия Фишера общую дисперсию сравнивают с остаточной дисперсией , которую вычисляют в табличной форме, аналогично для х. В литературе встречаются различные названия (остаточная дисперсия, сумма квадратов остатков, остаточная сумма квадратов). представляет собой показатель ошибки предсказания уравнением регрессии результатов опытов. Качество предсказания определяют, сравнивая с , другими словами критерий Фишера показывает, во сколько раз уравнение регрессии предсказывает результаты опытов лучше, чем среднее у: при различных уровнях значимости. При уравнение регрессии статистически значимо описывает результаты эксперимента.
Pic.73
Данная оценка может быть выполнена, если общее число значений у больше, чем число k значений x. Кажд
Данная оценка может быть выполнена, если общее число значений у больше, чем число k значений x. Каждому значению xi соответствует ni значений у. На практике так бывает очень часто. После подсчета отклонения групповых средних от прямой регрессии и отклонения у от групповых средних применяют статистику, Данная оценка может быть выполнена, если общее число значений у больше, чем число k значений x. Каждому значению xi соответствует ni значений у. На практике так бывает очень часто. После подсчета отклонения групповых средних от прямой регрессии и отклонения у от групповых средних применяют статистику, если сумма отклонений групповых средних от прямой регрессии, деленная на сумму отклонений от групповых средних со степенями свободы в числителе ν1=k-2 и знаменателе ν2=n-k достигает или превосходит границу значимости то гипотезу о линейности нужно отвергнуть.
Pic.74
Я НЕ СУМЕЛ СПЛАНИРОВАТЬ И ОБРАБОТАТЬ ЭКСКРЕМЕНТ !!!
Я НЕ СУМЕЛ СПЛАНИРОВАТЬ И ОБРАБОТАТЬ ЭКСКРЕМЕНТ !!!


Скачать презентацию

Если вам понравился сайт и размещенные на нем материалы, пожалуйста, не забывайте поделиться этой страничкой в социальных сетях и с друзьями! Спасибо!