Презентация - Регрессионный анализ. Основы

Смотреть слайды в полном размере
Презентация Регрессионный анализ. Основы


Вашему вниманию предлагается презентация на тему «Регрессионный анализ. Основы», с которой можно предварительно ознакомиться, просмотреть текст и слайды к ней, а так же, в случае, если она вам подходит - скачать файл для редактирования или печати.

Презентация содержит 31 слайд и доступна для скачивания в формате ppt. Размер скачиваемого файла: 326.00 KB

Просмотреть и скачать

Pic.1
1. Регрессионный анализ. Основы Основные задачи регрессионного анализа: а) подбираем класс функций д
1. Регрессионный анализ. Основы Основные задачи регрессионного анализа: а) подбираем класс функций для анализа; б) производим отбор наиболее информативных переменных; в) вычисляем оценки значений параметров модели; г) анализируем точность уравнения связи и его параметров; д) анализируем степень пригодности уравнения для целей прогноза.
Pic.2
1. Регрессионный анализ. Основы Основные варианты статистических взаимосвязей между переменными X и
1. Регрессионный анализ. Основы Основные варианты статистических взаимосвязей между переменными X и Y: Не направленная связь, обе переменные равноценны, наличие и сила взаимосвязи – корреляционный анализ. выделяем одну величину как независимую (объясняющую, факторную, предиктор), а другую как зависимую (объясняемую, результирующую), изменение первой может служить причиной для изменения второй переменной в виде какой либо зависимости – регрессионный анализ Количество, качество и неоднозначность связи.
Pic.3
1. Регрессионный анализ. Основы Анализ влияния объясняющей переменной на зависимую переменную «в сре
1. Регрессионный анализ. Основы Анализ влияния объясняющей переменной на зависимую переменную «в среднем»: функция регрессии Y на X. Здесь X – объясняющая переменная (регрессор), Y – зависимая. Общий вид регрессии, суть: Парная, множественная регрессия. Ф. Далтон 19 в. Возможность прогноза.
Pic.4
1. Регрессионный анализ. Основы Случайность зависимости – не совпадение реальных значений зависимой
1. Регрессионный анализ. Основы Случайность зависимости – не совпадение реальных значений зависимой переменной с её условным математическим ожиданием. Дополнение случайным слагаемым , отражающим это несоответствие Регрессионные модели (уравнения). Необходимость случайного члена.
Pic.5
1. Регрессионный анализ 1. Выбор вида связи переменных - спецификация уравнения регрессии. Графическ
1. Регрессионный анализ 1. Выбор вида связи переменных - спецификация уравнения регрессии. Графический метод по корреляционному полю (диаграмме рассеивания). Аналитический.
Pic.6
1. Регрессионный анализ 2. Определение параметров (коэффициентов) модели - параметризация. 3. Провер
1. Регрессионный анализ 2. Определение параметров (коэффициентов) модели - параметризация. 3. Проверка качества регрессии - верификация. Линейная модель как общая тенденция процесса. Параметризация линейной модели: Метод средних (Метод Маркова, на основе МЗР); Метод максимального правдоподобия. Частный случай ММП при квадратичной целевой функции – метод наименьших квадратов МНК.
Pic.7
1. Регрессионный анализ Задачи линейного регрессионного анализа для статистических данных (хi, yi) д
1. Регрессионный анализ Задачи линейного регрессионного анализа для статистических данных (хi, yi) для переменных Х и Y: а) получить наилучшие по какому-либо критерию оценки неизвестных теоретических параметров ai ; б) проверить статистические гипотезы о параметрах модели; в) проверить адекватность модели данных наблюдений; г) выполнить оценку точности результатов вычислени д) провести анализ полученных данных.
Pic.8
1. Парный регрессионный анализ Задача: подобрать для 2 рядов X и Y оптимальную модель из класса лине
1. Парный регрессионный анализ Задача: подобрать для 2 рядов X и Y оптимальную модель из класса линейных вида чтобы наилучшим образом линейно выразить Y через Х. С учетом коррекции имеем Решение на основе: метода наименьших квадратов в натуральных величинах метода наименьших квадратов в центрированных величинах Байесовского метода (на основе характеристик многомерного закона распределения)
Pic.9
1. Парный регрессионный анализ 1. Для решения модели по МНК в натуральных величинах: на поправки v н
1. Парный регрессионный анализ 1. Для решения модели по МНК в натуральных величинах: на поправки v накладывают условие метода наименьших квадратов: найти такие значения коэффициентов a и b чтобы сумма квадратов поправок v – [v2] = vTv  min – была минимальной из всех возможных наборов пар коэффициентов. Расчетные формулы: - выражаем поправки v, записывая уравнения поправок для модели, или в матричном виде Здесь матрица плана Х и искомых коэффициентов имеет вид
Pic.10
1. Парный регрессионный анализ составляем целевую функцию качества Ф для МНК которая должна быть мин
1. Парный регрессионный анализ составляем целевую функцию качества Ф для МНК которая должна быть минимальна для минимизации берем частные производные от Ф по k и полученное выражение приравниваем к нулю с учетом того, что Транспонируя выражение имеем - лемма Гаусса.
Pic.11
1. Парный регрессионный анализ Подставим в лемму значение поправки Получаем окончательно матричную с
1. Парный регрессионный анализ Подставим в лемму значение поправки Получаем окончательно матричную систему нормальных уравнений (совместная, 2 уравнения, 2 неизвестных) в свернутом виде Nk = d, с элементами
Pic.12
1. Парный регрессионный анализ Систему в матричном виде целесообразно решать через обращение матрицы
1. Парный регрессионный анализ Систему в матричном виде целесообразно решать через обращение матрицы N, откуда имеем Здесь матрица Q = N-1 носит название обратная матрица. Модельные значения в матричном виде будут Поправки в измерения получим как
Pic.13
1. Парный регрессионный анализ 2. Решение по МНК в центрированных величинах. Для этого исходная моде
1. Парный регрессионный анализ 2. Решение по МНК в центрированных величинах. Для этого исходная модель центрируется средним т. к. Имеем 1 неизвестное а. Тогда целевая целевая функция Ф будет Минимизация Ф дает
Pic.14
1. Парный регрессионный анализ Откуда нормальное уравнение - решение относительно коэффициента а Для
1. Парный регрессионный анализ Откуда нормальное уравнение - решение относительно коэффициента а Для вычисления величины сдвига b раскроем скобки в центрированной модели модели и перегруппируем что получится Откуда величина сдвига b будет
Pic.15
1. Парный регрессионный анализ Разделим числитель и знаменатель выражения для а на число элементов в
1. Парный регрессионный анализ Разделим числитель и знаменатель выражения для а на число элементов в ряде n. Получим т. о. его оценку в терминах элементов ковариационной матрицы Подставив вид для а в центрированную модель, получим
Pic.16
1. Парный регрессионный анализ Полученное уравнение - оценка условного математического ожидания для
1. Парный регрессионный анализ Полученное уравнение - оценка условного математического ожидания для нормально распределенной пары рядов. Метод получения уравнения регрессии в таком виде – метод средних, метод Маркова, метод условного математического ожидания, байесовский метод. Этот же результат можно получить на основе выборочной ковариационной матрицы для 2 рядов х и у: Тогда имеем:
Pic.17
1. Парный регрессионный анализ -т. е. все необходимые элементы модели в терминах ковариационной матр
1. Парный регрессионный анализ -т. е. все необходимые элементы модели в терминах ковариационной матрицы (2 мерный случай байесовского метода)
Pic.18
1. Парный регрессионный анализ Если известна обратная ковариационная матрица формулы для расчета коэ
1. Парный регрессионный анализ Если известна обратная ковариационная матрица формулы для расчета коэффициентов примут вид и Часто бывают более удобные чем другие. В конце расчетов всегда записывается вид модели в числах.
Pic.19
1. Парный регрессионный анализ Оценка точности уравнения регрессии: оценка модели в целом; оценка ко
1. Парный регрессионный анализ Оценка точности уравнения регрессии: оценка модели в целом; оценка коэффициентов модели. При необходимости – оценка значимости коэффициентов. Чаще выполняется на основе метода наименьших квадратов и теоремы о переносе ошибок. Для оценки точности модели: величины поправок v есть оценки истинных погрешностей  модели; обычная формула стандартного отклонения для качества модели
Pic.20
1. Парный регрессионный анализ Получение погрешности модели на основе метода условного математическо
1. Парный регрессионный анализ Получение погрешности модели на основе метода условного математического ожидания по условной дисперсии вида если используется ковариационная матрица и Если использовать обратную ковариационную матрицу
Pic.21
1. Парный регрессионный анализ Погрешности определения коэффициентов получим на основе теоремы о пер
1. Парный регрессионный анализ Погрешности определения коэффициентов получим на основе теоремы о переносе ошибок используя формулу где вектор коэффициентов k линейно выражен через вектор измерений y: Тогда вид ковариационной матрицы Kk для вектора коэффициентов k Вектор измерений у – один – и размера (22) - диагональные элементы – дисперсии вычисленных коэффициентов а и b.
Pic.22
1. Парный регрессионный анализ Некоторые дополнительным возможностям регрессионного анализа: построе
1. Парный регрессионный анализ Некоторые дополнительным возможностям регрессионного анализа: построение регрессии по методу наименьших квадратов для полиномиальной модели, представление на основе МНК периодических данных. Очевидно, что это далеко не все дополнительные возможности парного регрессионного анализа. Пусть появилось подозрение что исходные данные лучше будут представлены не линейной, а квадратичной моделью вида или в матричном виде
Pic.23
1. Парный регрессионный анализ Целевая функция Ф для модели при использовании МНК будет производные
1. Парный регрессионный анализ Целевая функция Ф для модели при использовании МНК будет производные от Ф по коэффициентам a, b и с приравненные к нулю и т. д. , откуда первое нормальное уравнение и т. д. , которых будет 3 по числу коэффициентов модели. Система совместная и разрешима относительно коэффициентов.
Pic.24
1. Парный регрессионный анализ Рациональнее в матричном виде. Уравнения поправок где матрица плана Х
1. Парный регрессионный анализ Рациональнее в матричном виде. Уравнения поправок где матрица плана Х и свободный член у имеют вид целевая функция Ф = vTv, а её минимизация (производная по k и приравнивание к нулю дает лемму Гаусса
Pic.25
1. Парный регрессионный анализ Транспонируя выражение имеем более привычный вид Подстановка в неё ви
1. Парный регрессионный анализ Транспонируя выражение имеем более привычный вид Подстановка в неё вида уравнений поправок v дает совместную систему нормальных уравнений или Nk = d, с элементами
Pic.26
1. Парный регрессионный анализ Подход может расширяться на любую степень полинома, изменяется только
1. Парный регрессионный анализ Подход может расширяться на любую степень полинома, изменяется только состав матрицы Х. Оценка точности стандартная для МНК: -погрешность модели, -погрешности коэффициентов, -если необходимо, статистический анализ. По погрешности модели можно сказать о необходимости усложнения модели.
Pic.27
1. Парный регрессионный анализ Модель процесса может быть разная . Очень распространена периодическа
1. Парный регрессионный анализ Модель процесса может быть разная . Очень распространена периодическая функция представления данных. При построении регрессии (аппроксимации) для периодической функции модель имеет следующий вид Модели 1, 2 и т. д. порядков. Гармоники. Для получения коэффициентов модели 1 порядка на основе МНК запишем уравнения поправок, целевую функцию Ф и минимизируем её. - уравнения поправок
Pic.28
1. Парный регрессионный анализ - целевая функция Ф Минимизация и окончательно
1. Парный регрессионный анализ - целевая функция Ф Минимизация и окончательно
Pic.29
1. Парный регрессионный анализ Периодические функции имеют циклы и на основе свойств циклических пер
1. Парный регрессионный анализ Периодические функции имеют циклы и на основе свойств циклических перестановок имеем Откуда и явное решение
Pic.30
1. Парный регрессионный анализ Матрица системы нормальных уравнений имеет диагональный вид для модел
1. Парный регрессионный анализ Матрица системы нормальных уравнений имеет диагональный вид для модели любого порядка. Тогда по аналогии новые коэффициенты будут а вычисленные ранее не меняются. Таким образом, модель 2 порядка получается из модели 1 порядка простым добавлением новых коэффициентов, 3 – добавление в модель 2 порядка вычисленных коэффициентов 3 порядка и т. д. Оценка точности стандартная. Погрешность модели, погрешность коэффициентов, если надо – статистический анализ.
Pic.31
1. Парный регрессионный анализ Контрольные вопросы по теории 3 модуля 1. Основы общего регрессионног
1. Парный регрессионный анализ Контрольные вопросы по теории 3 модуля 1. Основы общего регрессионного анализа. Основные этапы. 2. Парный линейный регрессионный анализ. Основные положения. 3. Решение задачи регрессии на основе МНК 4. Решение задачи регрессии на основе условного математического ожидания (метод средних). 5. Оценка точности и элементы статистического анализа в парной линейной регрессии. 6. Расширение парной модели регрессии на другие случаи.


Скачать презентацию

Если вам понравился сайт и размещенные на нем материалы, пожалуйста, не забывайте поделиться этой страничкой в социальных сетях и с друзьями! Спасибо!