Презентация Классификация нормально распределенных векторов при неизвестных параметрах распределения

Смотреть слайды в полном размере
Презентация Классификация нормально распределенных векторов при неизвестных параметрах распределения


Вашему вниманию предлагается презентация «Классификация нормально распределенных векторов при неизвестных параметрах распределения», с которой можно предварительно ознакомиться, просмотреть текст и слайды к ней, а так же, в случае, если она вам подходит - скачать файл для редактирования или печати.

Презентация содержит 13 слайдов и доступна для скачивания в формате ppt. Размер скачиваемого файла: 98.50 KB

Просмотреть и скачать

Pic.1
Классификация нормально распределенных векторов при неизвестных параметрах распределения
Классификация нормально распределенных векторов при неизвестных параметрах распределения
Pic.2
Основная задача при построении статистических решающих правил – нахождение оценок вероятностных расп
Основная задача при построении статистических решающих правил – нахождение оценок вероятностных распределений классов. Для этого можно использовать принципы обучения, основанные на использовании обучающих множеств, состоящих из конечного набора объектов каждого класса. Основная задача при построении статистических решающих правил – нахождение оценок вероятностных распределений классов. Для этого можно использовать принципы обучения, основанные на использовании обучающих множеств, состоящих из конечного набора объектов каждого класса.
Pic.3
В случае нормального распределения задача сводится к оценке векторов математических ожиданий классов
В случае нормального распределения задача сводится к оценке векторов математических ожиданий классов и матриц ковариации. В случае нормального распределения задача сводится к оценке векторов математических ожиданий классов и матриц ковариации. X  N(M,) i – Xj = {xi}i = 1,. . . , Ni j = 1. . . m Часто множество Xj называют обучающим множеством.
Pic.4
Для m классов мы должны получить оценки максимального правдоподобия. Известно, что оценка МП для мат
Для m классов мы должны получить оценки максимального правдоподобия. Известно, что оценка МП для математического ожидания нормально распределенного вектора является средним арифметическим по обучающему множеству, а соответственно оценка матрицы ковариации имеет вид, приведенный в таблице. Соответственно для случая равных матриц ковариации нужно получить усредненную по классам оценку. Для m классов мы должны получить оценки максимального правдоподобия. Известно, что оценка МП для математического ожидания нормально распределенного вектора является средним арифметическим по обучающему множеству, а соответственно оценка матрицы ковариации имеет вид, приведенный в таблице. Соответственно для случая равных матриц ковариации нужно получить усредненную по классам оценку.
Pic.5
Линейное решающее правило на основе полученных оценок выглядит следующим образом:
Линейное решающее правило на основе полученных оценок выглядит следующим образом:
Pic.6
Часто используются рекуррентные оценки, когда данные получаются не сразу, а последовательно по мере
Часто используются рекуррентные оценки, когда данные получаются не сразу, а последовательно по мере поступления во времени. Часто используются рекуррентные оценки, когда данные получаются не сразу, а последовательно по мере поступления во времени. Рекуррентная оценка строится следующим образом: N-шаг рекуррентного алгоритма есть оценка на N-ом шаге тогда: Пусть для шага N имеем оценку , соответственно при добавлении следующего вектора получаем новую оценку:
Pic.7
Классификация нормально распределенных векторов при неизвестных параметрах распределения, слайд 7
Pic.8
Задача статистической классификации для количества классов больше 2 Как ставится задача классификаци
Задача статистической классификации для количества классов больше 2 Как ставится задача классификации, когда у нас имеется m классов: 1, 2, . . . m ? Имеем: C(j|i) – стоимость ошибки, когда принимается решение j, а наблюдается i. P(j|i) = f(x|i) dx – условная вероятность ошибки. X =  X i – пространство разбивается таким образом при решении задачи классификации; q1, q2, . . . qm – это априорные вероятности классов. В общем виде задача сводится к минимизации общей стоимости решения:
Pic.9
Область X k определяется в виде набора следующих неравенств: Рассмотрим пример для 3-х классов: m =
Область X k определяется в виде набора следующих неравенств: Рассмотрим пример для 3-х классов: m = 3 Найдем правило для первого класса X 1 :
Pic.10
Фактически мы получаем здесь два неравенства: Фактически мы получаем здесь два неравенства: j=2: q2
Фактически мы получаем здесь два неравенства: Фактически мы получаем здесь два неравенства: j=2: q2 f(x|2)C(1|2) + q3 f(x|3)C(1|3) < < q1 f(x|1)C(2|1) + q3 f(x|3)C(2|3) j=3: q2 f(x|2)C(1|2) + q3 f(x|3)C(1|3) < < q1 f(x|1)C(3|1) + q2 f(x|2)C(3|2) Самая простая интерпретация, когда мы рассматриваем следующий случай: C(i|j) = const. Тогда, например, для m=3 получаем для рассматриваемого 1-го класса следующее:
Pic.11
Самая простая интерпретация, когда мы рассматриваем следующий случай: C(i|j) = const. Самая простая
Самая простая интерпретация, когда мы рассматриваем следующий случай: C(i|j) = const. Самая простая интерпретация, когда мы рассматриваем следующий случай: C(i|j) = const. Тогда, например, для m=3 получаем для рассматриваемого 1-го класса следующее: Фактически определяется max{qi f(x|i)} – то есть приводится байесовский критерий к критерию максимальной апостериорной вероятности. Если вернуться к линейно-дискриминантным функциям на основе отношения правдоподобия , то получим из рассмотренного выше следующее соотношение:
Pic.12
Классификация нормально распределенных векторов при неизвестных параметрах распределения, слайд 12
Pic.13
Возможное количество пар таких решений будет равно - это количество разделяющих поверхностей. Возмож
Возможное количество пар таких решений будет равно - это количество разделяющих поверхностей. Возможное количество пар таких решений будет равно - это количество разделяющих поверхностей. Для m = 3: имеем разделяющие поверхности, показанные на рисунке: Мы имеем уравнение попарных разделяющих поверхностей в следующем виде:


Скачать презентацию

Если вам понравился сайт и размещенные на нем материалы, пожалуйста, не забывайте поделиться этой страничкой в социальных сетях и с друзьями! Спасибо!