Введение
Предположим, что нам нужно оценить неконтролируемый параметр выборки
на базе наблюдений
. Пусть
— выборочное распределение
, такое, что
— вероятность
в то время как параметр выборки
. Тогда функция
известна как функция правдоподобия, а оценка
как оценка максимального правдоподобия
.
Теперь, предположим, что априорное распределение
на
существует. Это позволяет рассматривать
как случайную величину как в Байесовской статистике. тогда апостериорное распределение
:
где
плотность распределения
,
— область определения
. Это прямое приложение Теоремы Байеса.
Метод оценки максимального правдоподобия затем оценивает
как апостериорное распределение этой случайной величины:
Знаменатель апостериорного распределения не зависит от
и поэтому не играет роли в оптимизации. Заметим, что MAP оценка
соответствует ML оценке когда априорная
постоянна (т.е., константа).
Пример
Предположим, что у нас есть последовательность
i.i.d.
случайных величин и априорное распределение
задано
. Мы хотим найти MAP оценку
.
Функция, которую нужно максимизировать задана
что эквивалентно минимизации
в
Таким образом, мы видим, что MAP оценка для μ задана
Литература
- DeGroot, Morris H. Optimal Statistical Decisions. McGraw-Hill. 1970.
- Harold W. Sorenson. Parameter Estimation: Principles and Problems. Marcel Dekker. 1980.
Данная страница на сайте WikiSort.ru содержит текст со страницы сайта "Википедия".
Если Вы хотите её отредактировать, то можете сделать это на странице редактирования в Википедии.
Если сделанные Вами правки не будут кем-нибудь удалены, то через несколько дней они появятся на сайте WikiSort.ru .