WikiSort.ru - Не сортированное

ПОИСК ПО САЙТУ | о проекте
Функция и данные с шумом.
разброс = 5
разброс = 1
разброс = 0.1
Функция (красный цвет) аппроксимирована с помощью радиально-базисных функций (РБФ) (синий цвет). На каждом графике показано несколько испытаний. Для каждого испытания в качестве тренировочного набора использовались некоторые точки из выборки с шумом (верхний график). При широком разбросе (график 2) смещение высоко, РБФ не могут полностью аппроксимировать функцию (особенно центральную яму), но дисперсия между испытаниями мала. По мере увеличения разброса (графики 3 и 4) смещение возрастает, синяя кривая ближе аппроксимирует красную кривую. Однако дисперсия между испытаниями растёт. На нижнем графике приближённое значение в точке x=0 сильно зависят от расположения точек выборки.

Дилемма смещения–дисперсии в статистике и в машинном обучении — это свойство набора моделей предсказания, по которому модели с меньшим смещением в параметре оценки имеют более высокую дисперсию оценки параметра в выборках и наоборот. Дилемма или проблема смещения–дисперсии является конфликтом в попытке одновременно минимизировать эти два источника ошибки[en], которые мешают алгоритмам обучения с учителем делать обобщение за пределами тренировочного набора[en].

  • Смещение — это ошибка, возникающая в результате ошибочного предположения в алгоритме обучения. В результате большого смещения алгоритм может пропустить связь между признаками и выводом (недообучение).
  • Дисперсия — это ошибка чувствительности к малым отклонениям в тренировочном наборе. При высокой дисперсии алгоритм может как-то трактовать случайный шум[en] в тренировочном наборе, а не желаемый результат (переобучение).

Разложение смещения–дисперсии — это способ анализа ожидаемой ошибки обобщения[en] алгоритма обучения для частной задачи сведением к сумме трёх членов — смещения, дисперсии и величины, называемой неустранимой погрешностью, которая является результатом шума в самой задаче.

Дилемма возникает во всех формах [Обучение с учителем|обучения с учителем]] — в классификации, регрессии (аппроксимация функции)[1][2] и структурном обучении[en]. Дилемма также вовлекается для объяснения эффективности эвристики при обучении людей[3].

Побудительные причины

Дилемма смещения–дисперсии является центральной проблемой в обучении с учителем. В идеале, хотят выбрать модель, которая точно схватывает закономерности в тренировочных данных и способна обобщить хорошо на неизвестные данные. К сожалению, обычно это невозможно сделать одновременно. Методы обучения с высокой дисперсией могут хорошо представлять тренировочный набор, но имеют риск быть переобученными для данных с шумом или непрезентативных данных. В отличие от них, алгоритмы с низкой дисперсией обычно дают более простые модели, не склонно к переобучению, но может оказаться недообученным, что приводит к пропуску важных свойств.

Модели с малым смещением обычно более сложны (например, в них регрессионные многочлены имеют более высокий порядок), что позволяет им представлять тренировочное множество более точно. Однако они могут иметь большую компоненту шума[en] тренировочного набора, что делает предсказание менее точным вопреки добавленной сложности. Для контраста, модели с высоким смещением относительно более просты (имеют многочлены меньшего порядка или даже линейные), но могут давать низкую дисперсию предсказаний, если применяются вне тренировочного набора.

Разложение смещения–дисперсии квадратичной ошибки

Предположим, что у нас есть тренировочное множество, состоящее из набора точек и вещественных значений , связанных с каждой из этих точек . Мы предполагаем, что есть функция с шумом , где шум имеет нулевое среднее и дисперсию .

Мы хотим найти функцию , которая аппроксимирует истинную функцию настолько хорошо, насколько возможно, в смысле некоторого алгоритма обучения. Мы делаем понятие «настолько хорошо, насколько возможно» точным путём измерения среденквадратичной ошибки[en] между и — мы хотим, чтобы значение было минимальным как для точек , так и за пределами нашей выборки. Естественно, мы не можем сделать это идеально, поскольку содержит шум . Это означает, что мы должны быть готовы принять неустранимую ошибку в любой функции, с которой будем работать.

Поиск функции , которая обобщается для точек вне тренировочного набора, может быть осуществлён любым из несчётного числа алгоритмов, используемых для обучения с учителем. Оказывается, что какую бы функцию мы ни выбрали, мы можем разложить её ожидаемую ошибку на непросмотренном экземпляре данных следующим образом:[4][5].

,

где

и

Математические ожидания пробегают разные варианты выбора тренировочного набора из одного и того же совместного распределения . Три члена представляют

  • квадрат смещения метода обучения, который можно рассматривать как ошибку, вызванную упрощением предположений, принятых в методе. Например, когда применяется аппроксимация нелинейной функции при использовании метода обучения для линейных моделей[en], будет появляться ошибка в оценке как результат такого допущения;
  • дисперсия метода обучения, или, интуитивно, как далеко метод обучения уведёт от среднего значения;
  • неустранимая ошибка . Поскольку все три величины неотрицательны, они формируют нижнюю границу ожидаемой ошибки на непросмотренных данных[4].

Чем более сложна модель , тем больше точек данных она захватывает и тем меньше будет смещение. Однако сложность приводит модель к захвату большего числа точек, а потому её дисперсия будет больше.

Вывод

Вывод разложения смещения–дисперсии для среднеквадратичной ошибки приведён ниже[6][7]. Для удобства введём обозначения и . Во-первых, вспомним, что по определению для любой случайной переменной мы имеем

Переставив члены получим:

Поскольку детерминирована,

.

Тогда из и вытекает, что .

Но поскольку , получаем

Так как и независимы, мы можем записать

Приложение к регрессии

Разложение смещения–дисперсии образует концептуальный базис для методов регуляризации регрессии, таких как Lasso[en] и гребневая регрессия. Методы регуляризации вводят смещение в решение регрессии, которая уменьшает дисперсию значительно ближе к решению обычный метод наименьших квадратов[en] (ОМНК, англ. Ordinary Least Squares, OLS). Хотя решение ОМНК даёт несмещённую оценку регрессии, решения с меньшей дисперсией, полученные путём регуляризации, обеспечивают превосходную среднеквадратичную ошибку.

Приложение к классификации

Разложение смещение–дисперсия первоначально было сформулировано для линейной регрессии методом наименьших квадратов. Для случая классификации с 0-1 функцией потерь (доля неправильно классифицированных), можно найти похожее разложение[8][9]. Альтернативно, если задача классификации может быть сформулирована как вероятностная классификация[en], ожидание квадрата ошибки предсказанных вероятностей по отношению к истинным вероятностям может быть разложено как и ранее[10].

Подходы

Снижение размерности и отбор признаков могут уменьшить дисперсию путём упрощения моделей. Аналогично, больше тренировочное множество приводит к уменьшению дисперсии. Добавление признаков (предсказателей) ведёт к уменьшению смещения за счёт увеличения дисперсии. Алгоритмы обучения обычно имеют некоторые настраиваемые параметры, которые контролируют смещение и дисперсию. Например,

Один из способов разрешения дилеммы — использование смешенных моделей[en] и композиционного обучения[en][14][15]. Например, форсирование[en] комбинирует несколько «слабых» (с высоким смещением) моделей в сборку, которая имеет более низкое смещение, чем каждая из индивидуальных моделей, в то время как бэггинг комбинирует «строгое» обучение так, что уменьшается дисперсия.

k-ближайших соседей

В случае регрессии k-ближайших соседей существует выражение в замкнутой форме[en], связывающее разложение смещение–дисперсия с параметром k[5]:

где являются k ближайшими соседями x в тренировочном наборе. Смещение (первый член) является монотонно возрастающей функцией от k, в то время как дисперсия (второй член) убывает по мере роста k. Фактически, при «разумных предположениях» оценщика смещения ближайшего соседа (1-NN) полностью обращается в нуль, когда размер тренировочного множества стремится к бесконечности[1].

Приложение к обучению людей

В то время как дилемма смещения-дисперсии широко обсуждается в контексте обучения машин, она была проверена в контексте когнитивных способностей человека, прежде всего Гердом Гигеренцером с соавторами. Они утверждают, что (см. ссылки ниже) человеческий мозг решает дилемму в случае разреженных плохо описанных тренировочных наборов, полученных в результате личного опыта, путём использования эвристики высокого смещения/низкой дисперсия. Это отражает факт, что подход с нулевым смещением имеет плохую обобщаемость к новым ситуациям, а также беспричинно предполагает точное знание состояния мира. Получающаяся эвристика относительно проста, но даёт лучшее соответствие широкому разнообразию ситуаций[3].

Гиман и др.[1] возражают, что из дилеммы смещения-дисперсии следует, что такие возможности, как распознавание общих объектов, не может быть получено с нуля, а требует определённого «жёсткого монтажа», который затем превращается в опыт. Именно поэтому подходы к заключениям без модели требуют неоправданно больших наборов тренировочных наборов, если нужно избежать высокой дисперсии.

См. также

Примечания

Литература

Данная страница на сайте WikiSort.ru содержит текст со страницы сайта "Википедия".

Если Вы хотите её отредактировать, то можете сделать это на странице редактирования в Википедии.

Если сделанные Вами правки не будут кем-нибудь удалены, то через несколько дней они появятся на сайте WikiSort.ru .




Текст в блоке "Читать" взят с сайта "Википедия" и доступен по лицензии Creative Commons Attribution-ShareAlike; в отдельных случаях могут действовать дополнительные условия.

Другой контент может иметь иную лицензию. Перед использованием материалов сайта WikiSort.ru внимательно изучите правила лицензирования конкретных элементов наполнения сайта.

2019-2024
WikiSort.ru - проект по пересортировке и дополнению контента Википедии