WikiSort.ru - Не сортированное

ПОИСК ПО САЙТУ | о проекте

Трансдуктивное обучение (англ. transductive inference) — полу-контролируемое обучение (частичное обучение), обучение с частичным привлечением учителя, когда прогноз предполагается делать только для прецедентов из тестовой выборки.

В логике и статистическом методе — трансдуктивное умозаключение или трансдуктивный метод являются выводами о наблюдаемых частных случаях (тестовых данных) на основании частных тестовых случаев (данных обучения). Напротив, индуктивное умозаключение приводит наблюдаемые частные случаи обучения к общим правилам, которые затем применяются к тестовым случаям. Различие наиболее интересно в тех случаях, когда прогнозы трансдуктивной модели не достижимы ни одной индуктивной моделью, такие ситуации происходят, когда в результате трансдуктивного вывода на различных испытательных выборках получаются взаимопротиворечивые прогнозы.

История

Трансдукция была введена Владимиром Вапником в 1990-е годы[1]. По его мнению, трансдукция предпочтительнее индукции, так как индукция требует решения более общей задачи (восстановления функции) перед решением более конкретной задачи (вычисление результатов для новых случаев): «…при решении интересующей задачи не решайте более общую задачу в качестве промежуточного шага. Постарайтесь получить ответ, который вам действительно нужен, но не более общий». Аналогичное наблюдение было сделано ранее Бертраном Расселом: «…мы придем к выводу, что Сократ смертен с большим подходом к определённости, если мы сделаем наш аргумент чисто индуктивным, чем если бы мы пошли путем „все люди смертны“, а затем используем дедукцию» (Рассел, 1912, Глава VII)[2].

Причины

Не являющимся индуктивным примером обучения может быть случай бинарной классификации, где входные данные, как правило, группируются в две группы. Большой набор частных, тестовых входных данных может помочь в поиске нескольких однородных элементов, рассматриваемых, как самостоятельная единица, предоставляя необходимую информацию о классификационных метках. Те же самые прогнозы не будут получены из модели, которая индуцирует функцию, основанную только на обучающих случаях, что может показаться примером полу контролируемого обучения, но мотивация Вапника была иная. Образцом алгоритма в этой категории является трансдуктивный метод опорных векторов (Transductive Support Vector Machine TSVM).

Третья причина, которая приводит к трансдукции, возникает из-за необходимости аппроксимации, приближении. Если точный вывод является вычислительно невозможным, можно сделать попытку убедиться, что упрощения подходят частным случаям. Тогда частные случаи поступают из произвольного распределения (не обязательно связанных с распределением учебных материалов), что не допускается при полу контролируемой модели обучения. Примером алгоритма, попадающего в эту категорию, является байесовская машина (Bayesian Committee Machine BCM)[3].

Примечания

  1. V. N. Vapnik. Statistical learning theory. New York: Wiley, 1998. (See pages 339—371)
  2. B. Russell. The Problems of Philosophy, Home University Library, 1912. B. Russell.
  3. V. Tresp. A Bayesian committee machine, Neural Computation, 12, 2000, pdf.

Ссылки

Данная страница на сайте WikiSort.ru содержит текст со страницы сайта "Википедия".

Если Вы хотите её отредактировать, то можете сделать это на странице редактирования в Википедии.

Если сделанные Вами правки не будут кем-нибудь удалены, то через несколько дней они появятся на сайте WikiSort.ru .




Текст в блоке "Читать" взят с сайта "Википедия" и доступен по лицензии Creative Commons Attribution-ShareAlike; в отдельных случаях могут действовать дополнительные условия.

Другой контент может иметь иную лицензию. Перед использованием материалов сайта WikiSort.ru внимательно изучите правила лицензирования конкретных элементов наполнения сайта.

2019-2024
WikiSort.ru - проект по пересортировке и дополнению контента Википедии