WikiSort.ru - Не сортированное

ПОИСК ПО САЙТУ | о проекте

Байесовское программирование — это формальная система и методология определения вероятностных моделей и решения задач, когда не вся необходимая информация является доступной.

Эдвин Томпсон Джейнс предложил рассматривать вероятность как альтернативу и расширение логики для рациональных рассуждений с неполной и неопределенной информацией. В своей основополагающей книге «Теория вероятности: логика науки»[1] он развил эту теорию и предложил то, что он назвал «роботом», который был не физическим устройством, а машиной вывода, автоматизирующей вероятностные рассуждения — что-то вроде Пролога для теории вероятности вместо логики. Байесовское программирование[2] является формальной и конкретной реализацией этого «робота».

Байесовское программирование также можно рассматривать как формальную алгебраическую систему для задания графических моделей, таких как, например, байесовские сети, динамические байесовские сети[en], фильтры Калмана или скрытые марковские модели. Действительно, байесовское программирование обобщает байесовские сети и имеет выразительную мощность эквивалентную фактор-графам[en].

Формальная система

Байесовская программа является средством задания семейства распределений вероятности.

Ниже представлены составляющие элементы байесовской программы:

  1. Программа строится из описания (англ. description) и вопроса (англ. question).
  2. Описание строится с помощью какого-либо определения ( , англ. specification), заданного программистом, и идентификации (англ. identification) или процесса обучения для параметров, не полностью описанных в определении, с применением набора данных ( ).
  3. Определение строится из набора значимых переменных (англ. variables), декомпозиции (англ. decomposition) и набора форм (англ. forms).
  4. Формы являются или параметрическими формами, или вопросами к другим байесовским программам.
  5. Вопрос задает распределение вероятности, которое необходимо вычислить.

Описание

Описание задает эффективный метод вычисления совместного распределения вероятности[en] набора переменных для заданного набора экспериментальных данных и некоторого определения . Это совместное распределение обозначается как .

Чтобы задать предварительное знание , программист должен выполнить следующее:

  1. Определить набор значимых переменных , на которых задано совместное распределение вероятности.
  2. Разложить совместное распределение (разбить его на подходящие независимые или условные вероятности).
  3. Определить формы каждого из этих распределений (например, для каждой переменной выбрать одно из перечня распределений вероятности[en]).

Декомпозиция

Пусть множество содержит подмножеств, переменные определены как , каждая из которых соответствует одному из этих подмножеств. Каждая переменная получается как конъюнкция переменных , относящихся к -тому подмножеству. Рекурсивное применение теоремы Байеса приводит к

Применение гипотезы условной независимости позволяют проделать дальнейшие упрощения. Гипотеза условной независимости для переменной определяется выбором некоторой переменной среди переменных, присутствующих в конъюнкции . Обозначая через конъюнкцию выбранных переменных и принимая

Получаем

Такое упрощение совместного распределения в виде произведения более простых распределений называется декомпозицией, выведенной с помощью цепного правила[en].

Это обеспечивает, чтобы каждая переменная появлялась слева от черточки условности не менее одного раза, что является необходимым и достаточным условием написания математически верных выкладок[источник не указан 1061 день].

Формы

Каждое распределение , встречающееся в произведении, далее связывается или с параметрической формой (то есть функцией ), или с вопросом к другой байсовской программе .

Когда это форма , в общем случае является вектором параметров, которые могут зависеть или от , или , или от обоих. Когда некоторые из этих параметров вычисляются с применением набора данных , происходит обучение.

Важная особенность байесовского программирования — это способность использовать вопросы к другим байесовским программам как составляющую определения новой байесовской программы. получается выводом, произведенным другой байесовской программой, заданной определением и данными . Это похоже на вызов подпрограммы в классическом программировании, и предоставляет простой способ построения иерархических моделей.

Вопрос

Пусть дано описание (то есть ), вопрос получается разбиением на три множества: исследуемые (англ. searched) переменные, известные (англ. known) переменные и свободные (англ. free) переменные.

Три переменные , и определяются как конъюнкция переменных, принадлежащих к этим множествам.

Вопрос определяется как набор распределений

составленный из «конкретизированных вопросов» как кардинал , где каждый конкретизированный вопрос является распределением

Вывод

Для заданного совместного распределения всегда возможно вычислить любой вопрос, применяя следующий общий вывод:

где первое равенство следует из правила обособления (англ. marginalization rule), второе вытекает из теоремы Байеса, а третье соответствует второму применению обособления. Знаменатель оказывается нормирующим членом (англ. normalization term), и его можно заменить постоянной .

Теоретически это позволяет решать любые задачи байесовского вывода. Однако на практике почти во всех случаях затраты на исчерпывающее и точное вычисление оказываются слишком большими.

Заменяя совместное распределение его декомпозицией, получаем

которое обычно является выражением, значительно более простым для вычисления, поскольку размерность задачи значительно снижена разложением на произведение распределений меньшей размерности.

Пример

Байесовское обнаружение спама

Целью байесовской фильтрации спама является устранение мусорных электронных писем.

Формулировка этой задачи достаточно простая. Электронные письма должны классифицироваться по одной из двух категорий: не-спам и спам. Единственной доступной информацией для классификации электронных писем является их содержание: набор слов. Использование слов без принятия во внимания их порядка в предложении часто называют моделью мешка слов[en].

Кроме того, классификатор должен быть способным адаптироваться к своему пользователю и учиться из опыта. Начиная со стандартной начальной настройки, классификатор должен изменять свои внутренние параметры, если пользователь не соглашается с его решением. Он, следовательно, будет адаптироваться к пользовательским критериям различия между не-спамом и спамом. Он будет улучшать собственные результаты, сталкиваясь со все большим количеством классифицированных электронных писем.

Переменные

Следующие переменные необходимы для написания этой программы:

  1. : двоичная переменная, ложь, если электронное письмо не является спамом, и истина в противном случае.
  2. : двоичных переменных. является истиной, если -ое слово словаря присутствует в тексте.

Эти двоичных переменных суммируют всю информацию об электронной почте.

Декомпозиция

Начиная с определения совместного распределения и рекурсивно применяя теорему Байеса, получаем:

Это точное математическое выражение.

Оно может быть радикально упрощено, если предположить, что вероятность появления слова при известной категории текста (спам или нет) является независимой от появления других слов. Такое предположение является наивным байесовским, и поэтому этот фильтр спама является наивной байсовской моделью.

Например, программист может предположить, что

и в итоге получить

Это предположение известно как наивное байесовское предположение. Оно является «наивным» в том смысле, что независимость между словами, очевидно, не является истинной. Например, оно полностью пренебрегает тем, что появление пары слов может быть более значимым, чем изолированные появления. Однако программист может принять эту гипотезу, и может разрабатывать эту модель и связанный с ней вывод, чтобы проверить, насколько надежной и эффективной она является.

Параметрические формы

Чтобы иметь возможность вычислить совместное распределение, программист теперь должен указать распределений, присутствующих в разложении:

  1. определено априорно, например, как
  2. Каждая из форм может быть задана с помощью правила следования Лапласа[en] (это методика сглаживания[en] на базе псевдосчетчика[en] для преодоления проблемы нулевой частоты до сих пор не встречавшихся слов):

где — количество появлений -го слова в неспамовых электронных письмах, а — общее количество неспамовых электронных писем. Аналогично, — количество появлений -го слова в спамовых электронных письмах, а — общее количество спамовых электронных писем.

Идентификация

форм еще не определены полностью, поскольку параметров , , и еще не имеют значений.

Идентификация этих параметров может быть осуществлена или пакетной обработкой группы классифицированных электронных писем, или инкрементальным обновлением параметров с помощью классификации электронных писем пользователем в процессе их поступления.

Оба метода могут быть объединены: система может стартовать с начальными стандартными значениями этих параметров, выданных из обобщенной базы данных, а затем некоторое инкрементальное обучение подгоняет классификатор под каждого отдельного пользователя.

Вопрос

Вопрос, который задается программе: «какова вероятность того, что данный текст является спамом, если известно, какие слова в нем присутствуют, а какие — нет?» Его можно формализовать как

что может быть вычислено следующим образом:

В этом выражении знаменатель оказывается нормализующей константой[en]. Его не обязательно вычислять для того, чтобы выяснить, имеем ли мы дело со спамом. Например, простой прием для вычисления отношения:

Такое вычисление является более быстрым и удобным, поскольку оно требует всего лишь произведений.

Байесовская программа

Программа байесовского фильтра спама полностью определяется как

Фильтр Байеса, фильтр Калмана и скрытая модель Маркова

Байесовские фильтры (которые часто называют рекурсивной байесовской оценкой[en]) являются общими вероятностными моделями для процессов, разворачивающихся во времени. Многочисленные модели являются частными случаями этого общего подхода, например, фильтр Калмана или скрытая марковская модель.

Переменные

  • Переменные — временной ряд переменных состояния, которые рассматриваются на временном горизонте в диапазоне от до .
  • Переменные — временной ряд переменных наблюдения на этом же горизонте.

Декомпозиция

Декомпозиция основывается на:

  • , называемой моделью системы, моделью перехода или динамической моделью, которая формализует переход от состояния в момент времени в состояние в момент времени ;
  • , называемой моделью наблюдения, которая выражает, что может наблюдаться в момент времени , когда система находится в состоянии ;
  • исходном состоянии в момент времени : .

Параметрические формы

Выбор параметрических форм не ограничен, и различные варианты ведут к различным хорошо известным моделям: см. ниже фильтры Калмана и скрытые марковские модели.

Вопрос

Обычный вопрос для этих моделей — : каково распределение вероятности состояния в момент времени , если известны наблюдения от момента до ?

Самый общий случай — это байесовская фильтрация, для которой , что означает, что определяется состояние в настоящий момент времени при известных предыдущих наблюдениях.

Однако также возможно осуществлять и экстраполяцию будущего состояния, используя прошлые наблюдения, или осуществлять сглаживание , чтобы восстановить прошлое состояние из наблюдений, сделанных или до, или после некоторого момента времени.

Могут задаваться и более сложные вопросы, как показано ниже в разделе СММ.

Байесовские фильтры имеют очень интересное рекурсивное свойство, что значительно способствует их привлекательности. может быть вычислено просто с помощью по следующей формуле:

Еще одна интересная точка зрения на это уравнение — рассмотреть существование двух фаз: фазы предвидения и фазы оценки:

  • В течение фазы предвидения состояние предсказывается с помощью динамической модели и оценки состояния в предыдущий момент:
  • В течение фазы оценки предсказание или подтверждается, или признается недействительным с помощью последнего наблюдения:

Байесовская программа

Фильтр Калмана

Хорошо известные фильтры Калмана[3] являются частным случаем байесовских фильтров.

Они задаются следующей байесовской программой:

  • Переменные являются непрерывными.
  • Модели перехода и наблюдения определяются с помощью распределения Гаусса, в котором средние значения являются линейными функциями условных переменных.

Используя эти гипотезы и рекурсивной формулу, задачу вывода для получения ответа на обычный вопрос можно решать аналитически. Это дает чрезвычайно эффективный алгоритм, что объясняет популярность фильтров Калмана и многочисленность их повседневных применений.

Когда очевидных линейных моделей перехода и наблюдения нет, часто все еще возможно, применяя разложение Тейлора первого порядка, считать эти модели линейными локально. Это обобщение обычно называют расширенным фильтром Калмана[en].

Скрытая марковская модель

Скрытые марковские модели (СММ) — еще один очень популярный частный случай фильтров Калмана.

Они задаются следующей байесовской программой:

  • Переменные считаются дискретными.
  • Модели перехода и наблюдения задаются с помощью матриц вероятностей.
  • Вопрос, который чаще всего задают скрытым марковским моделям:

Какова наиболее вероятная последовательность состояний, ведущая к текущему состоянию при известных прошлых наблюдениях?

Ответ на данный вопрос можно получать посредством очень эффективного алгоритма — алгоритма Витерби.

Также для СММ был разработан алгоритм Баума-Велша.

Применение

Академические применения

В течение последних 15 лет байесовское программирование применялось во многих университетах для разработки как приложений в робототехнике, так и моделей в науках о жизни[en][4].

Робототехника

В робототехнике байесовское программирование применялось в автономной робототехнике[5][6][7][8][9], роботизированных САПР[10], системах расширенной помощи водителю[en][11], роботизированном управлении манипуляторами[en], мобильной робототехнике[en][12][13], человеко-роботном взаимодействии[14], человеко-автомобильном взаимодействии (байесовские модели автономного водителя)[15][16][17][18][19][20], программировании и обучении аватаров в видеоиграх[21] и в стратегических играх реального времени (ИИ).[22]

Науки о жизни

В науках о жизни байесовское программирование применялось в науках о зрении для восстановления формы по движению[23], для моделирования зрительно-вестибулярной взаимодействия[24] и исследования саккадического движения глаз[25]; в восприятии и контроле речи для исследования раннего усвоения речи[en][26] и появления артикулярно-акустических систем[27]; для моделирования восприятия и контроля рукописного текста [28].

Распознавание образов

Байесовское программирование имеет потенциальные приложения в области распознавания и синтеза речи, распознавания изображений и обработке естественного языка. Здесь оно использует принципы композируемости (построение абстрактных представлений из частей), причинности (построение сложного из частей) и обучения обучению (использование понятий, распознанных ранее, для упрощения создания новых понятий)[29].

Байесовское программирование и теории возможностей

Сравнение вероятностных подходов (не только байесовского программирования) и теорий возможностей продолжает оставаться предметом дебатов.

Теории возможностей, такие как, например, нечеткие множества[30], нечеткая логика[31] и собственно теория возможностей[32] предлагают различные альтернативы для моделирования неопределенности с помощью вероятности. Они утверждают, что вероятность является недостаточной или неудобной для моделирования определенных аспектов неполного или неопределенного знания.

Защита вероятностного подхода главным образом базируется на теореме Кокса[en], которая состоит из четырех постулатов относительно рационального рассуждения в условиях неопределенности. Она показывает, что единственная математическая модель, которая удовлетворяет этим постулатам, это теория вероятности. Доказательство заключается в том, что любой другой подход отличный от теории вероятности нарушает один из этих постулатов.

Байесовское программирование и вероятностное программирование

Цель вероятностного программирования — объединение сферы классических языков программирования с вероятностным моделированием (особенно с байесовскими сетями) для того, чтобы быть в состоянии иметь дело с неопределенностью и в то же время пользоваться выразительной силы языков программирования для описания сложных моделей.

Расширенные классические языки программирования включают в себя логические языки, как предлагается в Вероятностной абдукции Горна[en] (англ. Probabilistic Horn Abduction)[33], Логике независимого выбора (англ. Independent Choice Logic)[34], PRISM[35] и ProbLog, являющимся расширением языка Prolog.

Оно также может быть расширением функциональных языков программирования (по сути LISP и Scheme), такими как IBAL или Church[en]. Языки, лежащие в основе расширения, также могут быть объектно-ориентированными, как в случае BLOG и FACTORIE, или более стандартными, как в CES и FIGARO.

Цель байесовского программирования несколько другая. Установка Джейнса о «вероятности как логике» отстаивает мнение, что вероятность является расширением и альтернативой логике, поверх которой может быть выстроена заново вся теория рациональности, алгоритмов и программирования[1]. Байесовское программирование не ищет способа расширить классические языки, оно стремится заменить их новым подходом к программированию на основе вероятности, который учитывает неполноту и неопределенность.

Точное сравнение семантики и выразительной мощности байесовского и вероятностного программирования пока остается открытым вопросом.

См. также

Примечания

  1. 1 2 Jaynes, Edwin T. Probability Theory: The Logic of Science. — Cambridge University Press, 2003. ISBN 0-521-59271-2.
  2. Bessière, P. Bayesian Programming. — Chapman & Hall/CRC, 2013. ISBN 9781439880326.
  3. Kalman, R. E. (1960). “A New Approach to Linear Filtering and Prediction Problems”. Transactions of the ASME--Journal of Basic Engineering. 82: 33––45. DOI:10.1115/1.3662552.
  4. Bessière, P.; Laugier, C. & Siegwart, R. Probabilistic Reasoning and Decision Making in Sensory-Motor Systems. — Springer, 2008. ISBN 978-3-540-79007-5.
  5. Lebeltel, O.; Bessière, P.; Diard, J.; Mazer, E. (2004). “Bayesian Robot Programming”. Advanced Robotics. 16 (1): 49––79. DOI:10.1023/b:auro.0000008671.38949.43.
  6. Diard, J.; Gilet, E.; Simonin, E.; Bessière, P. (2010). “Incremental learning of Bayesian sensorimotor models: from low-level behaviours to large-scale structure of the environment”. Connection Science. 22 (4): 291––312. DOI:10.1080/09540091003682561.
  7. Pradalier, C.; Hermosillo, J.; Koike, C.; Braillon, C.; Bessière, P.; Laugier, C. (2005). “The CyCab: a car-like robot navigating autonomously and safely among pedestrians”. Robotics and Autonomous Systems. 50 (1): 51––68. DOI:10.1016/j.robot.2004.10.002.
  8. Ferreira, J.; Lobo, J.; Bessière, P.; Castelo-Branco, M.; Dias, J. (2012). “A Bayesian Framework for Active Artificial Perception”. IEEE Transactions on Systems, IEEE Transactions on Systems, Man, and Cybernetics, Part B. 99: 1––13.
  9. Ferreira, J. F. Probabilistic Approaches to Robotic Perception. — Springer, 2014.
  10. Mekhnacha, K.; Mazer, E.; Bessière, P. (2001). “The design and implementation of a Bayesian CAD modeler for robotic applications”. Advanced Robotics. 15 (1): 45––69. DOI:10.1163/156855301750095578.
  11. Coué, C.; Pradalier, C.; Laugier, C.; Fraichard, T.; Bessière, P. (2006). “Bayesian Occupancy Filtering for Multitarget Tracking: an Automotive Application”. International Journal of Robotics Research. 25 (1): 19––30. DOI:10.1177/0278364906061158.
  12. Vasudevan, S.; Siegwart, R. (2008). “Bayesian space conceptualization and place classification for semantic maps in mobile robotics”. Robotics and Autonomous Systems. 56 (6): 522––537. DOI:10.1016/j.robot.2008.03.005.
  13. Perrin, X.; Chavarriaga, R.; Colas, F.; Seigwart, R.; Millan, J. (2010). “Brain-coupled interaction for semi-autonomous navigation of an assistive robot”. Robotics and Autonomous Systems. 58 (12): 1246––1255. DOI:10.1016/j.robot.2010.05.010.
  14. Rett, J.; Dias, J.; Ahuactzin, J-M. (2010). “Bayesian reasoning for Laban Movement Analysis used in human-machine interaction”. Int. J. of Reasoning-based Intelligent Systems. 2 (1): 13––35. DOI:10.1504/IJRIS.2010.029812.
  15. Möbus, C.; Eilers, M.; Garbe, H. & Zilinski, M. (2009), "Probabilistic and Empirical Grounded Modeling of Agents in (Partial) Cooperative Traffic Scenarios", in Duffy, Vincent G., Digital Human Modeling, Lecture Notes in Computer Science, Volume 5620, Second International Conference, ICDHM 2009, San Diego, CA, USA: Springer, с. 423-432, ISBN 978-3-642-02808-3, doi:10.1007/978-3-642-02809-0_45
  16. Möbus, C. & Eilers, M. (2009), "Further Steps Towards Driver Modeling according to the Bayesian Programming Approach", in Duffy, Vincent G., Digital Human Modeling, Lecture Notes in Computer Science, Volume 5620, Second International Conference, ICDHM 2009, San Diego, CA, USA: Springer, с. 413-422, ISBN 978-3-642-02808-3, doi:10.1007/978-3-642-02809-0_44
  17. Eilers, M. (2010). "Lernen eines modularen Bayesian Autonomous Driver Mixture-of-Behaviors (BAD MoB) Modells". Fahrermodellierung - Zwischen kinematischen Menschmodellen und dynamisch-kognitiven Verhaltensmodellen: 61 - 74, Düsseldorf, Germany: VDI-Verlag. 
  18. Möbus, C. Handbook of Research on Ambient Intelligence and Smart Environments: Trends and Perspectives. — Hershey, Pennsylvania (USA) : IGI Global publications, 2011. — P. 460-512. ISBN 9781616928575. DOI:10.4018/978-1-61692-857-5.ch023.
  19. Eilers, M. (2011). "Learning the Relevant Percepts of Modular Hierarchical Bayesian Driver Models Using a Bayesian Information Criterion". Digital Human Modeling: 463–472, Heidelberg, Germany: Springer. DOI:10.1007/978-3-642-21799-9_52. 
  20. Eilers, M. (2011). "Learning of a Bayesian Autonomous Driver Mixture-of-Behaviors (BAD-MoB) Model". Advances in Applied Digital Human Modeling: 436–445, Boca Raton, USA: CRC Press, Taylor & Francis Group. 
  21. Le Hy, R.; Arrigoni, A.; Bessière, P.; Lebetel, O. (2004). “Teaching Bayesian Behaviours to Video Game Characters”. Robotics and Autonomous Systems. 47 (2—3): 177––185. DOI:10.1016/j.robot.2004.03.012.
  22. Synnaeve, G. Bayesian Programming and Learning for Multiplayer Video Games. — 2012.
  23. Colas, F.; Droulez, J.; Wexler, M.; Bessière, P. (2008). “A unified probabilistic model of the perception of three-dimensional structure from optic flow”. Biological Cybernetics: 132––154.
  24. Laurens, J.; Droulez, J. (2007). “Bayesian processing of vestibular information”. Biological Cybernetics. 96 (4): 389––404. DOI:10.1007/s00422-006-0133-1.
  25. Colas, F.; Flacher, F.; Tanner, T.; Bessière, P.; Girard, B. (2009). “Bayesian models of eye movement selection with retinotopic maps”. Biological Cybernetics. 100 (3): 203––214. DOI:10.1007/s00422-009-0292-y.
  26. Serkhane, J.; Schwartz, J-L.; Bessière, P. (2005). “Building a talking baby robot A contribution to the study of speech acquisition and evolution”. Interaction Studies. 6 (2): 253––286. DOI:10.1075/is.6.2.06ser.
  27. Moulin-Frier, C.; Laurent, R.; Bessière, P.; Schwartz, J-L.; Diard, J. (2012). “Adverse conditions improve distinguishability of auditory, motor and percep-tuo-motor theories of speech perception: an exploratory Bayesian modeling study”. Language and Cognitive Processes. 27 (7—8): 1240––1263. DOI:10.1080/01690965.2011.645313.
  28. Gilet, E.; Diard, J.; Bessière, P. (2011). Sporns, Olaf, ed. “Bayesian Action–Perception Computational Model: Interaction of Production and Recognition of Cursive Letters”. Plos ONE. 6 (6): e20387. Bibcode:2011PLoSO...620387G. DOI:10.1371/journal.pone.0020387.
  29. New algorithm helps machines learn as quickly as humans. www.gizmag.com (22 января 2016).
  30. Zadeh, Lofti, A. (1965). “Fuzzy sets”. Information and Control. 8 (3): 338––353. DOI:10.1016/S0019-9958(65)90241-X.
  31. Zadeh, Lofti, A. (1975). “Fuzzy logic and approximate reasoning”. Synthese. 30 (3––4): 407––428. DOI:10.1007/BF00485052.
  32. Dubois, D.; Prade, H. (2001). “Possibility Theory, Probability Theory and Multiple-Valued Logics: A Clarification” (PDF). Ann. Math. Artif. Intell. 32 (1––4): 35––66. DOI:10.1023/A:1016740830286.
  33. Poole, D. (1993). “Probabilistic Horn abduction and Bayesian networks”. Artificial Intelligence. 64: 81—129. DOI:10.1016/0004-3702(93)90061-F.
  34. Poole, D. (1997). “The Independent Choice Logic for modelling multiple agents under uncertainty”. Artficial Intelligence. 94: 7—56. DOI:10.1016/S0004-3702(97)00027-1.
  35. Sato, T.; Kameya, Y. (2001). “Parameter learning of logic programs for symbolic-statistical modeling” (PDF). Journal of Artificial Intelligence Research. 15: 391––454.

Литература

Ссылка

Данная страница на сайте WikiSort.ru содержит текст со страницы сайта "Википедия".

Если Вы хотите её отредактировать, то можете сделать это на странице редактирования в Википедии.

Если сделанные Вами правки не будут кем-нибудь удалены, то через несколько дней они появятся на сайте WikiSort.ru .




Текст в блоке "Читать" взят с сайта "Википедия" и доступен по лицензии Creative Commons Attribution-ShareAlike; в отдельных случаях могут действовать дополнительные условия.

Другой контент может иметь иную лицензию. Перед использованием материалов сайта WikiSort.ru внимательно изучите правила лицензирования конкретных элементов наполнения сайта.

2019-2024
WikiSort.ru - проект по пересортировке и дополнению контента Википедии