WikiSort.ru - Не сортированное

ПОИСК ПО САЙТУ | о проекте

Количество информации в теории информации – это количество информации в одном случайном объекте относительно другого.

Пусть и – случайные величины, заданные на соответствующих множествах и . Тогда количество информации относительно есть разность априорной и апостериорной энтропий:

,

где

энтропия, а

— условная энтропия, в теории передачи информации она характеризует шум в канале.

Свойства энтропии

Для энтропии справедливы свойства:

,

где количество элементов множества .

При этом, , если один из элементов множества реализуется с вероятностью 1, а остальные, соответственно, 0, в силу того, что и .

Максимум значения энтропии достигается, когда все , т.е. все исходы равновероятны.

Для условной энтропии справедливы свойства:

,

При этом, , если отображение в однозначное, т.е. .

Максимум значения условной энтропии достигается, когда и - независимые случайные величины.

Свойства количества информации

Для количества информации справедливы свойства:

как следствие теоремы Байеса.
если и – независимые случайные величины.

Последнее свойство показывает, что количество информации совпадает с информационной энтропией, если компонента потери информации (шум) равна нулю.

Литература

Данная страница на сайте WikiSort.ru содержит текст со страницы сайта "Википедия".

Если Вы хотите её отредактировать, то можете сделать это на странице редактирования в Википедии.

Если сделанные Вами правки не будут кем-нибудь удалены, то через несколько дней они появятся на сайте WikiSort.ru .




Текст в блоке "Читать" взят с сайта "Википедия" и доступен по лицензии Creative Commons Attribution-ShareAlike; в отдельных случаях могут действовать дополнительные условия.

Другой контент может иметь иную лицензию. Перед использованием материалов сайта WikiSort.ru внимательно изучите правила лицензирования конкретных элементов наполнения сайта.

2019-2024
WikiSort.ru - проект по пересортировке и дополнению контента Википедии