Расстояние (дивергенция) Ку́льбака — Ле́йблера (информационная дивергенция,относительная энтропия) в теории информации — это несимметричная мера удаленности друг от друга двух вероятностных распределений[1]. Обычно одно из сравниваемых распределений — это «истинное» распределение, второе — предполагаемое (проверяемое), являющееся приближением первого.
Содержание |
Пусть даны две дискретные случайные величины , принимающие значения в одном множестве , и их распределения задаются функциями вероятности и соответственно. Тогда расстояние Кульбака — Лейблера задаётся формулой:
Пусть теперь даны две абсолютно непрерывные случайные величины , и их распределения задаются плотностями вероятности и соответственно. Тогда расстояние Кульбака — Лейблера задаётся формулой:
В частности, оно не является метрикой на пространстве распределений.
Расстояние Кульбака-Лейблера.