Entropia warunkowa
Z Wikipedii, wolnej encyclopedia
Entropia warunkowa – wartość używana w teorii informacji. Mierzy, ile wynosi entropia nieznanej zmiennej losowej jeśli wcześniej znamy wartość innej zmiennej losowej Zapisuje się ją jako i tak jak inne entropie mierzy w bitach.
Intuicyjnie entropia ta mierzy, o ile entropia pary zmiennych i jest większa od entropii samej zmiennej czyli ile dodatkowej informacji dostajemy na podstawie zmiennej jeśli znamy zmienną