Binär entropifunktion
I informationsteori , den binära entropifunktionen , betecknad eller , definieras som entropin för en Bernoulli-process med sannolikheten för ett av två värden. Det är ett specialfall av , entropifunktionen . Matematiskt är Bernoulli-försöket modellerat som en slumpvariabel som bara kan anta två värden: 0 och 1, som är ömsesidigt uteslutande och uttömmande.
Om , då och entropin för (i shannons ) ges av
- ,
där antas vara 0. Logaritmerna i denna formel tas vanligtvis (som visas i grafen) till basen 2. Se binär logaritm .
När uppnår den binära entropifunktionen sitt maximala värde. Detta är fallet med en opartisk myntvändning .
särskiljs från entropifunktionen genom att den förra tar ett enda reellt tal som en parameter medan den senare tar en fördelnings- eller slumpvariabel som parameter. Ibland skrivs den binära entropifunktionen också som . Den skiljer sig dock från och bör inte förväxlas med Rényi-entropin , som betecknas som .
Förklaring
När det gäller informationsteori anses entropi vara ett mått på osäkerheten i ett meddelande. För att uttrycka det intuitivt, anta att . Med denna sannolikhet är det säkert att händelsen aldrig inträffar, så det finns ingen osäkerhet alls, vilket leder till en entropi på 0. Om är resultatet återigen säkert, så entropin är 0 här också. När är osäkerheten maximal; om man skulle lägga en rättvis satsning på resultatet i detta fall finns det ingen fördel att vinna med förkunskaper om sannolikheterna. I detta fall är entropin maximal vid ett värde av 1 bit. Mellanvärden faller mellan dessa fall; till exempel, om finns det fortfarande ett mått på osäkerhet på utfallet, men man kan fortfarande förutsäga utfallet korrekt oftare än inte, så osäkerhetsmåttet eller entropin , är mindre än 1 hel bit.
Derivat
Derivatan av den binära entropifunktionen kan uttryckas som det negativa av logitfunktionen :
- .
Taylor-serien
Taylor -serien för den binära entropifunktionen i ett område av 1/2 är
för .
Gräns
Följande gränser gäller för :
och
där anger naturlig logaritm.
Se även
Vidare läsning
- MacKay, David JC Informationsteori, slutlednings- och inlärningsalgoritmer Cambridge: Cambridge University Press, 2003. ISBN 0-521-64298-1