Bits, nats y bans

Todo el mundo sabe lo que es un bit. Su nombre viene de contraer la expresión binary digit (dígito binario, en inglés). Se utiliza como unidad básica de información, y es bastante intuitiva porque estamos acostumbrados a trabajar con ordenadores, que funcionan con lógica binaria.

Sin embargo no es la única unidad de información. Tenemos, por ejemplo, el nat (también denominado nit o nepit), contracción de natural unit. Surge de trabajar con logaritmos neperianos (en base e) en lugar de con logaritmos en base 2. Así, según el Teorema de Shannon-Hartley, la capacidad C de un canal en nats viene determinada por la siguiente expresión:

C=B\ln\left(1+\frac{S}{N}\right)

donde B es el ancho de banda del canal, y S/N es la relación señal a ruido en recepción.

Por otro lado, podemos medir la entropía H de una fuente en nats mediante la siguiente expresión:

H=-\displaystyle\sum\limits_i{p_i\ln{p_i}}

donde p_i es la probabilidad de ocurrencia de cada uno de los símbolos que puede generar dicha fuente.

Un nat equivale a \frac{1}{\ln2} bits (aproximadamente, 1,44 bits).

Si en lugar de utilizar logaritmos neperianos, usásemos logaritmos decimales, obtendríamos bans, también llamados hartleys en honor a Ralf Hartley, como no.

Tags: , , , ,

Si te gustó esta entrada anímate a escribir un comentario o suscribirte al feed y obtener los artículos futuros en tu lector de feeds.

Comentarios

Aún no hay comentarios.

Escribe un comentario

(requerido)

(requerido)