No se ha añadido ninguna twiki todavía.

(del griego ἐντροπία, vuelta, retorno)

Magnitud termodinámica simbolizada por S introducida por Clausius que expresa la función de estado de un sistema aislado. Carnot ya había establecido que las transformaciones de energía solamente son posibles como consecuencia de diferencias previas de intensidad (ver principio de Carnot). El calor solamente puede, pues, transformarse en trabajo cuando pasa de una fuente caliente a otra más fría. Pero en este proceso se sigue desprendiendo calor que ya no puede transformarse en trabajo. Por ello, un sistema aislado va progresivamente igualando sus diferencias de intensidad hasta alcanzar una temperatura uniforme. En este estado de uniformidad ya no es posible ninguna otra transformación, lo que se conoce como muerte térmica de un sistema. La entropía se define como: [math]S_1-S_2 = \int_2^1 dQ /T[/math], donde [math]S_1-S_2[/math] expresa la variación de entropía en dos estados distintos, [math]dQ[/math] expresa la cantidad de calor y [math]T[/math], la temperatura absoluta. La unidad de entropía es el «clausius», o variación entrópica experimentada por un sistema que absorbe un julio a la temperatura de un kelvin.

En un proceso reversible que precisa la concurrencia de dos fuentes térmicas, la entropía se mantiene constante, ya que el sistema y las fuentes se compensan mutuamente. En cambio, en un proceso irreversible siempre hay un aumento de la entropía. El final del proceso conduce a la muerte térmica, que coincide con su grado de estabilidad máxima, o grado de mayor probabilidad. Esta magnitud expresa también el grado de desorden molecular de un sistema: cuanto mayor es el desorden de un sistema mayor es su entropía. Esta última formulación expresa la relación entre la entropía y la probabilidad termodinámica (W), que se formaliza como: S = k ln W (donde k es la constante de Boltzmann). Así, por ejemplo, un sólido cristalino tiene una estructura definida y ordenada con menor entropía (más ordenado) que el mismo material fundido, en el que sus moléculas no están estructuradas en la red cristalina (menos ordenado).

Puesto que la entropía es también una medida de la probabilidad, en cosmología se ha especulado que el destino entero del universo es la muerte térmica, estado final de plena igualación o de máximo desorden. Ello supone que todo proceso es irreversible, de manera que el crecimiento de la entropía sería también una medida de la llamada flecha del tiempo. En cambio, los fenómenos vitales (especialmente el crecimiento y la reproducción) manifiestan una entropía negativa o neguentropía, ya que tienden a formar orden a partir de estados menos ordenados. No obstante, en el cómputo global, debido a las necesidades de nutrición y al metabolismo, también los organismos vivos contribuyen al crecimiento de la entropía. (Ver flecha del tiempo).

Esta magnitud termodinámica también ha sido utilizada en el ámbito de la teoría de la información y en la cibernética. En este caso representa la medida de la incertidumbre existente ante un conjunto de mensajes, del cual va a recibirse uno solo. Es decir, si para un lenguaje hay N símbolos y cada uno de ellos tiene una probabilidad [math]p_i[/math], la suma de los productos de cada probabilidad por su logaritmo (con signo cambiado) define la entropía de la fuente, de manera que [math]S= -\sum_{i}p_i log_2 p_i[/math]

Al usar logaritmos con base dos se obtiene la entropía en bits, y expresa el contenido medio de información de un símbolo para un conjunto de N elementos.