Sistemas cerrados y aislados

Comenzamos analizando un sistema que no intercambia ningún tipo de energía con su entorno, ni puede incorporar o liberar materia. Si bien su energía $E $ es fija, dispone de muchos microestados compatibles con la condición $E\!=\!U $ (constante). El ensamble asociado con esta situación se denomina microcanónico.

La maximización de $ S $ con el único vínculo ${\rm Tr} (\hat\rho)\!=\!1 $ implica un procedimiento similar al de la sección anterior, aunque en este caso representaremos como  $\delta \hat\rho\;$ a las variaciones que se provoquen en el operador $\hat\rho $ que maximiza la entropía:

$\displaystyle \delta \left\{ -k {\rm Tr} (\hat\rho  \ln\hat\rho) +
\alpha ...
...ho \; \left[
-k \ln\hat\rho + (\alpha-k) \hat{I}  \right] \right\} = 0 \;,
$

donde $\hat{I} $ es el operador identidad. Nuevamente, esto debe cumplirse para variaciones  $\delta \hat\rho\;$ arbitrarias, de manera que debe anularse el factor entre corchetes, lo que implica

$\displaystyle \hat\rho = e^{{\textstyle\frac{\alpha}k}-1}  \hat{I} \;.$ (9)

Esto significa que $\hat\rho $ es un operador diagonal, con todos sus elementos $\rho_i $ idénticos. Si el número de estados accesibles al sistema con energía $E $ es $W(E)$, entonces

$\displaystyle \rho_i = \frac 1{W(E)} \;.
$

Este resultado es análogo al de la sección anterior, y es equivalente al postulado de igual probabilidad a priori, que indica que no hay motivo para privilegiar ningún estado si la única restricción que se impone es que el sistema tenga energía $E$. Muchas formulaciones de la mecánica estadística comienzan aceptando este postulado en lugar del principio de máxima entropía, que es el camino que nosotros hemos escogido.

Reemplazando los valores para $\rho_i $ en la expresión para la entropía obtenemos nuevamente

$\displaystyle \fbox{   $\displaystyle S = k  \ln W(E)
\rule[-1.5em]{0em}{4em} $   }$ (10)

que puede tomarse como relación fundamental para nuestro sistema si aceptamos que se corresponde con la entropía termodinámica. En particular, la conexión directa con la temperatura se escribe como

$\displaystyle \frac 1T = \left(\frac{\partial S}{\partial U}\right)_{X,N} \;,
$

y a partir de aquí, por supuesto, pueden encontrarse magnitudes como el calor específico u otras funciones respuesta.3

En el caso de que el sistema analizado pueda describirse adecuadamente mediante un enfoque clásico, tendremos una densidad de probabilidad $\rho($${X}$$^N)$, y la entropía se escribe

$\displaystyle S = - k \int_{E<H(\mbox{\scriptsize {\boldmath$X$}$^N$})<E+\Delta...
...mbox{\boldmath${X}$}^N)  \ln\left[C^N\rho(\mbox{\boldmath${X}$}^N)\right] \;,
$

donde la constante $C^N $ se introduce para tener las unidades correctas y corresponde al volumen en el espacio de las fases $\Gamma $ ocupado por un estado del sistema. Este volumen sólo puede hallarse mediante argumentos cuánticos, y pronto mostraremos que $C^N\!=\!h^{3N}$, donde $h $ es la constante de Planck4. Aceptando este volumen finito ocupado en $\Gamma $ por cada estado, la integración de la expresión anterior abarca estados con energías levemente superiores a $E $ en una cantidad $\Delta E $ pequeña, aunque el volumen abarcado en el espacio de las fases es mucho mayor que el de un único estado.

Al maximizar la entropía en esta descripción clásica se obtiene

$\displaystyle \rho($$\displaystyle \mbox{\boldmath${X}$}$$\displaystyle ^N) = \frac 1{\omega(E,V,N)} \;,
$

donde $\omega(E,V,N) $ es el volumen en $\Gamma $ comprendido entre las superficies de energía $E $ y $E+\Delta E$

$\displaystyle \omega(E,V,N) =
\int_{E<H(\mbox{\scriptsize {\boldmath$X$}$^N$})<E+\Delta E} {\rm d}\mbox{\boldmath${X}$}^N \;,
$

que también puede representarse como el área $\Sigma(E,V,N) $ de la hipersuperficie con energía $E $ multiplicada por el ancho $\Delta E$, $\omega(E,V,N)\!=\!\Sigma(E,V,N)\Delta E$. La densidad de probabilidad se anula si el estado analizado no se encuentra comprendido en $\omega(E,V,N)$. Reemplazando la expresión hallada para $\rho($${X}$$^N) $ en la definición de entropía, se obtiene

$\displaystyle \fbox{   $\displaystyle S(E,V,N) = k  \ln \frac{\omega(E,V,N)}{C^N}
\rule[-1.75em]{0em}{4.5em} $   }$ (11)

Esta expresión es equivalente a la desarrollada para el caso cuántico: si $\omega(E,V,N) $ es el volumen en $\Gamma $ ocupado por todos los estados accesibles y $C^N $ es el volumen asociado a un solo estado, $\omega(E,V,N)/C^N $ es el número de estados compatibles con la energía $E $ prefijada. Por otro lado, la expresión encontrada para $ S $ puede tomarse como relación fundamental a partir de la cual pueden derivarse todas las propiedades termodinámicas del sistema considerado.

Es interesante verificar que esta expresión para la entropía resulta extensiva. Para ello consideremos un sistema con $ N $ partículas distinguibles dividido en dos partes no interactuantes, conteniendo cada subsistema $\alpha $ y $\beta\!=\!N-\alpha $ partículas respectivamente. El hamiltoniano del sistema conjunto puede escribirse como

$\displaystyle H($$\displaystyle \mbox{\boldmath${X}$}$$\displaystyle ^N) = H($$\displaystyle \mbox{\boldmath${X}$}$$\displaystyle ^\alpha) + H($$\displaystyle \mbox{\boldmath${X}$}$$\displaystyle ^\beta)
$

y el espacio de las fases es el producto cartesiano de los respectivos espacios para cada subsistema, $\Gamma^{(N)}\!=\!\Gamma^{(\alpha)}\times\Gamma^{(\beta)}$. Un estado con energía total $E $ se logra combinando un estado del subsistema $\alpha $ cuya energía parcial es $E_i $ con un estado de $\beta $ cuya energía es $E-E_i$, lo que en el espacio $\Gamma^{(N)} $ implica un volumen

$\displaystyle \omega^{(\alpha)}(E_i) \cdot \omega^{(\beta)}(E-E_i) \;.
$

Como esta no es la única alternativa, ya que existen muchos valores de $E_i $ que se corresponden con la misma energía total $E$, el volumen en el espacio $\Gamma^{(N)} $ que debemos evaluar resulta de sumar todas las combinaciones posibles, es decir

$\displaystyle \omega(E) = \sum_{i=1}^{E/\Delta E}
\left[ \omega^{(\alpha)}(E_i) \cdot \omega^{(\beta)}(E-E_i) \right] \;.
$

Si el mayor sumando en esta expresión se da cuando $E_i\!=\!\bar{E}_\alpha $ ( $\bar{E}_\beta\!=\!E\!-\!\bar{E}_\alpha$), podemos acotar $\omega $ por arriba reemplazando en la sumatoria todos los términos por ese valor máximo, y por abajo eliminando todos los otros términos (que son no negativos):

$\displaystyle \omega^{(\alpha)}(\bar{E}_\alpha)\cdot\omega^{(\beta)}(\bar{E}_\b...
...\omega^{(\alpha)}(\bar{E}_\alpha)
\cdot \omega^{(\beta)}(\bar{E}_\beta) \;\;.
$

Tomando logaritmos y multiplicando por $k $ obtenemos

$\displaystyle k  \ln \left[ \frac{\omega^{(\alpha)}(\bar{E}_\alpha)}{C^\alpha}...
...^{(\beta)}(\bar{E}_\beta)}{C^\beta} \right] +
k  \ln \frac E{\Delta E} \;\;,
$

donde hemos identificado $C^N\!=\!C^\alpha C^\beta $ a partir de su definición. Cualquier volumen en el espacio $\alpha $ (o $\beta$) es proporcional a cierta cantidad (dependiente del volumen en cuestión) elevada a una potencia $6\alpha $ (o $6\beta$), de manera que el primer término del miembro de la derecha es proporcional a $\alpha\!+\!\beta=N$, mientras que el segundo es proporcional a $\ln N $ (pues $E\propto N$). En el límite termodinámico, es decir cuando $ N $ es muy grande (y también $\alpha $ y $\beta$), la contribución del último término es despreciable frente al primero, coincidiendo entonces la cota inferior con la superior. Esto implica que, en el límite termodinámico,

$\displaystyle S^{(N)} = S^{(\alpha)} + S^{(\beta)} \;,
$

de modo que la entropía es aditiva. La extensividad que deseábamos verificar es consecuencia directa de la aditividad.

Con un razonamiento similar al anterior puede mostrarse que si $\Omega(E,V,N)\!=\!\sum_{i=0}^{E/\Delta E}\omega(E_i) $ representa el volumen contenido dentro de la hipersuperficie $\Sigma(E,V,N)$, la expresión para la entropía puede escribirse también como

$\displaystyle \fbox{   $\displaystyle S(E,V,N) = k  \ln \frac{\Omega(E,V,N)}{C^N}
\rule[-1.75em]{0em}{4.5em} $   }$ (12)


Matemáticamente esta expresión suele resultar más sencilla en la práctica, de modo que la utilizaremos en lugar de la fórmula (11) cuando sea conveniente.

Paralelamente a la demostración anterior, hemos resaltado el hecho de que la energía $E_\alpha $ del subsistema $\alpha $ tiene en realidad un valor bien definido, ya que --siempre en el límite termodinámico-- la sumatoria puede reemplazarse por un único sumando: el término que maximiza $\omega^{(\alpha)}\cdot\omega^{(\beta)} $ bajo la restricción $E_\alpha\!+\!E_\beta\!=\!E $ (cte). Como el logaritmo es una función monótonamente creciente, la condición de máximo puede escribirse como

$\displaystyle \delta \left[ \ln\left(\omega^{(\alpha)}\cdot\omega^{(\beta)}\right) \right]
= 0 \qquad {\rm con} \qquad \delta E_\alpha + \delta E_\beta = 0 \;.
$

Dado que los subsistemas son independientes, $\omega^{(j)} $ sólo depende de $E_j$, de modo que la condición anterior implica

$\displaystyle \left[ \frac{\partial\ln\omega^{(\alpha)}}{\partial E_\alpha} -
\frac{\partial\ln\omega^{(\beta)}}{\partial E_\beta} \right]
\delta E_\alpha = 0
$

para $\delta E_\alpha $ arbitrario, es decir

$\displaystyle \left.\frac{\partial S_\alpha}{\partial E_\alpha} \right\vert _{\...
...left.\frac{\partial S_\beta}{\partial E_\beta}\right\vert _{\bar{E}_\beta} \;.
$

Esta identidad es un nuevo indicio de la “razonabilidad” de asociar la entropía de información con la entropía termodinámica, pues si $\partial
S/\partial U=1/T$, la identidad anterior significa que

$\displaystyle T_\alpha = T_\beta \;,
$

es decir, en el equilibrio las temperaturas de ambos subsistemas deben igualarse. Por conveniencia, en la definición de la entropía se elige la constante de Boltzmann $k\!=\!1.380649\cdot10^{-23}$J/K 5, con el objeto de que esta temperatura coincida con la temperatura absoluta que se introduce en la termodinámica. De todos modos, en la expresión (9) se ha explicitado que la elección de esta magnitud es de algún modo irrelevante, ya que está ligada a los valores de los multiplicadores de Lagrange, y modificarla solo representaría un cambio de unidades.

Finalmente, es fácil ver que nuestra expresión para la entropía crece con la energía interna: al aumentar $U$, el volumen $\Omega $ que debe evaluarse en la expresión (12) crece, pues pasamos a abarcar, además de los estados anteriores, nuevos estados con energía interna algo mayor. Como el logaritmo es una función creciente, esto significa que $ S $ crece con $U$. La expresión que aceptamos para la entropía estadística satisface entonces los requisitos que exigimos al introducir esta función para desarrollar la teoría termodinámica: por un lado, toma el máximo valor compatible con $U$, $V $ (o la variable extensiva $ X $ que corresponda) y $N$; por otro, es una función monótonamente creciente con $U$, y además cumple con la propiedad de aditividad.



Subsecciones
Gustavo Castellano    19/11/2021