Contenido Checked

La mec??nica estad??stica

Temas relacionados: Ciencia

Antecedentes

Esta selecci??n wikipedia ha sido elegido por los voluntarios que ayudan Infantil SOS de Wikipedia para esta Selecci??n Wikipedia para las escuelas. Ver http://www.soschildren.org/sponsor-a-child para averiguar sobre el apadrinamiento de ni??os.

La mec??nica estad??stica es la aplicaci??n de la teor??a de probabilidades , que incluye matem??ticas herramientas para hacer frente a grandes poblaciones, con el campo de la mec??nica, que tiene que ver con el movimiento de part??culas u objetos cuando se somete a una fuerza. La mec??nica estad??stica, a veces llamadas la f??sica estad??stica, puede ser visto como un subcampo de la f??sica y la qu??mica .

Proporciona un marco para relacionar las propiedades microsc??picas de los ??tomos y mol??culas individuales a las propiedades macrosc??picas o granel de materiales que se pueden observar en la vida cotidiana, por lo tanto, que explica la termodin??mica como un resultado natural de la estad??stica y la mec??nica (cl??sica y cu??ntica) a nivel microsc??pico . En particular, se puede utilizar para calcular las propiedades termodin??micas de los materiales a granel a partir de los datos espectrosc??picos de mol??culas individuales.

Esta capacidad de hacer predicciones basadas en las propiedades macrosc??picas microsc??picas es la principal ventaja de la mec??nica estad??stica m??s de la termodin??mica . Ambas teor??as se rigen por la segunda ley de la termodin??mica a trav??s del medio de la entrop??a . Sin embargo, la entrop??a en termodin??mica s??lo puede ser conocido emp??ricamente, mientras que en la mec??nica estad??stica, es una funci??n de la distribuci??n del sistema en su micro-estados.

Postulado fundamental

El postulado fundamental de la mec??nica estad??stica (tambi??n conocida como la igualdad de un postulado probabilidad a priori) es la siguiente:

Dado un sistema aislado en equilibrio, se encuentra con la misma probabilidad en cada uno de sus accesible microestados.

Este postulado es una hip??tesis fundamental en la mec??nica estad??stica - que establece que un sistema en equilibrio no tiene ninguna preferencia por cualquiera de sus microestados disponibles. Dada microestados Ω a una energ??a particular, la probabilidad de encontrar el sistema en un microestado particular es p = 1 / Ω.

Este postulado es necesaria porque permite concluir que para un sistema en equilibrio, el estado termodin??mico (macroestado) que podr??a resultar de un mayor n??mero de microestados es tambi??n el macroestado m??s probable del sistema.

El postulado se justifica, en parte, por los sistemas cl??sicos, por El teorema de Liouville (hamiltoniano), que muestra que si el sistema de distribuci??n de puntos a trav??s accesible espacio de fase es uniforme en alg??n momento, sigue siendo as?? que en tiempos posteriores.

Justificaci??n similar para un sistema discreto es proporcionada por el mecanismo de balance detallado.

Esto permite la definici??n de la funci??n de informaci??n (en el contexto de teor??a de la informaci??n):

I = - \ sum_i \ rho_i \ ln \ rho_i = \ langle \ ln \ rho \ rangle.

Cuando todos rhos son iguales, I es m??nima, lo que refleja el hecho de que tengamos una m??nima informaci??n sobre el sistema. Cuando nuestra informaci??n es m??xima, es decir, un rho es igual a uno y el resto a cero (ya sabemos en qu?? estado el sistema est?? en), la funci??n es m??xima.

Esta "funci??n de la informaci??n" es la misma que la funci??n entr??pica reducida en termodin??mica.

Colectividad microcan??nica

En conjunto microcan??nica N, V y E son fijos. Desde la segunda ley de la termodin??mica se aplica a sistemas aislados, el primer caso investigado corresponder?? a este caso. El conjunto microcan??nica describe un sistema aislado.

La entrop??a de un sistema de este tipo s??lo puede aumentar, de modo que el m??ximo de su entrop??a corresponde a una estado de equilibrio para el sistema.

Debido a que una aislado sistema mantiene una energ??a constante, el total de energ??a del sistema no fluct??a. As??, el sistema s??lo puede acceder a los de sus micro-estados que corresponden a un valor E de la energ??a dada. La energ??a interna del sistema es entonces estrictamente igual a su energ??a .

Llamemos \ Omega (E) \ el n??mero de micro-estados correspondiente a este valor de la energ??a del sistema. El estado macrosc??pico de m??xima entrop??a para el sistema es aquel en el que todos los micro-estados son igualmente probable que ocurra, con una probabilidad {1 / {\ Omega (E)}} , Durante las fluctuaciones del sistema.

S = -k_B \ sum_ {i = 1} ^ {\ Omega (E)} \ left \ {{1 \ over {\ Omega (E)}} \ ln {1 \ over {\ Omega (E)}} \ derecho \} = k_B \ ln \ dej?? (\ Omega (E) \ right)
donde
S \ es el sistema de entrop??a ,
k_B \ es La constante de Boltzmann

Conjunto can??nico

En conjunto can??nico N, V y T son fijos. Invocando el concepto del conjunto can??nico, es posible derivar la probabilidad P_i \ que un sistema macrosc??pico en equilibrio t??rmico con su entorno, ser?? en un microestado dado con la energ??a E_i \ de acuerdo con la Distribuci??n de Boltzmann:

P_i = {e ^ {- \ beta E_i} \ over {\ sum_j ^ {j_ {max}} e ^ {- \ beta E_j}}}
donde \ Beta = {1 \ over {kT}} ,

La temperatura T \ surge del hecho de que el sistema est?? en equilibrio t??rmico con su entorno. Las probabilidades de las diferentes microestados deben a??adir a uno, y el factor de normalizaci??n en el denominador es la can??nica funci??n de partici??n:

Z = \ sum_j ^ {j_ {max}} e ^ {- \ beta} E_j

donde E_i \ es la energ??a de la yo \ ?? microestado del sistema. La funci??n de partici??n es una medida del n??mero de estados accesibles al sistema a una temperatura dada. El art??culo conjunto can??nico contiene una derivaci??n del factor de Boltzmann y la forma de la funci??n de partici??n de los primeros principios.

En resumen, la probabilidad de encontrar un sistema a temperatura T \ en un estado en particular con la energ??a E_i \ es

P_i = \ frac {e ^ {- \ beta E_i}} {Z}

Conexi??n Termodin??mica

La funci??n de partici??n se puede utilizar para encontrar el (promedio) valor esperado de cualquier propiedad microsc??pica del sistema, que puede estar relacionado con variables macrosc??picas. Por ejemplo, el valor esperado de la energ??a microsc??pica E \ se interpreta como la definici??n microsc??pica de la energ??a interna variable termodin??mica U \ ., Y puede ser obtenido tomando la derivada de la funci??n de partici??n con respecto a la temperatura. Ciertamente,

\ Langle E \ rangle = {\ sum_i E_i e ^ {- \ beta E_i} \ over Z} = - {1 \ over Z} {dZ \ over d \ beta}

implica, junto con la interpretaci??n de \ Langle E \ rangle como U \ , La siguiente definici??n microsc??pica de energ??a interna:

U \ dos puntos = - {d \ ln Z \ over d \ beta}.

La entrop??a puede calcularse (v??ase La entrop??a de Shannon)

{S \ sobre k} = - \ sum_i p_i \ ln p_i = \ sum_i {e ^ {- \ beta E_i} \ over Z} (\ beta E_i + \ ln Z) = \ ln Z + \ beta U

lo que implica que

- \ Frac {\ ln (Z)} {\ beta} = U - TS = F

es el energ??a libre del sistema o en otras palabras,

Z = e ^ {- \ beta} F \,

Tener expresiones microsc??picas para los potenciales termodin??micos b??sicos U \ ( energ??a interna), S \ ( entrop??a ) y F \ ( energ??a libre) es suficiente para derivar expresiones para otras magnitudes termodin??micas. La estrategia b??sica es como sigue. Puede haber una cantidad intensivo o extensivo que entra expl??citamente en la expresi??n para la energ??a microsc??pica E_i \ , Para el campo magn??tico ejemplo (intensivo) o el volumen (extensa). Entonces, las variables termodin??micas conjugadas son derivados de la energ??a interna. La magnetizaci??n macrosc??pica (extensa) es la derivada de U \ con respecto a la (intensivo) campo magn??tico, y la presi??n (intensivo) es la derivada de U \ con respecto al volumen (extensa).

El tratamiento de esta secci??n no asume intercambio de materia (masa es decir, fija y el n??mero de part??culas fijas). Sin embargo, el volumen del sistema es variable lo que significa la densidad tambi??n es variable.

Esta probabilidad se puede utilizar para encontrar el valor medio, que corresponde al valor macrosc??pico, de cualquier propiedad, J , Que depende del estado energ??tico del sistema mediante el uso de la f??rmula:

\ Langle J \ rangle = \ sum_i p_i J_i = \ sum_i J_i \ frac {e ^ {- \ beta E_i}} {Z}

donde \ Langle J \ rangle es el valor medio de la propiedad J \ . Esta ecuaci??n se puede aplicar a la energ??a interna, U \ :

U = \ sum_i E_i \ frac {e ^ {- \ beta E_i}} {Z}

Posteriormente, estas ecuaciones se pueden combinar con las relaciones termodin??micas conocidas entre U \ y V \ para llegar a una expresi??n para la presi??n en t??rminos de s??lo la temperatura, el volumen y la funci??n de partici??n. Relaciones similares en t??rminos de la funci??n de partici??n se pueden derivar otras propiedades termodin??micas, como se muestra en la siguiente tabla; v??ase tambi??n la explicaci??n detallada en configuraci??n integral.

Helmholtz energ??a libre: F = - {\ ln Z \ sobre \ beta}
Energ??a interna: U = - \ left (\ frac {\ partial \ ln Z} {\ partial \ beta} \ right) _ {N, V}
Presi??n: P = - \ left ({\ F parcial \ over \ partial V} \ right) _ {N, T} = {1 \ sobre \ beta} \ left (\ frac {\ partial \ ln Z} {\ V parcial} \ right) _ {N, T}
Entrop??a : S = k (\ ln Z U + \ beta) \,
Gibbs energ??a libre : G = F + PV = - {\ ln Z \ sobre \ beta} + {V \ sobre \ beta} \ left (\ frac {\ partial \ ln Z} {\ V parcial} \ right) _ {N, T}
Entalp??a : H = U + PV \,
Volumen constante capacidad calor??fica: C_V = \ left (\ frac {\ U parcial} {\ T parcial} \ right) _ {N, V}
Constante capacidad calor??fica presi??n: C_P = \ left (\ frac {\ H parcial} {\ T parcial} \ right) _ {N, P}
Potencial qu??mico: \ Mu_i = - {1 \ sobre \ beta} \ left (\ frac {\ partial \ ln Z} {\ N_i parcial} \ right) _ {T, V, N}

Para aclarar, esto no es una conjunto can??nico magn??fico.

A menudo es ??til considerar la energ??a de una mol??cula dada que se distribuye entre un n??mero de modos. Por ejemplo, la energ??a de traslaci??n se refiere a esa porci??n de la energ??a asociada con el movimiento del centro de masa de la mol??cula. Energ??a configuracional refiere a la porci??n de la energ??a asociada con las diversas fuerzas de atracci??n y repulsi??n entre las mol??culas en un sistema. Los otros modos son todos considerados para ser interna a cada mol??cula. Incluyen modos rotacionales, vibracionales, electr??nicos y nucleares. Si asumimos que cada modo es independiente (un supuesto cuestionable) la energ??a total se puede expresar como la suma de cada uno de los componentes:

E = E_t + E_c + E_n + e_e + E_r + E_v \,

Donde los sub??ndices t \ , c \ , n \ , e \ , r \ Y v \ corresponden a la traducci??n, configuracional, nuclear, modos electr??nicos, rotacionales y vibracionales, respectivamente. La relaci??n en esta ecuaci??n se puede sustituir en la primera ecuaci??n para dar:

Z = \ sum_i e ^ {- \ beta (E_ {ti} + E_ {ci} + E_ {ni} + E_ {ei} + E_ {ri} + E_ {vi})}
= \ Sum_i e ^ {- \ beta E_ {ti}} e ^ {- \ beta E_ {ci}} e ^ {- \ beta E_ {ni}} e ^ {- \ beta E_ {ei}} e ^ { - \ beta E_ {ri}} e ^ {- \ beta E_ {vi}}

Si somos capaces de asumir todos estos modos son completamente desacoplado y no correlacionados, por lo que todos estos factores son en un sentido probabilidad totalmente independiente, entonces

Z = z_T Z_c Z_n Z_e Z_r Z_v \,

As??, una funci??n de partici??n se puede definir para cada modo. Las expresiones simples se han derivado en relaci??n a cada uno de los distintos modos a diversas propiedades moleculares medibles, tales como las frecuencias de rotaci??n o vibraci??n caracter??sticos.

Las expresiones para las diversas funciones de partici??n molecular se muestran en la siguiente tabla.

Nuclear Z_n = 1 \ qquad (T <10 ^ 8 K)
Electr??nico Z_e = w_0 e ^ {kT D_e + W_1 e ^ {- \ theta_ {E1} / T} + \ cdots}
Vibracional Z_v = \ prod_j \ frac {e ^ {- \ theta_ {vj} / 2T}} {1 - e ^ {- \ theta_ {vj} / T}}
Rotacional (lineal) Z_r = \ frac {T} {\ sigma} \ theta_r
Rotacional (no lineal) Z_r = \ frac {1} {\ sigma} \ sqrt {\ frac {{\ pi} T ^ 3} {\ theta_A \ theta_B \ theta_C}}
Traslacional Z_T = \ frac {(MKT 2 \ pi) ^ {3/2}} {h ^ 3}
Configuracional (gas ideal) Z_c = V \,

Estas ecuaciones se pueden combinar con los de la primera tabla para determinar la contribuci??n de un modo particular de la energ??a a una propiedad termodin??mica. Por ejemplo, la "presi??n de rotaci??n" se pudo determinar de esta manera. La presi??n total se pudo encontrar sumando las contribuciones de presi??n de todos los modos individuales, es decir:

P = P_t + p_c + P_n + P_e + P_R + p_v \,

Gran conjunto can??nico

En gran can??nica conjunto V, T y potencial qu??mico son fijos. Si el sistema en estudio es un sistema abierto, (materia puede ser intercambiado), pero el n??mero de part??culas no se conserva, tendr??amos que introducir potenciales qu??micos, μ j, j = 1, ..., n y reemplazar el can??nica funci??n de partici??n con el gran funci??n de partici??n can??nica:

\ Xi (V, T, \ mu) = \ sum_i \ exp \ left (\ beta \ left [\ sum_ {j = 1} ^ n \ mu_j N_ {ij} -E_i \ right] \ right)

donde N ij es el n??mero de orden j part??culas de especies en la i ?? configuraci??n. A veces, tambi??n tenemos otras variables a a??adir a la funci??n de partici??n, uno correspondiente a cada cantidad conservada. La mayor??a de ellos, sin embargo, se puede interpretar de forma segura como potenciales qu??micos. En la mayor??a de los sistemas de materia condensada, las cosas son no relativista y se conserva la masa. Sin embargo, la mayor??a de los sistemas de materia condensada de inter??s tambi??n conservan el n??mero de part??culas de aproximadamente (metastably) y la masa (no relativista) es nada menos que la suma de la cantidad de cada tipo de part??cula veces su masa. Masa est?? inversamente relacionada con la densidad, que es la variable conjugado a la presi??n. Para el resto de este art??culo, vamos a ignorar esta complicaci??n y pretender potenciales qu??micos no importan. Ver conjunto can??nico magn??fico.

Vamos a retrabajo todo utilizando un conjunto can??nico magn??fico este momento. El volumen se deja fijo y no figura en absoluto en este tratamiento. Como antes, j es el ??ndice para aquellas part??culas de especies j e i es el ??ndice para microestado i:

U = \ sum_i E_i \ frac {\ exp (- \ beta (E_i- \ sum_j \ mu_j N_ {ij}))} {\ Xi}
N_j = \ sum_i N_ {ij} \ frac {\ exp (- \ beta (E_i- \ sum_j \ mu_j N_ {ij}))} {\ Xi}
Gran potencial: \ Phi_ {G} = - {\ ln \ Xi \ sobre \ beta}
Energ??a interna: U = - \ left (\ frac {\ partial \ ln \ Xi} {\ partial \ beta} \ right) _ {\ mu} + \ sum_i {\ mu_i \ sobre \ beta} \ left ({\ partial \ ln \ Xi \ over \ partial \ mu_i} \ right) _ {\ beta}
N??mero de la part??cula: N_i = {1 \ sobre \ beta} \ left ({\ partial \ ln \ Xi \ over \ partial \ mu_i} \ right) _ \ beta
Entrop??a : S = k (\ ln \ Xi + \ beta U \ beta \ sum_i \ mu_i N_i) \,
Helmholtz energ??a libre: F = G + \ sum_i \ mu_i N_i = - {\ ln \ Xi \ sobre \ beta} + \ sum_i {\ mu_i \ sobre \ beta} \ left (\ frac {\ partial \ ln \ Xi} {\ partial \ mu_i} \ right) _ {\ beta}

Equivalencia entre las descripciones en el l??mite termodin??mico

Todas las descripciones anteriores se diferencian en la forma en que permiten que el sistema dado a fluctuar entre sus configuraciones.

En el micro-can??nica conjunto, el sistema de intercambios sin energ??a con el mundo exterior, y por lo tanto no est?? sujeto a las fluctuaciones de energ??a, mientras que en el conjunto can??nico, el sistema es libre de intercambiar energ??a con el exterior en forma de calor .

En el l??mite termodin??mico, que es el l??mite de grandes sistemas, las fluctuaciones convertirse en insignificante, de modo que todas estas descripciones convergen a la misma descripci??n. En otras palabras, el comportamiento macrosc??pico de un sistema no depende de el conjunto particular utilizado para su descripci??n.

Dadas estas consideraciones, el mejor conjunto de elegir para el c??lculo de las propiedades de un sistema macrosc??pico es ese conjunto que permite que el resultado se deriva m??s f??cilmente.

Caminantes azar

El estudio de cadena larga pol??meros ha sido una fuente de problemas dentro de los dominios de la mec??nica estad??stica ya que alrededor del 1950. Una de las razones sin embargo que los cient??ficos estaban interesados en su estudio es que las ecuaciones que rigen el comportamiento de una cadena de pol??mero fueron independientes de la qu??mica de la cadena. Lo que es m??s, la ecuaci??n de gobierno resulta ser un paseo aleatorio (difusiva) en el espacio. De hecho, la ecuaci??n de Schr??dinger es en s?? una ecuaci??n de difusi??n en el tiempo imaginario, t '= es .

Paseos aleatorios en el tiempo

El primer ejemplo de un paseo aleatorio es uno en el espacio, mediante el cual una part??cula se somete a un movimiento aleatorio debido a fuerzas externas en su medio circundante. Un ejemplo t??pico ser??a un grano de polen en un vaso de precipitados de agua. Si uno pudiera de alguna manera "te??ir" el camino del grano de polen ha tomado, la trayectoria observada se define como un paseo aleatorio.

Considere un problema juguete, de un tren que se mueve a lo largo de una pista de 1D en la direcci??n x. Supongamos que el tren se mueve ya sea una distancia de + o - una distancia b fija, en funci??n de si una moneda cae cara o cruz cuando volteado. Vamos a empezar por considerar las estad??sticas de los pasos que el tren de juguete lleva (donde S_ {i} es el paso ITH tomado):

\ Langle S_ {i} \ rangle = 0 ; debido a priori probabilidades iguales
\ Langle S_ {i} S_ {j} \ rangle = b ^ 2 \ delta_ {ij}

La segunda cantidad se conoce como el funci??n de correlaci??n. El delta es el delta de Kronecker que nos dice que si los ??ndices iyj son diferentes, entonces el resultado es 0, pero si i = j, entonces el delta de Kronecker es 1, por lo que la funci??n de correlaci??n devuelve un valor de b ^ 2 . Esto tiene sentido, porque si i = j entonces estamos considerando el mismo paso. M??s bien trivialmente entonces se puede demostrar que el desplazamiento promedio del tren en el eje x es 0;

x = \ sum_ {i = 1} ^ {N} S_ {i}
\ Langle x \ rangle = \ langle \ sum_ {i = 1} ^ {N} S_ {i} \ rangle
\ Langle x \ rangle = \ sum_ {i = 1} ^ {N} \ langle S_ {i} \ rangle

Como se ha indicado \ Langle S_ {i} \ rangle es 0, por lo que la suma de 0 todav??a es 0. Tambi??n se puede demostrar, usando el mismo m??todo ha demostrado anteriormente, para calcular el valor cuadr??tico medio de problema. El resultado de este c??lculo se da a continuaci??n

x_ {rms} = \ sqrt {\ langle x ^ 2 \ rangle} = b \ sqrt N

Desde el ecuaci??n de difusi??n se puede demostrar que la distancia una part??cula de difusi??n se mueve en un medio es proporcional a la ra??z del tiempo que el sistema ha sido de difusi??n del, donde la constante de proporcionalidad es la ra??z de la constante de difusi??n. La relaci??n anterior, aunque de aspecto diferente, revela la f??sica similares, donde N es simplemente el n??mero de pasos movidos (est?? vagamente conectados con el tiempo) y b es la longitud del paso caracter??stico. Como consecuencia, podemos considerar la difusi??n como un proceso de paseo aleatorio.

Camina al azar en el espacio

Camina al azar en el espacio puede ser pensado como instant??neas del camino tomado por un caminante al azar en el tiempo. Un ejemplo es la configuraci??n espacial de pol??meros de cadena larga.

Hay dos tipos de caminata aleatoria en el espacio: auto evitando paseos aleatorios, donde los eslabones de la cadena de pol??mero interact??an y no se solapan en el espacio, y los paseos aleatorios puros, donde los eslabones de la cadena de pol??mero no son interactuantes y los enlaces son libres de estar uno encima del otro. El primer tipo es m??s aplicable a los sistemas f??sicos, pero sus soluciones son m??s dif??ciles de conseguir en a partir de primeros principios.

Al considerar una cadena de pol??mero libremente articulado que no interact??an, el vector de extremo a extremo es \ Mathbf {R} = \ sum_ {i = 1} ^ {N} \ mathbf r_i donde \ Mathbf {r} _ {i} es el vector de posici??n del enlace i-??simo en la cadena. Como resultado de la teorema del l??mite central, si N >> 1 entonces la esperamos una distribuci??n gaussiana para el vector de extremo a extremo. Tambi??n podemos hacer declaraciones de las estad??sticas de los propios enlaces;
\ Langle \ mathbf {r} _ {i} \ rangle = 0 ; por la isotrop??a del espacio
\ Langle \ mathbf {r} _ {i} \ cdot \ mathbf {r} _ {j} \ rangle = 3 b ^ 2 \ delta_ {ij} ; todos los eslabones de la cadena no est??n correlacionados entre s??
Utilizando las estad??sticas de los enlaces individuales, se demuestra f??cilmente que \ Langle \ mathbf R \ rangle = 0 y \ Langle \ mathbf R \ cdot \ mathbf R \ rangle = 3NB ^ 2 . Observe este ??ltimo resultado es el mismo que se encuentra de paseo al azar en el tiempo.

Suponiendo, como se ha dicho, que esa distribuci??n de los vectores de extremo a extremo para un gran n??mero de cadenas de pol??meros id??nticos es gaussiana, la distribuci??n de probabilidad tiene la siguiente forma

P = \ frac {1} {\ left (\ frac {2 \ pi N b ^ 2} {3} \ right) ^ {3/2}} \ exp \ frac {- 3 \ mathbf R \ cdot \ mathbf R } {2Nb ^ 2}

??Para qu?? sirve esto? Recordemos que de acuerdo con el principio de igual probabilidad probabilidades a priori, el n??mero de microestados, Ω, en alg??n valor f??sico es directamente proporcional a la distribuci??n de probabilidad en ese valor f??sico, a saber;

\ Omega \ dej?? (\ mathbf {R} \ right) = c P \ left (\ mathbf {R} \ right)

donde c es una constante de proporcionalidad arbitraria. Dada nuestra funci??n de distribuci??n, hay una maxima correspondiente a \ Mathbf {R} = 0 . F??sicamente esto equivale a que hay m??s microestados que tienen un vector de 0 que cualquier otro microestado de extremo a extremo. Ahora, considerando

S \ left (\ mathbf {R} \ right) = k_B \ ln \ Omega {\ left (\ mathbf R \ right)}
\ Delta S \ dej?? (\ mathbf {R} \ right) = S \ dej?? (\ mathbf {R} \ right) - S \ left (0 \ right)
\ Delta F = - T \ Delta S \ dej?? (\ mathbf {R} \ right)

donde F es la Energ??a libre de Helmholtz es trivial demostrar que

\ Delta F = k_B T \ frac {3R ^ 2} {2Nb ^ 2} = \ frac {1} {2} KR ^ 2 \ quad; K = \ frac {3} {T k_B Nb ^ 2}

Un resorte Hookian!
Este resultado se conoce como la Primavera Entropic Resultado y equivale a decir que al estirar una cadena de pol??mero que est?? haciendo trabajo en el sistema de arrastrarlo lejos de su (preferido) estado de equilibrio. Un ejemplo de esto es una banda el??stica com??n, compuesto de pol??meros de cadena larga (de goma). Al estirar la banda el??stica que est?? haciendo trabajos en la instalaci??n y la banda se comporta como un resorte convencional. Lo que es particularmente sorprendente de este resultado sin embargo, es que el trabajo realizado en el estiramiento de la cadena de pol??mero puede estar relacionado enteramente a la variaci??n de entrop??a del sistema como resultado de el estiramiento.

Recuperado de " http://en.wikipedia.org/w/index.php?title=Statistical_mechanics&oldid=234870478 "