El origen microscópico de la entropía

«Ludwig Boltzmann, quien pasó gran parte de su vida estudiando mecánica estadística, murió en 1906, por su propia mano. Paul Ehrenfest, continuando su trabajo, murió de manera similar en 1933. Ahora es nuestro turno de estudiar mecánica estadística. Quizá sería sabio acercarse al tema prudentemente.»

Líneas iniciales de «States of Matter», de D. L. Goodstein.

En esta serie de entradas te presentaré el concepto de entropía. No, no, mejor. Vas entender la entropía. Vas a verla como nunca la has visto.

Espero que eso no te conduzca al suicidio.

Porque la entropía es uno de los conceptos más escurridizos en física, y a poco que profundices en él y reflexiones al respecto, te ocasionará algún que otro dolorcillo de cabeza. Y no es para menos. La entropía fue la puerta de entrada a la mecánica cuántica (Planck la usó en sus estudios del cuerpo negro, Einstein en el efecto fotoeléctrico) y probablemente sea también la puerta de entrada a la gravedad cuántica (vía entropía de agujeros negros). Así que un entendimiento profundo de la misma parece pertinente.

Al lío.


Es obvio que todos los fenómenos que presenciamos en el día a día son irreversibles.

Los huevos se rompen. El café y la leche se mezclan. El olor a comida inunda toda nuestra casa haciéndonos salivar (¿por qué recurriremos los físicos siempre a ejemplos tan suculentos?). Pero los huevos no se «desrompen», el café y la leche no se separan por arte de magia y el olor de comida no vuelve solito al plato del que salió. Todos esos fenómenos nos parecerían absurdos.

Esta irreversibilidad parece trazar una flecha del tiempo. Todos sabríamos que algo extraño pasa con el tiempo si vemos un huevo recomponerse solito tras su caída y volver a la encimera intacto.

Pero por otro lado, todas las leyes físicas son reversibles en el tiempo. La información se conserva. Aunque la irreversibilidad parece querer dar al traste con esta ley física.

Por ejemplo: si pateamos una caja, se deslizará unos metros y finalmente se detendrá. Si encontramos una caja detenida, ¿cómo sabemos si alguien la pateó recientemente o lleva ahí parada años? ¿No hemos perdido información aquí?

Puedes pensar más ejemplos: unos hielos que se derriten (si encontramos un vaso de agua fría, como sabemos que empezó con cierta cantidad de hielo y no con otra, o que nos lo acaban de sacar del frigorífico?), dos objetos a la misma temperatura (llevan así horas o acaban de alcanzar el equilibrio térmico?), etc.

Por otro lado, irreversibilidad y tendencia al desorden parecen relacionados. Al inicio, todas las moléculas de la caja tenían velocidades paralelas (dando a la caja su energía cinética), todo muy ordenadito. Al final, mediante el roce con el suelo nos quedamos con una agitación aparentemente aleatoria, es decir, desordenada, de las moléculas del suelo y de la superficie de la caja en contacto con el mismo.

La energía cinética de la caja se podía haber aprovechado para realizar un trabajo útil (empujar a tu profe de física por un barranco, mismamente), pero es obvio que de la agitación térmica final de las moléculas no podemos extraer trabajo útil. Por lo que la irreversibilidad también se relaciona con una pérdida de energía capaz de realizar trabajo.

¿Cómo formalizamos todo lo que hemos dicho aquí?

Pues claro, con el concepto de entropía.

¿Por qué se introdujo este concepto?

La termodinámica es de las poquitas ramas de física cuyo avance fue motivado por el desarrollo tecnológico, y no viceversa.

Es por eso que casi todos sus mayores exponentes (iniciales) eran ingenieros. Y como ingenieros, andaban preocupados por la eficiencia de sus máquinas. Los procesos que estas máquinas llevaban acabo eran cíclicos, y parecía que extraer trabajo de una fuente de calor y que esta quedase en el mismo estado, dispuesta a repetir el ciclo igual de eficiente, no era posible.

No se pueden construir máquinas que repitan un mismo ciclo indefinidamente. Por eso se enfada tanto Homer cuando lisa le presenta una máquina de movimiento perpetuo.

Sadi Carnot encontró una expresión para la máxima eficiencia posible de las máquinas térmicas, que en última instancia está relacionada con lo que todos ya sabemos: el calor fluye de los objetos más calientes a los más fríos.

Por su parte, Rudolf Clausius formalizó los desarrollos de Carnot introduciendo la entropía, del griego «evolución, transformación», y enunció la segunda ley de la termodinámica, que viene a decir que la entropía siempre crece en el universo.

Pero una vez que entendimos que la materia está hecha de átomos, muchos fenómenos cuya explicación requería la introducción de leyes perdieron tal estatus.

Por ejemplo, aunque poca gente lo sabe, que las temperaturas de los cuerpos se equilibren al ponerse en contacto es la «ley cero» de la termodinámica. Pero si entendemos que la temperatura es una medida de la energía cinética que tienen las moléculas de los cuerpos en su continua agitación, es lógico que en contacto se equilibren, ya que las moléculas empezarán a chocar y transferirse momento lineal hasta que en promedio todas vibren igual (con la misma energía cinética).

¿Qué explicación microscópica se esconde tras el aumento de la entropía y la irreversibilidad de los fenómenos?

Boltzmann y la entropía

Fue el físico austriaco Ludwig Boltzmann quien dio con la explicación microscópica de la entropía y su crecimiento.

Una vez que se acepta la hipótesis atómica (y esto es importante, pues no todos la aceptaban para cuando Boltzmann publicó sus trabajos) se puede formalizar la idea de que en su evolución, los sistemas tienden al desorden.

Sí, sí, ya sé. Es costumbre despachar el tema diciendo que los sistemas tienden al desorden, y que la entropía es por tanto una medida del mismo. Pero esto es Física Tabú. No seremos tan simples 😛

De hecho, la relación entropía-desorden no es tan clara. Por ejemplo, si agitamos una mezcla de agua y aceite, obtenemos un batiburrillo de burbujas de aceite dentro del agua que tildaríamos de desordenado. Y aun así, el aceite y el agua se segregan ellos solitos en dos capas diferenciadas, que al ojo inocente le parecen más ordenadas. Pero realmente aquí se ha respetado la segunda ley, y ha habido un aumento de entropía. De igual forma, si comenzamos con una nube de partículas en el espacio que se atraen gravitacionalmente, podemos acabar formando estrellas, planetas, agujeros negros… De nuevo, estos sistemas, aunque parezcan más ordenados, tienen más entropía que el sistema inicial.

Pero volvamos a Boltzmann y su explicación de la entropía. Como pone en su lápida, Boltzmann definió la entropía como:

    \[S=k \ln W\]

donde k es una constante (la constante de Boltzmann, que por cierto la introdujo Max Planck) que ajusta las unidades, \ln es el logaritmo neperiano y W es el número de maneras en las que podemos reorganizar microscópicamente el sistema sin que nada cambie macroscópicamente.

¿Por qué tiene sentido que esta sea la definición microscópica de la entropía?

Macroestados y microestados

Pensemos en un gas. Supongamos que parte de un cierto volumen chiquitín en la esquina de una habitación.

Recuerda que en los gases lo que tenemos es un montón de moléculas con un movimiento aleatorio, que van rebotando unas con otras. Es lógico que, en su evolución, acaben por esparcirse por toda la habitación, pues choque a choque, es mucho más probable que las moléculas salgan despedidas en direcciones que hagan que se dispersen a que todas se conjuren para seguir chocando en un espacio reducido.

¿Por qué es más probable? Pues aquí es cuando entra el concepto de microestado.

Un microestado es una especificación de las posiciones y velocidades de las partículas que componen un sistema dado. Es decir, para un gas, deberíamos dar por cada molécula su vector posición (3 datos) y su vector velocidad (3 datos), reuniendo una colección de 6N datos si tenemos N moléculas.

Además, debemos identificarlas (de momento todo esto es clásico, podemos identificarlas): no basta decir tengo este conjunto de posiciones y velocidades, sino que deberíamos numerarlas y decir «la molécula 1 está en la posición \vec r_1 moviéndose con una velocidad \vec v_1, la molécula 2 está en la posición \vec r_2 moviéndose con una velocidad \vec v_2, …». Estos son un montón de datos. Por ejemplo, para un gas con solo 1 gramo de hidrógeno, deberíamos conocer dos cuatrillones de datos.

Por contra, un macroestado es la especificación de las características macroscópicas del sistema, aquellas que no dependen de los detalles microscópicos del mismo, como su temperatura o su presión.

Es obvio que para un macroestado dado, existirán multitud de microestados. Imagina tener un gas (con su cuatrillón de moléculas moviéndose en todas direcciones). ¿Crees que afectará en algo a su temperatura -una variable macroscópica- que cambie la velocidad de sólo una de las moléculas -lo que sería un microestado diferente-?

Encuentra el vector velocidad que cambia entre ambos microestados. Sé que es fácil, pero, ¿te imaginarías capaz de hacerlo si te pusiera 1000 moléculas? ¿y 1000 millones?

Es sencillo entender que cambiar unas poquitas cosas (unos cuantos vectores posición y velocidad) no afectará las variables macroscópicas.

Es por esto que los sistemas evolucionan a aquellos macroestados con más microestados disponibles, aumentando así la entropía. Simplemente es que es más probable, ya que estos macroestados tienen muchísisisisimos más microestados asociados.

Comparemos hielo con agua fundida.

En un vaso de agua, tenemos muchas maneras de reordenar sus moléculas sin que nada cambie. Pero en un hielo no ocurre así: si empiezo a mover demasiado las posiciones de los átomos, que poseen cierta ordenación en los sólidos, o cambio las velocidades de los mismos, acabaré por destrozar la estructura del hielo. Es obvio que existen muchos menos microestados compatibles con «tener agua en estado sólido» que con «tener agua en estado líquido», luego de manera natural el hielo evoluciona fundiéndose e incrementando con ello la entropía.

Veamos un ejemplo que clarifique el asunto.

Un ejemplo con monedas

Queremos estudiar las combinaciones posibles de caras y cruces al lanzar un cierto número de monedas y sus probabilidades.

Imagina que lanzamos cuatro monedas. Podemos obtener 4 cruces, 1 cruz y 3 caras, 2 cruces y 2 caras, 3 cruces y 1 cara y por último 4 caras. Todo eso son macroestados de nuestro sistema de cuatro monedas.

¿Cuáles son los microestados?

Pues la especificación concreta del estado del sistema. Por ejemplo, para 1 cruz y 3 caras, podríamos tener los siguientes microestados:

XCCC, CXCC, CCXC, CCCX

ya que, como dijimos, debemos especificar el estado de cada moneda. Tenemos 4 reordenaciones posibles que llevan al mismo macroestado.

La pregunta es: al lanzar cuatro monedas, ¿por qué resultado apostarías?

Obviamente por aquel que tenga mayor probabilidad.

Y, ¿cuál tiene más probabilidad? El resultado (macroestado) con más reordenaciones (microestados) posibles.

Para nuestras monedas, tenemos la siguiente tabla:

MACROESTADO MICROESTADOS
Cuatro cruces 1: XXXX
3 cruces, 1 cara 4: XXXC, XXCX, XCXX, CXXX
2 cruces, 2 caras 6: XXCC, XCXC, CXXC, XCCX, CXCX, CCXX
1 cruz, 3 caras 4: XCCC, CXCC, CCXC, CCCX
4 caras 1: CCCC

Luego si suponemos que el experimento «lanzar una moneda» es aleatorio, apostaremos por aquel con más probabilidades.

Vuelta al gas

Ahora cambiemos de sistema: supongamos una caja con 4 moléculas.

Imaginemos que somos capaces de discernir solo entre ambas mitades de la caja. Sabemos cuando las moléculas están en una mitad o en otra, pero no buscamos mayor detalle. Es decir, los macroestados que estaremos manejando serán que todas estén en una mitad o en otra, que 3 estén en una mitad o en otra o 2 en cada mitad.

¡Anda, como con las monedas!

Si os fijáis, las combinaciones vuelven a ser las mismas. Si aceptamos que el movimiento de las moléculas es aleatorio, las matemáticas son iguales.

¿Por qué estado apostaríais más? Por 2 moléculas en cada mitad, claramente.

Aun así, la termodinámica no se inventó para lidiar con sistemas de sólo cuatro partículas. Sin duda me objetarías que en este caso tampoco te parecería tan raro encontrar a todas las moléculas en una mitad. No lo considerarías una violación del segundo principio.

Pero cuando  lidiamos con cuatrillones de moléculas y sus movimientos azarosos, las probabilidades de encontrar configuraciones extrañas se hacen ridículamente pequeñas.

Hagamos unas cuantas cuentas (toma aliteración).

Si os fijáis, el número de microestados que nos han salido coinciden los numeritos que aparecen en el triángulo de Pascal (por ser un suceso dicotómico) .

En el triángulo de Pascal, cada nuevo número se obtiene sumando los dos inmediatamente superiores. En los bordes siempre hay un 1. Imagen sacada de aquí.

El experimento para 4 moléculas corresponde a la quinta fila. En general, cada elemento del triángulo se obtiene mediante combinatoria como {n \choose k}=\frac{n!}{(n-k)! k!} donde n es la fila a la que pertenece -1 (empezando a contar desde arriba) y k el elemento correspondiente (empezando a contar por la izquierda). Estas cosillas le sonarán a aquellos que hayan estudiado el binomio de Newton.

El por qué es que, en general, para n moléculas, las puedo ordenar de n!=n(n-1)...\cdot 2\cdot 1 formas distintas. Por ejemplo, piensa en ordenar 1000 moléculas: la primera la puedes poner en 1 de los mil huecos (1000 posibilidades), la siguiente en 1 de los 999 restantes (999 posibilidades), etc. Por tanto, has de multiplicar 1000x999x998… hasta llegar a 1. Eso es precisamente el factorial de 1000: 1000!.

Ahora bien, piensa en que no nos importa el orden en que luego las reordenamos en cada mitad, luego las posibilidades se reducen. Si pasamos 2 moléculas a un lado, nos da igual que fuera primero la 540 y luego la 758 que al revés. Por tanto, hemos de dividir entre las maneras de reordenar 2 moléculas, que son 2!=2. A la izquierda tenemos que dividir entre las maneras de reordenar las 998 restantes, es decir, 998!. Así, para este microestado tengo \frac{1000!}{2! 998!} que es precisamente la definición de {1000 \choose 2}.

Para N moléculas, tenemos 2^N microestados (piensa en binario, desde todas en cruz -000…- hasta todas en cara -111…- tienes el correspondiente número en binario+1 :P). Para nuestras 1000 moléculas (que sigue siendo un número enano respecto al número que se maneja en realidad) tenemos la friolera de 10^{301} microestados posibles. Muchos (muuuuuchos) más que átomos en el universo observable.

Por ser conservadores, comparemos el estado más probable (mitad de moléculas en un lado y en otro, es decir, situación de máximo desorden) con uno en el que hayan 3/4 partes en un lado y 1/4 en el otro (que diríais que podría «no ser tan raro»).

Cómo ya he dado suficiente información como para que os entretengáis calculando, daré simplemente los resultados.

MACROESTADO MICROESTADOS PROBABILIDAD
Mitad en cada lado (500 y 500) 10^{299} 0.025
750 en un lado, 250 en el otro 10^{242} 10^{-59}=0.0000….(cincuenta y cuatro ceros más tarde)…1

Fijaos en lo absurdamente improbable que es encontrar el microestado en que 3/4 partes están en una mitad. Y esto para «sólo» 1000 moléculas.

Boltzmann entendió que este razonamiento podría explicar el aumento de entropía. Simplemente tenemos moléculas moviéndose aleatoriamente, por lo que es más probable que alcancen macroestados con muchos microestados disponibles que aquellos con menos.

Pero un problemilla con el que se enfrentó es que se sabía de la termodinámica que la entropía es aditiva. Si juntamos dos sistemas, la entropía es la suma de las entropías individuales.

Pero hasta ahora solo hemos contado microestados. Si tenemos un gas con 4 moléculas, tiene 2^4=16 microestados asociados. En cambio uno con 8 moléculas tiene 2^8=256 microestados asociados, es decir, 16\times 16. Los microestados del sistema total se obtienen multiplicando los de cada subsistema, mientras que queremos que la entropía total sea la suma de las entropías de cada subsistema.

¿Qué operación convierte multiplicaciones en sumas?

Claro, el logaritmo.

Así, Boltzmann definió la entropía como el logaritmo del número de microestados asociados a un macroestado dado. Y demostró que dicha definición reproducía los resultados termodinámicos que ya se conocían.

Un genio.

Comienzan las dificultades

En este punto te tendrían que empezar a asaltar las inseguridades.

Primero, hemos pasado de una ley absoluta (la entropía crece) a una ley probabilística (lo más probable es que crezca).

Pero es aun peor. Hemos mecanizado la segunda ley, con lo que la entropía solo crece en promedio. En este sentido la segunda ley de la termodinámica es una ley emergente. Es perfectamente plausible que en cierto momento las moléculas evolucionen hacia un macroestado con menos microestados disponibles. Es solo que si suponemos que su movimiento es aleatorio, es muy poco probable conforme el número de moléculas crece, y en seguida evolucionarán a un macroestado con más microestados disponibles (es decir, en su continuo crecimiento hacia el estado de equilibrio, puede sufrir fluctuaciones).

Pero aquí viene el intríngulis. Si hemos mecanizado la segunda ley de la termodinámica, entonces la entropía sencillamente no crece. La evolución de las posiciones y momentos de las partículas de un sistema están gobernadas por ecuaciones deterministas: las leyes de Newton.

Realmente la entropía crece cuando introducimos explícitamente un elemento de aleatoriedad en el movimiento de las moléculas.  Si nos olvidamos del detalle, y aceptamos que es practicamente imposible seguirles la pista a todas las moléculas, entonces la entropía crecerá por una mera cuestión de probabilidades. El supuesto crecimiento de la entropía es ficticio.

De hecho, con unas poquitas moléculas no hay manera de trazar una flecha del tiempo, ni hablar de un crecimiento de la entropía. Si añadimos más, aceptando que en todo momento evolucionan bajo leyes deterministas, ¿en qué momento hablamos de flecha del tiempo y crecimiento de la entropía? Esta visión reduccionista de las leyes trae de cabeza a los físicos. Y normal.

¿Qué configuración viene primero, la superior o la inferior? Con tan pocas moléculas, ninguna parece preceder a la otra, o mejor dicho, cualquiera podría evolucionar a la otra.

En resumen, la entropía crece y la irreversibilidad aparece cuando explícitamente obviamos el detalle. Pero no tendríamos por qué.

Por ejemplo, cuando hablábamos de que la caja se paraba y no podíamos saber desde qué estado evolucionó, realmente es porque no hemos tenido en cuenta la evolución de todo el sistema.

La caja avanza. Al hacerlo, las moléculas de su superficie en contacto con el suelo se transmiten momento. Lo que en palabras llanas llamamos rozamiento. Pero la manera en que este momento se transfiere es mediante interacciones electromagnéticas, y la evolución posterior de las moléculas está gobernada por las leyes de Newton.

En ningún momento hay ningún fenómeno intrínsecamente irreversible. Todos estos pasos están gobernados por leyes reversibles en el tiempo, que conservan la información. Si le siguiéramos el detalle a todas las moléculas, los fotones que se emitan al calentarse, los fonones de la agitación de la red de átomos… podríamos reconstruir el estado de partida.

Podríais decirme: bueno, pero si vemos que los fenómenos en la naturaleza son irreversibles, ¿por qué aceptar las ideas de Boltzmann?

Este fue uno de los argumentos que se le opusieron a Boltzmann, junto con la negación de la existencia de los átomos.

Piensa que no queremos encontrar teorías que casen con nuestra intuición. Queremos teorías que al hacer las cuentas expliquen los fenómenos y además sean más predictivas que sus precedesoras. Y «mecanizar» la termodinámica, creando la mecánica estadística, cumple estos requisitos. Explica todo lo que la termodinámica explicaba y además reduce los parámetros libres (por ejemplo, al entender la temperatura y presión desde el punto de vista microscópico, podemos conectarlos y encontrar conexiones entre las constantes R, k y N_A, dejando de ser independientes).

Por tanto, de igual manera que mecanizar el concepto de temperatura nos ha hecho ganar en predictividad, mecanizar el de entropía también. Ahora es posible aplicarlo a otros sistemas, como fotones, bosones, espines en imanes… y extender la noción de temperatura a estos casos.


Ahora mismo tenemos más preguntas abiertas que cuando comenzó la entrada. ¿Qué tiene que ver la entropía entonces con la irreversibilidad y la flecha del tiempo si las leyes físicas son reversibles? ¿Cómo afecta a todo esto la cuántica?

¿Realmente la entropía crece?

Antes de adentrarnos en estas preguntas tenemos que hablar de cómo se define la entropía formalmente en mecánica estadística. Del espacio de fases, del granulado grueso, de la conservación de la información, de la reversibilidad en el tiempo de las leyes físicas…

En fin. Tantas cosas que mejor las dejamos para la siguiente entrada 🙂

14 comentarios en “El origen microscópico de la entropía”

  1. Hola Castelo. Muy buena entrada. Me ha quedado mas claro el concepto de entropia despues de leerte.
    El concepto mas clave que has explicado muy bien diria que es el siguiente
    -> El estado macroscopico mas probable es aquel con mas estados microscopicos asociados, ya que todos los estados microscopicos son equiprobables.

    Te hago un par de preguntas
    Piensas que entropia crece de forma inexorable unicamente si el numero de particulas de un sistema tiende a infinito?
    De forma un poco mas poetica. Se puede decir que la entropia de un sistema finito tiende a crecer de la misma manera que alguien tiende a cabrearse si le sueltas un inesperado truño en la coronilla? Aunque sea un perfect?

    <3

    Responder
    • Buenas Antonio.

      Muchas gracias lo primero. La inexorabilidad del crecimiento de la entropía no sé, lo que si que te puedo asegurar es que los comentarios escatológicos siempre vienen de tu parte. Que no decaiga XD

      Gracias por el apunte de que los estados microscópicos han de ser equiprobables. En la siguiente entrada pensaba meterme con ese tema. De hecho, en la siguiente entrada defenderé lo siguiente: «La entropía no crece». ¿Cómo se te queda el cuerpo? 😛

      Un gran saludo.

      Responder
      • Leere la siguiente entrada. Entonces todos los procesos que ocurren el la naturaleza son en el fondo reversibles y el aumento de la entropia es una «ilusion macroscopica»?

        Responder
        • Precisamente. O al menos bajo algunas definiciones de entropía. En la siguiente entrada veremos que hay varias maneras de definirlo. Lo que si es claro es que todas y cada una de las leyes físicas son reversibles en el tiempo (definiendo reversibilidad con la suficiente holgura, por ejemplo en teoría cuántica de campos se viola la inversión temporal, pero esto no explicaría probablemente el aumento de entropía en el universo), por lo que si asociamos entropía e información (a mayor entropía mas preguntas son necesarias para especificar el estado del sistema) podríamos entender que, si las leyes físicas conservan la información, la entropía no puede crecer.

          Todo esto vendrá en sucesivas entradas. A ver si consigo explicarlo bien (no tengáis mucha fe).

          Responder
  2. Buenas tardes, Adrián. Soy Pola.
    He leído tu artículo y bueno…. sigo con unas cuantas dudas en la cabeza.
    Quería destacar una. A ver si la expongo correctamente, porque no acabo de entenderlo. Me da la impresión de que se cuela un gazapo en un punto del argumento: cuando hablas de las posiciones de 4 moléculas en el lado izquierdo o derecho de la caja. Yo de éso no concluiría que «la entropía crece y la irrevresibilidad aparece cuando obviamos el detalle».
    Para mí, tiene algo que ve «N», el numero de moléculas. Si sólo hay una, puede estar a la izquierda o a la derecha. Si sólo hay dos, podrían estar repartidas o no pero como dices, no sabríamos de donde partimos. O nos daría lo mismo.
    Pero cuando N es «suficientemente grande», si vemos que todas las moléculas están en un lado, sabemos que ésa era la configuración inicial. ¿No?

    Responder
    • Buenas Pola.

      El tema está en que yo parta de la configuración inicial que quiera, y entienda que la evolución es más probable hacia estados que maximizan la entropía. Es decir, si yo parto con todas a un lado, lo lógico y esperable es que todas evolucionen a repartirse equitativamente. Pero esta lógica interna evolutiva procede de que probabilísticamente hablando, es el estado con mas microestados asociados. Si dijéramos: «¿Por qué no puede ser 30% en un lado, 70% en el otro?» Pues porque en el momento en que las moléculas son suficientes, las probabilidades de que una configuración como la que pregunto se dé son infinitamente menores a una en la que están todas homogéneamente repartidas.

      El caso es que aunque sea infinitamente más probable, nada prohibe que se dé una fluctuación estadística y alcancemos, partiendo de las moléculas homogéneamente repartidas, una configuración del tipo 30% 70%.

      Un saludo Pola, sigue preguntando si tienes dudas.

      Responder
  3. Gracias Adrian.

    He leído tus dos respuestas. La de éste artículo y también la del segundo de ésta serie.
    Al final, creo que entiendo el asunto de los microestados. Y entiendo que lo normal es que los sistemas evolucionen hacia el macroestado con más microestados posibles, porque es muchísimo mas probable.
    Ese es el concepto con el que me quedo de la entropía. (Que no sé si es el adecuado o no). Duda 1.
    Por eso no entiendo que se diga que la entropía no crece. Duda 2.
    Y tampoco que se diga que una configuración (microestado) determinado, puede venir de otra con mas microestados. Para mi al evolución natural es ir hacia configuraciones con más microestados. Duda 3.
    Gracias y un saludo

    Responder
    • Duda 1: La entropía es el logaritmo del número de microestados asociados a un macroestado dado. La entropía «crece» porque es más probable acabar en un macroestado con muchos microestados asociados (es más probable que al lanzar dos dados la suma de 7 porque hay 6 maneras posibles de que ocurra mientras que solo una de que la suma dé 2, luego apostaríamos por el 7).
      Duda 2: aun así, el sistema está asociado a un único microestado (es decir, una única configuración de posiciones y velocidades, no puede ser que las moléculas tengan cada una varias posiciones y velocidades). Por eso, dado que solo hay un microestado y las leyes de la física son reversibles y deterministas (relacionan los estados pasados con los futuros de manera que a cada estado pasado le corresponde un único estado futuro) no se esta perdiendo información. Para que la entropía crezca es necesario que cambie la información, pero esto no ocurre. Aun así, si entendemos que no podemos asociar un único estado al sistema porque es algo inaccesible experimentalmente y nos quedamos con muchos, se sigue demostrando que la cantidad de microestados necesarios para describir el sistema en un instante dado no cambia con el tiempo, luego la entropía tampoco. Peeeeero, cuando promediamos (y para eso hacemos el granulado grueso que explico en la siguiente entrada), hacemos que crezca. Es decir, es consecuencia de promediar (y por ende obviar los detalles finos) que vemos que la entropía crece.

      Piensalo con un ejemplo de estadística pura y dura: tenemos un país y queremos hacernos una idea de la estatura de la gente. Aquí tenemos 40 millones de datos. Conocerlos todos es conocer la máxima información. Pero no es útil. Así que promediamos, y nos sale que la estatura media es 1.70 m. Pero ahora te pregunto: vale, pero ¿de cuántas maneras posibles puedes asignar estaturas a los 40 millones de personas para que aun así la media te dé 1.70? Seguramente de un montón. Por tanto, si empezamos conociendo el dato de que la media es 1.70, hemos perdido información (y la «entropía» ha crecido) ya que hay muchas maneras de conseguir esa media, por lo que no sabemos nada a nivel microscópico del sistema (es decir, de las estaturas individuales).

      Duda 3: un microestado es una configuración de las partículas del sistema que almacena las posiciones y velocidades de las mismas. Pero como el estado del sistema evoluciona con el tiempo, pasa por muchas configuraciones distintas (todas ellas puntos del espacio de fase) luego pasa por muchos microestados. Lo de que la evolucion natural sea hacia configuraciones con mas microestados es cuando promedias. Cuando decides que experimentalmente no puedes distinguir microestados lo suficientemente parecidos, el espacio de fases se segmenta en macroestados que engloban a muchos microestados. Los macroestados con muchos microestados tienen más volumen, luego es más probable que en su evolución el sistema acabe en ellos.

      Un saludo.

      Responder
  4. Gracias. Le estoy dando vueltas al asunto. Hay algunas ideas que tengo que pensar un poco más. Cuando me haya aclarado, te comento, porque según lo voy viendo, me surge alguna duda.
    Un saludo

    Responder
  5. Pero por ahora una pregunta. Sea determinista o no, sepamos cómo sucede o no, lo cierto es que si ponemos en una esquinita mil millón de moléculas de un gas y en el resto del recipiente 4 trillones de moléculas de otro y los dejamos, al final acabará mezclados. Lo mismo si tenemos dos líquidos de distinto color en un recipiente separados por una membrana que retiramos. Y lo mismo con los vasos que se reompen y no vuelven a juntarse.
    ¿Entonces?

    Responder
    • Cuando dices «lo cierto» realmente podrías sustituirlo por «lo más probable». Pues no hay nada que impida que todas se junten y luego se vuelvan a separar. Solo son necesarias las condiciones iniciales adecuadas. El problema es que como no sabemos, ya no las condiciones iniciales, sino las condiciones en un momento dado nunca, no se puede predecir (y aunque las supieramos, no podríamos tampoco por falta de capacidad de cómputo). Por lo que recurrimos a promedios. Y al promediar, hablamos de probabilidades. Y la evolución más probable (cuatrillones de cuatrillones de cuatrillones de veces más probable) es que el sistema acabe mezclado. Pero eso no hace que la otra opción sea imposible, solo improbable. Nosotros basamos nuestra lógica en estas probabilidades, y por eso predecimos que el futuro va en el sentido en que las cosas se mezclan, se rompen, se desordenan… Es como si fuesemos analistas de mercado y quisiésemos obtener una distribución de los turistas que irán al mediterráneo. Probablemente acabemos con cosas más o menos homogéneas, pues suponemos que hay poca predilección, que hay muchas variables en juego tipo cercanía, dinero… Todas esas suposiciones que metemos a mano por no conocer el detalle del sistema (preferencias concretas, dinero concreto) nos obligan a usar la estadística. Nada impide que no acaben todos concentrados en tres destinos concretos. De igual manera, no conocer las posiciones y velocidades nos obliga a usar la estadística, resultando más probables las distribuciones homogéneas que las heterogéneas. Pero nada impide que ocurra que el estado inicial es tal que la evolución no será la «más desordenada», aunque hace falta tal grado de ajuste fino que a efectos prácticos nunca ocurrirá.

      ¿Me explico?

      Responder
  6. «Aun así, si entendemos que no podemos asociar un único estado al sistema porque es algo inaccesible experimentalmente y nos quedamos con muchos, se sigue demostrando que la cantidad de microestados necesarios para describir el sistema en un instante dado no cambia con el tiempo, luego la entropía tampoco».
    Eso es cierto. La cantidad de microestados necesarios para describir el sistema no cambia. Lo que cambia es que se ha pasado de un sistema con menos microestado a otro sistema con más micoestados, que es precisamente el aumento de entropía. ¿No?

    Responder
    • No, no se pasa de un sistema con menos microestados a otro con más. La cantidad de microestados no cambia, al menos si te fijas en el detalle. Pero la clave de la termodinámica, por contraposición con la mecánica, es que el detalle no me importa. Y para eso hay que promediar. Y en el proceso de promediar es cuando obligamos a que el sistema pase de macroestados con menos microestados asociados a con más microestados asociados. Pero es un «capricho» de los físicos.

      Responder

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.