La entropía NO crece

«La entropía del universo entero, el cual es el sistema más aislado que existe, no puede nunca decrecer. […] Se sigue que la entropía del universo constantemente se incrementa, y llevará implacablemente a una «muerte térmica» […]. ¿Es este el destino del universo? En un universo donde la segunda ley de la termodinámica fuera rigurosamente correcta, la respuesta afirmativa es ineludible. Sin embargo, el nuestro no es tal universo, aunque esta conclusión no se derive de la termodinámica.

Nuestro universo está gobernado por leyes moleculares, cuya invariancia bajo inversión temporal deniega la existencia de cualquier fenómeno natural que pueda distinguir de manera absoluta entre el pasado y el futuro. La respueta apropiada para la pregunta planteada es que no. La razón es que la segunda ley de la termodinámica no puede ser una ley rigurosa de la naturaleza.

Kerson Huang, capítulo 2 de «Statistical Mechanics».

¡Hola! Soy Troy McClure Adrián, el creador de Física Tabú.

Es posible que me recuerden de entradas como ¡E=mc^2 está mal!, o Espaciotiempo curvo sin mallas elásticas. Si ni la masa crecía con la velocidad, ni el espacio realmente se curva como una malla elástica, hoy, para mas inri, veremos que la entropía, nuestra querida entropía… NO crece.

Al lío.


Nuestro periplo comienza por entender la definición técnica de entropía en física. Pero para eso deberemos hacer antes una visita al genial concepto de espacio de fases.

Espacio de fases

«¿Qué es el espacio de fases?,

Dices mientras clavas tu pupila en mi pupila azul.

¿Espacio de fases? ¿Y tú me lo preguntas?

Espacio de fases es… Un espacio 6N dimensional.»

Es probable que no ligues con esta variante del famoso poema (ni siquiera rima). Pero hasta la fecha, (casi) nadie ha ligado explicando mecánica estadística. No te presiones.

Más que ligar, lo que vamos a intentar aquí es resumir la idea primordial de qué es el espacio de fases y qué pinta en todo esto, idea que ya dejamos caer en la anterior entrada sobre entropía.

El tema es que para especificar el estado de una partícula, necesitamos en un instante dado su posición (3 datos) y su velocidad (3 datos más). Por tanto, necesitamos dar 6 datos. Luego si queremos especificar el estado de un sistema con N partículas, necesitaremos 6N datos.

Pero va, yo sé que los humanos corrientes no estamos están acostumbrados a pensar en 6N dimensiones. Así que vayamos de menos a más.

Supón que tenemos una masa oscilando entorno a un punto de equilibrio. Por ejemplo, para fijar ideas piensa en un péndulo.

En este, la posición y la velocidad varían periodicamente con el tiempo. Es más, cuando la amplitud es máxima la velocidad es nula y cuando la amplitud es nula la velocidad es máxima, de manera tal que la suma de ambas es todo el rato constante e igual a la energía del sistema. Esto se puede representar en una sencilla gráfica:

Pero al generalizar la mecánica newtoniana a la mecánica analítica, a los físicos empezó a interesarles ver la posición y la velocidad como coordenadas (generalizadas), en lugar como las variables de las que debieran preocuparse. Por tanto, relegadas a meras coordenadas, podemos pintar la evolución del péndulo en unos ejes de velocidad frente a posición. Con las unidades adecuadas, resulta que la trayectoria es una circunferencia:

Es decir, el espacio de fases es un espacio donde los ejes representan las posiciones y velocidades de las partículas del sistema. El estado del sistema será un punto concreto en un instante dado (en la figura de arriba pintado en verde), y este evoluciona dibujando una trayectoria en el espacio de fases (trayectoria que será cerrada si la energía se conserva).

Al añadir dos partículas, aunque sea en una dimensión, ya son necesarios cuatro ejes por lo que no es viable representar nada. Y menos aún cuando tenemos N partículas en tres dimensiones, donde son necesarios 6N ejes. De ahí que el espacio de fases sea un espacio 6N dimensional.

El caso es que el estado del sistema vendrá representado por un único punto que evoluciona recorriendo cierta trayectoria en el espacio de fases.

Con saber eso podemos dar el siguiente paso.

Entropía en mecánica estadística

Para entender por qué la entropía no crece tenemos que entender su definición (rigurosa) en mecánica estadística.

Una vez entendemos que el estado del sistema se representa por un punto en el espacio de fases, viene la realidad a joder la marrana y recordarnos que  no, que con un punto no basta.

Para que asociáramos un único punto a un sistema dado, deberíamos conocer los susodichos 6N datos. Eso suelen ser cuatrillones de datos. Y no es viable.

Como ya explicamos en la primera entrada, lo que hacemos es quedarnos con todos los microestados (puntos en el espacio de fases) compatibles con el macroestado del sistema. Todos estos microestados juntos definen una región en el espacio de fases a la que, bajo ciertas sutilezas matemáticas, podemos asociarle un volumen.

El espacio de fases queda entonces parcelado en regiones de determinado volumen, aglutinando a puntos que, dadas nuestras capacidades de medida, nos parecen indistinguibles macroscópicamente.

A este procedimiento se le conoce como granulado grueso del espacio de fases.

Lo que ocurre ahora es que el estado del sistema se corresponde con un único punto de los infinitos que hay y, al no poder distinguirlo de los cercanos, debemos quedarnos con todos los que se asocien al mismo macroestado. Por lo que la entropía resulta el logaritmo del volumen de la parcela donde se encuentra el estado de nuestro sistema.

    \[S=k \ln \mathcal V\]

Más o  menos queda una cosa como la que se puede ver en la siguiente gráfica:

Paremos aquí y, antes de discutir el crecimiento o no de la entropía, veamos a qué nos referimos en física cuando hablamos de conservación de la información.

Conservación de la información

En la entrada anterior dejé caer alguna que otra vez que la información se conserva en la evolución. Que es algo que está «grabado» en la manera en que operan nuestras leyes físicas. Y que esto se debe a que las leyes físicas son reversibles en el tiempo.

¿Eso cómo se come?

Veamos primero un ejemplo de una ley física de juguete que conserva la información y otra que no.

Ley de juguete

Esto que vamos a hacer aquí (que sacamos de un libro de Susskind que citamos al final de la entrada) se parece mucho al modelo de física fundamental de Wolfram. ¿Le resta mérito a lo suyo o hace que esto quede molón? Decididlo vosotros 😛

Como ya hemos dicho, a los sistemas físicos les asociamos estados. Por ejemplo, podríamos pensar en una moneda: su estado puede ser cara (C) o cruz (X). El espacio de estados en este caso tiene dos estados y es discreto.

Ahora necesitamos una ley dinámica: una ley que nos dicte cómo evolucionan los estados en el tiempo. Por ejemplo, una ley sencilla sería que cualquiera que fuera el estado inicial del sistema, permanecerá en ese. Así, la lista de estados por los que pasará nuestro sistema tendrá o esta pinta: CCCCCCC….. o esta: XXXXXXX…. Gráficamente nuestra ley se podría dibujar como sigue:

Otra ley dinámica posible es que, cualquiera que sea el estado del sistema en un instante dado, al siguiente cambiará al otro estado. Por tanto, la historia del sistema quedaría algo como …CXCXCXCXC… Gráficamente mola mas:

Podríamos escribir ecuaciones que describan la evolución, pero lo importante es que debes fijarte en que el comportamiento futuro queda completamente determinado por el estado inicial. Las leyes que hemos inventado son deterministas.

Para sistemas con más estados, podríamos encontrar leyes más complejas. En la siguiente gráfica mostramos algunas:

Pero al final del día, hay un tipo de leyes que en la naturaleza no están permitidas. Aquellas que no son reversibles.

Una ley irreversible es una ley que no es determinista hacia el pasado. Es decir, dado el estado actual, no sabemos de qué estado hemos venido. Hemos perdido información.

Por ejemplo, una ley irreversible podría ser la siguiente:

Si estás en el estado A, evolucionas hacia B. En B, evolucionas hacia C. Y en C, de nuevo a B. Esta ley es determinista hacia el futuro. Si me dices el estado actual del sistema, puedo predecir con certeza absoluta cual será el estado futuro tras n pasos.

Pero esta ley no es determinista hacia el pasado. Si estoy en B, ¿vengo de C o de A? ¡No se sabe! Y lo que es peor aún, el estado A no tiene pasado. De hecho, si revertimos las flechas la ley falla en predecir el futuro. Recuerda que esto mismo ocurría si vemos una caja parada. ¿Cómo sabemos si nunca ha estado en movimiento o se movía pero el rozamiento la frenó?

Podemos extraer una regla muy sencilla de todos estos ejemplos:

Las leyes dinámicas permitidas (deterministas/reversibles) son aquellas que asocian una única flecha de entrada y de salida a los estados físicos de un sistema.

Leonard Susskind, en aras de no pisar lo fregao’, denominó esta característica de las leyes físicas como la ley menos uno de la física (ya teníamos una «ley cero» y varías «leyes uno/primeros principios»). Vídeo aquí.

¿Cómo trasladamos lo dicho a la física?

Teorema de Gibbs-Liouville

Pues resulta que hay un teorema (de sencilla demostración) que formaliza la esencia de nuestras leyes de juguete: el teorema de Gibbs-Liouville.

Este teorema dice grosso modo que los puntos del espacio de fases evolucionan como un fluido incompresible.

¿Y eso qué significa, me dirás?

Pues se puede ver de varias formas:

  1. Si un fluido es incompresible, las velocidades de las partículas en el mismo no pueden concentrarse ni dispersarse (su divergencia es nula). Esto se traslada directamente a nuestras leyes de juguete: los estados físicos deben evolucionar de manera que a cada estado entre y salga una flecha. Si no fuera así, y en ciertos puntos convergieran las flechas o en otros divergieran, entonces perderíamos la reversibilidad.
  2. Por otro lado, incompresibilidad significa que el volumen de una región dada no puede cambiar al evolucionar el sistema.

¿Y qué implica?

Como ves, las leyes dinámicas en física son tales que los estados presente y futuro (y viceversa) están conectados uno a uno, sin poder cortarse las trayectorias de evolución ni acabar varios estados en un único estado futuro y viceversa. Esto equivale a asegurar que la información (aproximadamente la cantidad de preguntas necesarias que hay que responder para conocer el estado actual del sistema) no varía.

¡Pero entonces la entropía tampoco!

Y es que al final entropía e información van de la mano. La entropía mide el número de maneras posibles que podemos reorganizar un sistema sin que macroscópicamente cambie. El sistema tiene un único estado, aunque muchos microestados sean compatibles macroscópicamente. Si quisiéramos conocer el estado real, necesitaríamos hacer multitud de preguntas que descarten los microestados falsos hasta dar con el correcto, ganando mucha información en el proceso [más o menos, se pueden relacionar como que la entropía es la cantidad de información que gano al conocer el estado real del sistema, aunque toma esto con pinzas -ni si quiera se miden en las mismas unidades-, porque la realidad es más dificil]. Pero la información, codificada como conocimiento de posiciones y velocidades de las partículas del sistema, hemos visto que no cambia. Luego la entropía tampoco.

El propio teorema de Gibss-Liouville nos lo estaba gritando a viva voz: si el volumen de la región no cambia, y el (logaritmo del) volumen de la región es la entropía, la entropía no cambia.

Aquí cabe hacer una aclaración.

Esta no es la única manera de definir la entropía. La entropía definida como el volumen de los microestados compatibles con un macroestado dado es la entropía de Boltzmann. Otra manera de definir la entropía es como el logaritmo de una función que mide la densidad de puntos en una región dada, y la entropía entonces se conoce como entropía de Gibbs. Se puede llegar a argumentar que la entropía de Boltzmann pueda crecer (y poco despues lo haremos), aunque también decrecer, pero la entropía de Gibbs es estrictamente constante: nunca cambia.

Espera, espera, ¿dos entropías? Bueno, sí. De hecho, muchas más. Cada una útil en su contexto (quizá algún día hablemos de las demás). Una cita de Sean Carroll parece pertinente por si no me creéis a mí:

«Ni la fórmula de Boltzmann para la entropía ni la de Gibbs son la «correcta». Ambas son cosas que podemos definir, manipular y utilizar para tratar de entender el mundo, y cada una tiene sus ventajas e inconvenientes.» Sean B. Carroll en «Desde la eternidad hasta hoy«.

Peeeero… siendo estrictos…. ningún tipo de entropía crece. Y si no me crees, te dejo un par de citas mas:

«Si uno cree en la dinámica invariante bajo inversión temporal (como era el caso de todos ellos [aquí Carroll se refiere a Boltzmann, Zermelo, etc.]), es manifiestamente imposible demostrar que la entropía aumenta siempre.» Sean B. Carroll en «Desde la eternidad hasta hoy».

La otra cita es la que abre el artículo, sacada de uno de los libros de cabecera que los físicos usamos para aprender mecánica estadística. 😛

Y es que al final, que la entropía y la información no varíen tiene que ver con que las leyes de la física sean  simétricas bajo inversión temporal.

Inversión temporal

Ya hablamos de la simetría bajo inversión temporal en la entrada de simetrías en física. Y ya dejé caer allí que el supuesto crecimiento de la entropía era ficticio.

Nadie se me quejó. Muy mal. Tenéis que ser escépticos, y así obligarme a redactar entradas aclaratorias antes 🙂

La simetría bajo inversión temporal es una simetría discreta: consiste en mandar la coordenada tiempo de t a -t. Y por muy extraño que te parezca esto, todas las leyes físicas conocidas hasta ahora la cumplen.

[Vale, sí, en la desintegración de kaones y mesones B se viola dicha simetría, pero presumiblemente este efecto no tiene nada que ver con el ficticio aumento de la entropía en el universo (¿o sí?)]

Pensemos en las leyes físicas que conocemos. Supón una partícula en el espacio. Para describir su posición, le asignamos un vector posición \vec x. Obviamente, si empezamos a correr el tiempo hacia atrás, dicho vector no varía ni cambia de signo, pues simplemente señala la posición.

Pero la velocidad cambiará de signo, pues por definición es la derivada de la posición respecto al tiempo, y si el tiempo cambia de signo la velocidad también. Peeeero la aceleración, al tener que volver a derivar la velocidad respecto al tiempo, se queda con el signo original. Por tanto, las fuerzas, que por Newton son iguales a m\vec a, son invariantes bajo inversión temporal.

Pero con eso no basta. Hace falta que si tenemos una expresión para la fuerza, esta también sea invariante. Por ejemplo, un electrón en un campo magnético siente una fuerza dada por la ley de Lorentz:

    \[\vec F=q \vec v \times \vec B\]

Cuando t\to -t, \vec v \to -\vec v. Para que \vec F no cambie, es necesario que \vec B\to -\vec B. Y de hecho, eso es lo que sucede. Puedes verlo intuitivamente pensando que el campo magnético se crea debido a cargas en movimiento. Si el tiempo corre al revés, el movimiento de estas cargas irá al contrario y el campo magnético invertirá su sentido.

Y así podríamos seguir: las leyes de Newton y su versión moderna (ecuaciones de Euler-Lagrange y de Hamilton) son invariantes bajo inversión temporal, las leyes de Maxwell también, la ecuación de ondas, las ecuaciones de Einstein, la ecuación de Schrödinger (aunque como siempre, la realidad es más compleja, y en cada rama de la física la definición de inversión temporal es discutible) …

¡Ey, pero la ecuación de difusión no!

Claro, las ecuaciones de difusión (de humo de un cigarrillo, de conducción del calor, etc) son aproximaciones del mismo tipo que usamos cuando derivamos la termodinámica a partir de la mecánica estadística. Partimos de leyes deterministas, pero al ser tan cafres de querer obviar el detalle fino del sistema, perdemos la invariancia bajo inversión temporal. De igual forma ocurre cuando introducimos el rozamiento a mano en una teoría para simplificar el efecto conjunto de las millones de interacciones que se suceden cuando dos superficies, con sus trillones de moléculas, se acercan.

Aun con todo, la moraleja es clara: si las leyes son simétricas bajo inversión temporal, es igual de factible evolucionar hacia el futuro que hacia el pasado. Esto es fácil de ver cuando tenemos unos poquitos átomos o moléculas danzando. Nadie sabría decirte si el gif siguiente está rebobinando o no:

Gif sacado de Cuentos Cuánticos.

Que en el día a día seamos capaces de distinguir entre futuro y pasado es una mera cuestión de probabilidades (como explicamos en la primera entrada) que tenemos grabada en nuestros genes. Es decir, llamamos futuro al sentido en el tiempo en el cual los sistemas nos parecen más desordenados (recuerda que desordenado no es la mejor palabra). Es concecible que, si la entropía comenzase a decrecer con el tiempo (ponte que estamos en un big crunch, donde el universo recolapsa) llamásemos futuro al pasado y viceversa. Aunque esto tiene que ver con la flecha del tiempo psicológica y mejor no meternos en esos fregaos en esta entrada 😛

Entonces, ¿cómo se explica que crezca?

Hay varias maneras de ver que la entropía, de manera efectiva (palabrejo que en física utilizamos para decir que algo ocurre si nos olvidamos del detalle) crece.

Crecimiento a la Boltzmann

Recordemos que clásicamente (que no cuánticamente) podemos asignar un único estado a nuestro sistema, por mucho que a efectos prácticos necesitemos considerar un montón de ellos.

Si nos fijamos en este único estado, la entropía crece porque en su evolución, si suponemos que el estado del sistema no tiene predilección alguna por unos caminos antes que otros (esto se conoce como postulado de equiprobabilidad a priori, ahí es nada), acabará por entrar en las parcelas mayores. Es decir, empiece donde empiece, es más probable que su trayectoria vaya de volúmenes menores a mayores.

Obviamente la gráfica no esta a escala. Si fuese así la entropía decrecería a menudo, pues no sería tan difícil salirse de un macroestado de gran volumen y entrar a otro con menor volumen. Pero precisamente el proceso de granulado grueso, que tan artificial parece, funciona porque la diferencia entre el volumen asociado a macroestados en equilibrio y los macroestados poco probables es descomunal (el macroestado asociado al equilibrio ocupa más del 99.99 % del volumen total del espacio de fases). Una gráfica más realista (y aun así no lo suficiente) sería la siguiente:

Problema: que con esta explicación, la entropía puede decrecer. Este es un problema que continuamente le sacaban a relucir a Boltzmann (otro día podemos hablar de las controversias con Zermelo y Loschdmidt si queréis). El caso es que hay otro teorema por ahí, con el pomposo nombre de teorema de recurrencia de Poincaré, que dice que dado un estado inicial cualquiera y el suficiente tiempo para que evolucione, acabará por pasar por un estado arbitrariamente cercano al de partida. Por lo que es matemáticamente seguro que bajo el paradigma clásico la entropía acabará por decrecer.

Esto llevó a Boltzmann y otros (pensad que en aquella época no sabían nada de cosmología) a proponer que nuestro universo surgió como una gran fluctuación. Es decir, el orden que observamos se debe a que nuestro universo estaba ya en un estado totalmente desordenado (con los átomos desperdigados a más no poder) y, con el suficiente tiempo para evolucionar, tarde o temprano se dio la casualidad (casualidad donde las haya) de que una fluctuación aleatoria creó todo lo que nos rodea. Piensa que si te creasen ahora mismo en tu estado actual, tus recuerdos (codificados físicamente en tus neuronas) te harían creer que has existido desde más tiempo, y no que te acabas de crear en una gran fluctuación.

De hecho, esta idea se llevó más allá por Eddington y pensó que, más que crear un universo entero (al menos la región observable) a partir de una fluctuación estadística, sería mucho más probable que se crease únicamente un objeto físico de dimensiones razonables capaz de simularlo. Un cerebro de Boltzmann, como se le conoce. La idea funciona igual: si se crease una simulación ahora mismo que guardase la información necesaria para reproducir el estado actual de nuestro universo, tus ficticios recuerdos te parecerían igual de reales. (Un bonito vídeo de Quantum Fracture al respecto por aquí).

Esta problemática también se conecta con un problema recurrente sobre la simetría bajo inversión temporal, y es que si las leyes son simétricas en el tiempo, la entropía debería crecer hacia el pasado. Es decir, dada la manera en la que hemos argumentado que la entropía crece, y juntándolo con que el estado del sistema tiene igual predilección por un estado que por otro (y lo mismo si evolucionamos hacia el pasado), es infinitamente más probable que vengamos de un estado desordenado que de uno ordenado. Es decir, si quieres razonar sobre los fenómenos que observas usando la dinámica invariante bajo inversión temporal, es más probable que hace diez minutos ese hielo que ves ahí formado estuviera derretido.

Esta idea, cómo no, tiene un problema.

La entropía evalúa el número de microestados (que al fin y al cabo son soluciones) compatibles con un macroestado dado. Dado que depende de soluciones, no hay ninguna razón para esperar que conserve la simetría de las ecuaciones originales. Recuerda de nuestra entrada sobre simetrías que las soluciones de unas ecuaciones simétricas no tienen porqué mantener dicha simetría (por ejemplo, la gravitación universal es simétrica bajo rotaciones y entre sus soluciones están las nada simétricas elipses).

Pero aun así (aun si no esperamos que la entropía sea simétrica en el tiempo -el teorema de recurrencia asegura que como poco es periódica-), si nos olvidamos de la cosmología sigue siendo más probable que la entropía crezca hacia el pasado, razonamiento inevitable si confiamos en la dinámica invariante bajo inversión temporal. Y de ahí la idea de que seamos una fluctuación.

Esta idea falla de por sí al considerar que, si acabamos de ser creados a partir de una fluctuación, las propias leyes físicas son un constructo artificial y no tienen porqué ser ciertas (y nos daríamos cuenta tarde o temprano), pero es que además esas mismas leyes físicas son las que nos han llevado a dicho razonamiento, que entonces no sería ya correcto. Es un círculo vicioso y sin sentido.

Actualmente, todos los físicos consideran que la única respuesta a esta «paradoja» es suponer que el universo comenzó en unas condiciones de extremadamente baja entropía. Esto se conoce como hipótesis del pasado. Así, el pasado actúa a modo de «reservorio» permitiendo crear estructuras ordenadas (de baja entropía) mientras el universo globalmente se desordena (su entropía aumenta). Esto es lo que he intentado representar más arriba al hacer que el estado evolucione de cajitas minúsculas hacia las más grandes. En palabras de Feynman:

«Por tanto creo que es necesario añadir a las leyes físicas la hipótesis de que en el pasado el universo estaba más ordenado, en el sentido técnico, de lo que lo está hoy día. Creo que esta es la aseveración adicional que es necesaria para […] dar sentido a la irreversibilidad«. Feynman en «El carácter de la ley Física«.

Crecimiento a la Susskind

Otra manera de ver el crecimiento de entropía es el siguiente (que he nombrado «a la Susskind» porque la primera vez la leí en un libro suyo que cito al final).

Si admitimos que tenemos cierta incertidumbre experimental, debemos mallar el espacio de fases en cubos (cubos 6N dimensionales, pero cubos) de un volumen mínimo (en una descripción semiclásica, como poco del tamaño de la constante de Planck elevado a 6N por el principio de incertidumbre de Heisenberg: \Delta x \Delta p \sim \hbar) a fin de poder asignar un volumen a los macroestados.

Es obvio entonces que, partiendo de un volumen inicial con una entropía concreta, en su evolución, pese a que el volumen no varíe, podemos sobreestimarlo dado que se «desparrama» por el espacio de fases. De hecho, es usual que el volumen de un macroestado evolucione hacia formas más complicadas que harían que sobreestimemos enormemente su tamaño, y por tanto la entropía crezca de manera efectiva.

Evolución de un volumen en el espacio de fases. Sacada del libro «An Introduction to Black Holes, Information and the String Theory Revolution» de Leonard Susskind y James Lindesay.

Esto es algo similar a cuando dejamos caer una gota de agua sobre un material poroso. La porosidad hará que la mancha se filtre y ocupe gran superficie pese a no variar su volumen. O como cuando dejamos caer una gota de tinta y se difunde en agua (de ahí la foto de cabecera :P).

Esta manera de ver el crecimiento de la entropía no es única de Susskind. También la explica el premio nobel Kip Thorne en un libro muy poco ortodoxo que sacó hace unos años, llamado «Modern classical physics». Extraigo una cita que resume la idea:

«Así, para un conjunto de sistemas cerrados es la elección del físico (usualmente una necesidad práctica) de realizar promedios mediante granulado grueso lo que causa que la entropía aumente y que el conjunto evolucione hacia el equilibrio estadístico.«


Con esto terminamos la entrada. Espero que entiendas ahora en qué sentido podemos decir que la entropía no crece, y no quieras lapidarme por decirlo.

Aun así, dejamos cosas abiertas. ¿Qué ocurre en cuántica, donde no podemos conocer posiciones y velocidades al detalle? ¿Por qué los sistemas vivos parecen saltarse la segunda ley de la termodinámica? ¿Y por qué la gravedad también parece hacerlo? ¿Está todo dicho sobre la flecha del tiempo?

Estas preguntas son legítimas, y hacéis bien en preguntármelas. Pensaba incluir algunas de sus respuestas (parciales) en esta entrada, pero mejor lo dejaremos para el futuro 🙂

Para ampliar

Si te apetece profundizar en el maravilloso mundo de la física estadística y en las movidas de la entropía, te dejo unos libros interesantes (de menos a más en dificultad) que podrías consultar:

«La guerra de los agujeros negros», de Leonard Susskind, es un genial libro para entender la entropía y su conexión con la información, así como la paradoja de su pérdida en los agujeros negros y posibles soluciones (al menos la que Susskind aportó).

«Desde la eternidad hasta hoy» es un brutal libro de Sean Carroll que me he leído enterito para preparar esta entrada (quizá hasta le haga una reseña). Explica de cero la entropía, su historia, relación con biología, cuántica, gravedad… Quizá el libro más completo al respecto.

«Philosophy of Physics», de Dean Rickles, es un libro alucinante sobre la filosofía de la física. Dedica un capítulo entero a la entropía y sus paradojas sobre la compatibilidad entre su crecimiento y la reversibilidad de las leyes físicas.

«The theoretical minimun: what you need to start doing physics» es el primer volumen de la serie de libros de «Theoretical minimum» que Susskind plantea para que el público general pueda aprender física de buen nivel. En este en concreto podréis encontrar el modelo de juguete del que he hablado en esta entrada sobre la conservación de la información y la conexión con (así como la demostración de) el teorema de Liouville.

«An Introduction to Black Holes, Information and the String Theory Revolution» es un libro que Susskind y Lindesay escribieron para abordar el tema de la pérdida de información en agujeros negros, explicando lo que se sabía hasta el momento y posibles salidas a la paradoja. Es el primer libro que me hizo entender que la entropía no crecía. Hice además un trabajo en el máster en base al mismo que puedes leer por aquí.

Libros hechos y derechos para aprender mecánica estadística e imbuirse en las sutilezas del teorema de Liouville, el teorema de recurrencia, la entropía y demás, podrían ser: «Statistical Mechanics», de K. Huang y «Statistical Mechanics» de R. K. Pathria y P. D. Beale.

Y el libro que todo amante de la física debería tener, aunque sea por lo bonito que es: «El camino a la realidad: Una guía completa de las Leyes del Universo». Dedica un capítulo entero al granulado grueso, crecimiento de la entropía, paradojas, inicio extremadamente poco entrópico del universo… Aderezado con unos dibujos preciosos, en los cuales me he inspirado para hacer el granulado grueso del espacio de fases.

Como ya he comentado en anteriores entradas, los hiperenlaces a amazon que haya incluido son de afiliado, si compráis a través de ellos a mí me darán un mínusculo porcentaje y a vosotros no os costará más (a ver si entre todos pagamos el hosting). Aun así, como siempre, si podéis comprarle a vuestro librero de confianza, mejor que mejor.

9 comentarios en “La entropía NO crece”

  1. No sería más adecuado a efectos divulgativos el título “ La entropia no crece siempre que el sistema sea abierto”
    No soy físico pero me gusta leer divulgación de la ciencia y te felicito por tu blog

    Responder
    • Buenas Pedro.

      Precisamente, la entropía no crece siempre que el sistema sea cerrado. Es decir, cuando yo concreto qué entiendo por mi sistema, y lo aislo del resto, ese subsistema cerrado (que no intercambia información con el entorno) mantiene la entropía constante, tanto clásica como cuánticamente (al menos la entropía en el sentido que he expuesto en la entrada, como conservación del volumen en el espacio de fases, se denomina a esta entropía «fine grained» -granulado fino- en contraposición a la entropía de granulado grueso -fine grained-). Una vez que permites al sistema intercambiar información con el entorno, añades nuevos grados de libertad que hacen que la entropía crezca. Pero siempre que reduzcas el zoom lo suficiente y aísles el sistema, tendrás que la entropía no crece.

      Un saludo.

      Responder
  2. Gracias por el artículo. Muy bueno.

    Bueno, la verdad es que en algunos momentos, me pierdo. Pero queria dejar una opinión.

    Con todo mis respeto a la ciencia, a la que tengo en alta estima, y como ya he dicho en algún otro lugar, sabemos que los teoremas, conjeturas o leyes que la conforman, deben cumplir dos requisitos: ser consistentes con la realidad y estar libres de contradicciones internas.

    Para mi, el teorema de recurrencia de Poincaré no cumple con el primer requisito. Y creo que una buena prueba de ello, es que si se acepta, al final nos lleva a una situación en la que no se cumple el segundo. Y tiene uno que acabar preguntándose si es real o es un holograma.

    Me gusta la hipótesis de Feynman, aunque desde la ignorancia, tiene a verse más como una realidad que como una hipótesis.

    Responder
    • Buenas Pola.

      Es cierto que podemos ser pragmáticos y decir «bueno, si el paradigma clásico me lleva a entender la entropía como el logaritmo del volumen de los microestados indistinguibles, pero resulta que el teorema de Poincaré asegura que entonces la entropía crece pero puede -y acabará por- decrecer, debo concluir que el paradigma clásico es incorrecto». Sí y no.

      Te pongo un ejemplo que te puse algún día ya. Entender la temperatura como agitamiento de las moléculas nos hace ganar en predictividad, pero a cambio, es posible (y ocurre continuamente) que entre dos cuerpos en contacto a distintas temperaturas se intercambie parcialmente (en ciertos lugares de la zona de contacto) calor del cuerpo de menor a temperatura al del mayor, lo cual intuitivamente es una locura. Pero es lo que ocurre cuando entiendes que la temperatura tiene esa naturaleza. Al final, las leyes termodinámicas, tan inamovibles e inapelables como parecían, son de carácter estadístico (salvo la conservación de la energía). Esto no es un problema, pues nuestros nuevos modelos estadísticos predicen lo mismo que los termodinámicos siempre que el número de moléculas sea grande, y nos hacen ganar en predictividad. Realmente entonces no hay nada que lleve a una situación irreal en estas consideraciones. Simplemente si queremos abarcar más fenómenos damos con teorías que quiza vayan contra nuestro instinto, que evolucionó en las estepas, y no para entender la mecánica cuántica o el espacio de fases.

      Aun así, sí es cierto que el teorema de Poincaré y otras objeciones nos demuestran que el paradigma clásico hace aguas. Igual que el electromagnetismo nos demostró que también era incompatible con la clásica. Pero son dos tipos de «aguas» distintas. El teorema de Poincaré evidencia que nuestra comprensión «filosófica» del paradigma clásico puede ser inadecuada, pero total, como no es el paradigma más profundo que tenemos (están la relatividad y la cuántica), tampoco es que los filósofos de la ciencia le sigan dando mucho bombo al tema. En cambio, el problema que inició la relatividad especial (incompatibilidad entre las ecuaciones de Maxwell y las transformaciones de Galileo) era práctico, por lo que los físicos (y no los filósofos de la ciencia) se ocuparon de arreglarlo.

      No sé si me explico (las respuestas suelen ser más irreflexivas que la entrada, pues las escribo y le doy a enviar), así que sigue preguntando si quieres 😛

      Responder
  3. Hola Adrian, ha sido una buena y potente entrada.

    Me he llegado a imaginar la evolución del estado del sistema en el espacio de fases de dos formas muy distintas.
    En la primera el estado inicial es como un volumen que fluye de forma incompresible y que se cierra sobre si mismo (por eso de que a cada estado se le asocia una flecha de entrada y una de salida). Algo así como un donut en 6N dimensiones que gira sobre si mismo. En este caso la entropía del sistema es constante ya que el volumen se mantiene constante.
    En la segundo el estado inicial es un punto que se mueve «aleatoriamente» por un espacio de fases dividido en regiones según hace el granulado grueso. Si va a regiones más grandes la entropía aumenta y si va a regiones más pequeñas la entropía disminuye. En este caso es como que la entropía da saltos hacia arriba y hacia abajo tendiendo a aumentar (por el hecho de que es mas probable que vaya a zonas mayores). La forma en la cual se define el granulado grueso, o sea, la forma en que se divide el espacio de fases es única?

    Poco más, sigue asi hombre de bien.

    Responder
    • Perfecto Antonio, lo has clavado. La primera manera que comentas es la entropía à la Susskind, y la segunda à la Boltzmann. A mi me gusta más la interpretación de Susskind. En ambas puedes argumentar al final que la entropía aumenta (cuando promedias y haces un granulado grueso), pero siendo técnicos la de Susskind y el teorema de Liouville está mejor.

      Pues como sospechas, la forma en que se define el granulado grueso no es única. Pero se puede demostrar (por ahí enlazo algún paper en un hiperenlace) que no al final no depende de la manera en que se defina, dado que el macroestado asociado al equilibrio ocupa casi todo el espacio de fases.

      Un abrazo Antonio!

      Responder
  4. Hola Adrián,

    Muchas gracias por la entrada. Acabas de descubrirme un nuevo mundo sobre la entropía, ya que yo me había quedado con la afirmación termodinámica clásica de que en un sistema cerrado siempre aumenta. Tomo nota de los libros que recomiendas, ahondaré más en el tema.
    Una pregunta, si hago un zoom suficientemente grande de la frontera entre dos regiones de macroestados diferentes, intuitivamente me viene a la mente la idea de que, en el instante inmediatamante posterior a haber cruzado la frontera, el sistema tendría la misma probabilidad de «devolverse» a la región de la cual provenía, con lo cual la entropía volvería a disminuir. ¿Dónde está el fallo de mi razonamiento?
    Gracias de nuevo por la entrada en particular, y por la idea de este blog.
    Qué pena que se esté perdiendo el mundo de los blogs, el twitter tiene cosas buenas, pero no es posible transmitir este tipo de mensajes.
    Un abrazo,
    Roberto

    Responder
    • Buenas Roberto.

      Ante todo, muchas gracias por tus halagos. Para mí entender este aspecto de la entropía gracias a un trabajo en el máster fue una gran reveleación. Vino peleándome con la paradoja de la pérdida de la información en agujeros negros, ya que, ¿si la entropía ha de crecer y por consiguiente la pérdida de información es inherente a las leyes físicas, ¿por qué le preocupaba tanto a los físicos dicha paradoja? Hasta que entendí que realmente es porque la entropía no cambia según las leyes más profundas de la física.

      Yendo a tu pregunta, tu argumento es correcto en sí. Es el problema que tiene entender la entropía a la Boltzmann. Aun así, por el mismo juego de probabilidades de la primera entrada, en su devenir cuasi-aleatorio el estado del sistema permanecerá la mayor parte del tiempo en las cajitas de mayor volumen. Pero puede disminuir. El caso es que estrictamente la entropía no crece, dado que la información no se pierde (y por eso la interpretación a la Susskind me gusta más). Aun así, por señalarte algo de lo dicho que me chirría, es el tema de «hacer zoom». Por definición, hacer zoom cambiará el granulado grueso, hasta el punto de diluir las fronteras (que no son más que el reflejo de que experimentalmente tenemos cierta imprecisión, imprecisión que desaparecería si fuesemos capaces de hacer un zoom arbitrariamente profundo).

      Cualquier otra duda, pregunta. Un abrazo!

      Responder
  5. sigo sosteniendo, una cosa es el mundo manifestado y otra cosa es la interpretación del mundo hecho por los científicos. No creo “Dios geometriza” ni que “el mundo está escrito en el lenguaje matemático. El mundo es como es, creo es la gran verdad intuida por el ilustre Clausius en el siglo XIX y no podemos saber en momento si morirá por el frío o si se producirá la inspiración de Brama (implosión del universo que lo llevará a la nada) a la que seguirá una espiración (una nueva explosión del universo de la cual volverá a brotar la materia)
    Es cierto, el mundo está formado por partículas pero nuestra percepción del mundo es macroscópica.
    Además la afirmación que el tiempo no existe en las leyes de las partículas, se contradice con la realidad que todo envejece y muere, lo único inmortal es Dios.

    Responder

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.