«La entropía del universo entero, el cual es el sistema más aislado que existe, no puede nunca decrecer. […] Se sigue que la entropía del universo constantemente se incrementa, y llevará implacablemente a una «muerte térmica» […]. ¿Es este el destino del universo? En un universo donde la segunda ley de la termodinámica fuera rigurosamente correcta, la respuesta afirmativa es ineludible. Sin embargo, el nuestro no es tal universo, aunque esta conclusión no se derive de la termodinámica.
Nuestro universo está gobernado por leyes moleculares, cuya invariancia bajo inversión temporal deniega la existencia de cualquier fenómeno natural que pueda distinguir de manera absoluta entre el pasado y el futuro. La respueta apropiada para la pregunta planteada es que no. La razón es que la segunda ley de la termodinámica no puede ser una ley rigurosa de la naturaleza.
Kerson Huang, capítulo 2 de «Statistical Mechanics».
¡Hola! Soy Troy McClure Adrián, el creador de Física Tabú.
Es posible que me recuerden de entradas como ¡ está mal!, o Espaciotiempo curvo sin mallas elásticas. Si ni la masa crecía con la velocidad, ni el espacio realmente se curva como una malla elástica, hoy, para mas inri, veremos que la entropía, nuestra querida entropía… NO crece.
Al lío.
Nuestro periplo comienza por entender la definición técnica de entropía en física. Pero para eso deberemos hacer antes una visita al genial concepto de espacio de fases.
Espacio de fases
«¿Qué es el espacio de fases?,
Dices mientras clavas tu pupila en mi pupila azul.
¿Espacio de fases? ¿Y tú me lo preguntas?
Espacio de fases es… Un espacio dimensional.»
Es probable que no ligues con esta variante del famoso poema (ni siquiera rima). Pero hasta la fecha, (casi) nadie ha ligado explicando mecánica estadística. No te presiones.
Más que ligar, lo que vamos a intentar aquí es resumir la idea primordial de qué es el espacio de fases y qué pinta en todo esto, idea que ya dejamos caer en la anterior entrada sobre entropía.
El tema es que para especificar el estado de una partícula, necesitamos en un instante dado su posición (3 datos) y su velocidad (3 datos más). Por tanto, necesitamos dar 6 datos. Luego si queremos especificar el estado de un sistema con partículas, necesitaremos
datos.
Pero va, yo sé que los humanos corrientes no estamos están acostumbrados a pensar en dimensiones. Así que vayamos de menos a más.
Supón que tenemos una masa oscilando entorno a un punto de equilibrio. Por ejemplo, para fijar ideas piensa en un péndulo.
En este, la posición y la velocidad varían periodicamente con el tiempo. Es más, cuando la amplitud es máxima la velocidad es nula y cuando la amplitud es nula la velocidad es máxima, de manera tal que la suma de ambas es todo el rato constante e igual a la energía del sistema. Esto se puede representar en una sencilla gráfica:
Pero al generalizar la mecánica newtoniana a la mecánica analítica, a los físicos empezó a interesarles ver la posición y la velocidad como coordenadas (generalizadas), en lugar como las variables de las que debieran preocuparse. Por tanto, relegadas a meras coordenadas, podemos pintar la evolución del péndulo en unos ejes de velocidad frente a posición. Con las unidades adecuadas, resulta que la trayectoria es una circunferencia:
Es decir, el espacio de fases es un espacio donde los ejes representan las posiciones y velocidades de las partículas del sistema. El estado del sistema será un punto concreto en un instante dado (en la figura de arriba pintado en verde), y este evoluciona dibujando una trayectoria en el espacio de fases (trayectoria que será cerrada si la energía se conserva).
Al añadir dos partículas, aunque sea en una dimensión, ya son necesarios cuatro ejes por lo que no es viable representar nada. Y menos aún cuando tenemos partículas en tres dimensiones, donde son necesarios
ejes. De ahí que el espacio de fases sea un espacio
dimensional.
El caso es que el estado del sistema vendrá representado por un único punto que evoluciona recorriendo cierta trayectoria en el espacio de fases.
Con saber eso podemos dar el siguiente paso.
Entropía en mecánica estadística
Para entender por qué la entropía no crece tenemos que entender su definición (rigurosa) en mecánica estadística.
Una vez entendemos que el estado del sistema se representa por un punto en el espacio de fases, viene la realidad a joder la marrana y recordarnos que no, que con un punto no basta.
Para que asociáramos un único punto a un sistema dado, deberíamos conocer los susodichos datos. Eso suelen ser cuatrillones de datos. Y no es viable.
Como ya explicamos en la primera entrada, lo que hacemos es quedarnos con todos los microestados (puntos en el espacio de fases) compatibles con el macroestado del sistema. Todos estos microestados juntos definen una región en el espacio de fases a la que, bajo ciertas sutilezas matemáticas, podemos asociarle un volumen.
El espacio de fases queda entonces parcelado en regiones de determinado volumen, aglutinando a puntos que, dadas nuestras capacidades de medida, nos parecen indistinguibles macroscópicamente.
A este procedimiento se le conoce como granulado grueso del espacio de fases.
Lo que ocurre ahora es que el estado del sistema se corresponde con un único punto de los infinitos que hay y, al no poder distinguirlo de los cercanos, debemos quedarnos con todos los que se asocien al mismo macroestado. Por lo que la entropía resulta el logaritmo del volumen de la parcela donde se encuentra el estado de nuestro sistema.
Más o menos queda una cosa como la que se puede ver en la siguiente gráfica:
Paremos aquí y, antes de discutir el crecimiento o no de la entropía, veamos a qué nos referimos en física cuando hablamos de conservación de la información.
Conservación de la información
En la entrada anterior dejé caer alguna que otra vez que la información se conserva en la evolución. Que es algo que está «grabado» en la manera en que operan nuestras leyes físicas. Y que esto se debe a que las leyes físicas son reversibles en el tiempo.
¿Eso cómo se come?
Veamos primero un ejemplo de una ley física de juguete que conserva la información y otra que no.
Ley de juguete
Esto que vamos a hacer aquí (que sacamos de un libro de Susskind que citamos al final de la entrada) se parece mucho al modelo de física fundamental de Wolfram. ¿Le resta mérito a lo suyo o hace que esto quede molón? Decididlo vosotros 😛
Como ya hemos dicho, a los sistemas físicos les asociamos estados. Por ejemplo, podríamos pensar en una moneda: su estado puede ser cara (C) o cruz (X). El espacio de estados en este caso tiene dos estados y es discreto.
Ahora necesitamos una ley dinámica: una ley que nos dicte cómo evolucionan los estados en el tiempo. Por ejemplo, una ley sencilla sería que cualquiera que fuera el estado inicial del sistema, permanecerá en ese. Así, la lista de estados por los que pasará nuestro sistema tendrá o esta pinta: CCCCCCC….. o esta: XXXXXXX…. Gráficamente nuestra ley se podría dibujar como sigue:
Otra ley dinámica posible es que, cualquiera que sea el estado del sistema en un instante dado, al siguiente cambiará al otro estado. Por tanto, la historia del sistema quedaría algo como …CXCXCXCXC… Gráficamente mola mas:
Podríamos escribir ecuaciones que describan la evolución, pero lo importante es que debes fijarte en que el comportamiento futuro queda completamente determinado por el estado inicial. Las leyes que hemos inventado son deterministas.
Para sistemas con más estados, podríamos encontrar leyes más complejas. En la siguiente gráfica mostramos algunas:
Pero al final del día, hay un tipo de leyes que en la naturaleza no están permitidas. Aquellas que no son reversibles.
Una ley irreversible es una ley que no es determinista hacia el pasado. Es decir, dado el estado actual, no sabemos de qué estado hemos venido. Hemos perdido información.
Por ejemplo, una ley irreversible podría ser la siguiente:
Si estás en el estado A, evolucionas hacia B. En B, evolucionas hacia C. Y en C, de nuevo a B. Esta ley es determinista hacia el futuro. Si me dices el estado actual del sistema, puedo predecir con certeza absoluta cual será el estado futuro tras pasos.
Pero esta ley no es determinista hacia el pasado. Si estoy en B, ¿vengo de C o de A? ¡No se sabe! Y lo que es peor aún, el estado A no tiene pasado. De hecho, si revertimos las flechas la ley falla en predecir el futuro. Recuerda que esto mismo ocurría si vemos una caja parada. ¿Cómo sabemos si nunca ha estado en movimiento o se movía pero el rozamiento la frenó?
Podemos extraer una regla muy sencilla de todos estos ejemplos:
Las leyes dinámicas permitidas (deterministas/reversibles) son aquellas que asocian una única flecha de entrada y de salida a los estados físicos de un sistema.
Leonard Susskind, en aras de no pisar lo fregao’, denominó esta característica de las leyes físicas como la ley menos uno de la física (ya teníamos una «ley cero» y varías «leyes uno/primeros principios»). Vídeo aquí.
¿Cómo trasladamos lo dicho a la física?
Teorema de Gibbs-Liouville
Pues resulta que hay un teorema (de sencilla demostración) que formaliza la esencia de nuestras leyes de juguete: el teorema de Gibbs-Liouville.
Este teorema dice grosso modo que los puntos del espacio de fases evolucionan como un fluido incompresible.
¿Y eso qué significa, me dirás?
Pues se puede ver de varias formas:
- Si un fluido es incompresible, las velocidades de las partículas en el mismo no pueden concentrarse ni dispersarse (su divergencia es nula). Esto se traslada directamente a nuestras leyes de juguete: los estados físicos deben evolucionar de manera que a cada estado entre y salga una flecha. Si no fuera así, y en ciertos puntos convergieran las flechas o en otros divergieran, entonces perderíamos la reversibilidad.
- Por otro lado, incompresibilidad significa que el volumen de una región dada no puede cambiar al evolucionar el sistema.
¿Y qué implica?
Como ves, las leyes dinámicas en física son tales que los estados presente y futuro (y viceversa) están conectados uno a uno, sin poder cortarse las trayectorias de evolución ni acabar varios estados en un único estado futuro y viceversa. Esto equivale a asegurar que la información (aproximadamente la cantidad de preguntas necesarias que hay que responder para conocer el estado actual del sistema) no varía.
¡Pero entonces la entropía tampoco!
Y es que al final entropía e información van de la mano. La entropía mide el número de maneras posibles que podemos reorganizar un sistema sin que macroscópicamente cambie. El sistema tiene un único estado, aunque muchos microestados sean compatibles macroscópicamente. Si quisiéramos conocer el estado real, necesitaríamos hacer multitud de preguntas que descarten los microestados falsos hasta dar con el correcto, ganando mucha información en el proceso [más o menos, se pueden relacionar como que la entropía es la cantidad de información que gano al conocer el estado real del sistema, aunque toma esto con pinzas -ni si quiera se miden en las mismas unidades-, porque la realidad es más dificil]. Pero la información, codificada como conocimiento de posiciones y velocidades de las partículas del sistema, hemos visto que no cambia. Luego la entropía tampoco.
El propio teorema de Gibss-Liouville nos lo estaba gritando a viva voz: si el volumen de la región no cambia, y el (logaritmo del) volumen de la región es la entropía, la entropía no cambia.
Aquí cabe hacer una aclaración.
Esta no es la única manera de definir la entropía. La entropía definida como el volumen de los microestados compatibles con un macroestado dado es la entropía de Boltzmann. Otra manera de definir la entropía es como el logaritmo de una función que mide la densidad de puntos en una región dada, y la entropía entonces se conoce como entropía de Gibbs. Se puede llegar a argumentar que la entropía de Boltzmann pueda crecer (y poco despues lo haremos), aunque también decrecer, pero la entropía de Gibbs es estrictamente constante: nunca cambia.
Espera, espera, ¿dos entropías? Bueno, sí. De hecho, muchas más. Cada una útil en su contexto (quizá algún día hablemos de las demás). Una cita de Sean Carroll parece pertinente por si no me creéis a mí:
«Ni la fórmula de Boltzmann para la entropía ni la de Gibbs son la «correcta». Ambas son cosas que podemos definir, manipular y utilizar para tratar de entender el mundo, y cada una tiene sus ventajas e inconvenientes.» Sean B. Carroll en «Desde la eternidad hasta hoy«.
Peeeero… siendo estrictos…. ningún tipo de entropía crece. Y si no me crees, te dejo un par de citas mas:
«Si uno cree en la dinámica invariante bajo inversión temporal (como era el caso de todos ellos [aquí Carroll se refiere a Boltzmann, Zermelo, etc.]), es manifiestamente imposible demostrar que la entropía aumenta siempre.» Sean B. Carroll en «Desde la eternidad hasta hoy».
La otra cita es la que abre el artículo, sacada de uno de los libros de cabecera que los físicos usamos para aprender mecánica estadística. 😛
Y es que al final, que la entropía y la información no varíen tiene que ver con que las leyes de la física sean simétricas bajo inversión temporal.
Inversión temporal
Ya hablamos de la simetría bajo inversión temporal en la entrada de simetrías en física. Y ya dejé caer allí que el supuesto crecimiento de la entropía era ficticio.
Nadie se me quejó. Muy mal. Tenéis que ser escépticos, y así obligarme a redactar entradas aclaratorias antes 🙂
La simetría bajo inversión temporal es una simetría discreta: consiste en mandar la coordenada tiempo de a
. Y por muy extraño que te parezca esto, todas las leyes físicas conocidas hasta ahora la cumplen.
[Vale, sí, en la desintegración de kaones y mesones B se viola dicha simetría, pero presumiblemente este efecto no tiene nada que ver con el ficticio aumento de la entropía en el universo (¿o sí?)]
Pensemos en las leyes físicas que conocemos. Supón una partícula en el espacio. Para describir su posición, le asignamos un vector posición . Obviamente, si empezamos a correr el tiempo hacia atrás, dicho vector no varía ni cambia de signo, pues simplemente señala la posición.
Pero la velocidad sí cambiará de signo, pues por definición es la derivada de la posición respecto al tiempo, y si el tiempo cambia de signo la velocidad también. Peeeero la aceleración, al tener que volver a derivar la velocidad respecto al tiempo, se queda con el signo original. Por tanto, las fuerzas, que por Newton son iguales a , son invariantes bajo inversión temporal.
Pero con eso no basta. Hace falta que si tenemos una expresión para la fuerza, esta también sea invariante. Por ejemplo, un electrón en un campo magnético siente una fuerza dada por la ley de Lorentz:
Cuando ,
. Para que
no cambie, es necesario que
. Y de hecho, eso es lo que sucede. Puedes verlo intuitivamente pensando que el campo magnético se crea debido a cargas en movimiento. Si el tiempo corre al revés, el movimiento de estas cargas irá al contrario y el campo magnético invertirá su sentido.
Y así podríamos seguir: las leyes de Newton y su versión moderna (ecuaciones de Euler-Lagrange y de Hamilton) son invariantes bajo inversión temporal, las leyes de Maxwell también, la ecuación de ondas, las ecuaciones de Einstein, la ecuación de Schrödinger (aunque como siempre, la realidad es más compleja, y en cada rama de la física la definición de inversión temporal es discutible) …
¡Ey, pero la ecuación de difusión no!
Claro, las ecuaciones de difusión (de humo de un cigarrillo, de conducción del calor, etc) son aproximaciones del mismo tipo que usamos cuando derivamos la termodinámica a partir de la mecánica estadística. Partimos de leyes deterministas, pero al ser tan cafres de querer obviar el detalle fino del sistema, perdemos la invariancia bajo inversión temporal. De igual forma ocurre cuando introducimos el rozamiento a mano en una teoría para simplificar el efecto conjunto de las millones de interacciones que se suceden cuando dos superficies, con sus trillones de moléculas, se acercan.
Aun con todo, la moraleja es clara: si las leyes son simétricas bajo inversión temporal, es igual de factible evolucionar hacia el futuro que hacia el pasado. Esto es fácil de ver cuando tenemos unos poquitos átomos o moléculas danzando. Nadie sabría decirte si el gif siguiente está rebobinando o no:

Que en el día a día seamos capaces de distinguir entre futuro y pasado es una mera cuestión de probabilidades (como explicamos en la primera entrada) que tenemos grabada en nuestros genes. Es decir, llamamos futuro al sentido en el tiempo en el cual los sistemas nos parecen más desordenados (recuerda que desordenado no es la mejor palabra). Es concecible que, si la entropía comenzase a decrecer con el tiempo (ponte que estamos en un big crunch, donde el universo recolapsa) llamásemos futuro al pasado y viceversa. Aunque esto tiene que ver con la flecha del tiempo psicológica y mejor no meternos en esos fregaos en esta entrada 😛
Entonces, ¿cómo se explica que crezca?
Hay varias maneras de ver que la entropía, de manera efectiva (palabrejo que en física utilizamos para decir que algo ocurre si nos olvidamos del detalle) crece.
Crecimiento a la Boltzmann
Recordemos que clásicamente (que no cuánticamente) podemos asignar un único estado a nuestro sistema, por mucho que a efectos prácticos necesitemos considerar un montón de ellos.
Si nos fijamos en este único estado, la entropía crece porque en su evolución, si suponemos que el estado del sistema no tiene predilección alguna por unos caminos antes que otros (esto se conoce como postulado de equiprobabilidad a priori, ahí es nada), acabará por entrar en las parcelas mayores. Es decir, empiece donde empiece, es más probable que su trayectoria vaya de volúmenes menores a mayores.
Obviamente la gráfica no esta a escala. Si fuese así la entropía decrecería a menudo, pues no sería tan difícil salirse de un macroestado de gran volumen y entrar a otro con menor volumen. Pero precisamente el proceso de granulado grueso, que tan artificial parece, funciona porque la diferencia entre el volumen asociado a macroestados en equilibrio y los macroestados poco probables es descomunal (el macroestado asociado al equilibrio ocupa más del 99.99 % del volumen total del espacio de fases). Una gráfica más realista (y aun así no lo suficiente) sería la siguiente:
Problema: que con esta explicación, la entropía puede decrecer. Este es un problema que continuamente le sacaban a relucir a Boltzmann (otro día podemos hablar de las controversias con Zermelo y Loschdmidt si queréis). El caso es que hay otro teorema por ahí, con el pomposo nombre de teorema de recurrencia de Poincaré, que dice que dado un estado inicial cualquiera y el suficiente tiempo para que evolucione, acabará por pasar por un estado arbitrariamente cercano al de partida. Por lo que es matemáticamente seguro que bajo el paradigma clásico la entropía acabará por decrecer.
Esto llevó a Boltzmann y otros (pensad que en aquella época no sabían nada de cosmología) a proponer que nuestro universo surgió como una gran fluctuación. Es decir, el orden que observamos se debe a que nuestro universo estaba ya en un estado totalmente desordenado (con los átomos desperdigados a más no poder) y, con el suficiente tiempo para evolucionar, tarde o temprano se dio la casualidad (casualidad donde las haya) de que una fluctuación aleatoria creó todo lo que nos rodea. Piensa que si te creasen ahora mismo en tu estado actual, tus recuerdos (codificados físicamente en tus neuronas) te harían creer que has existido desde más tiempo, y no que te acabas de crear en una gran fluctuación.
De hecho, esta idea se llevó más allá por Eddington y pensó que, más que crear un universo entero (al menos la región observable) a partir de una fluctuación estadística, sería mucho más probable que se crease únicamente un objeto físico de dimensiones razonables capaz de simularlo. Un cerebro de Boltzmann, como se le conoce. La idea funciona igual: si se crease una simulación ahora mismo que guardase la información necesaria para reproducir el estado actual de nuestro universo, tus ficticios recuerdos te parecerían igual de reales. (Un bonito vídeo de Quantum Fracture al respecto por aquí).
Esta problemática también se conecta con un problema recurrente sobre la simetría bajo inversión temporal, y es que si las leyes son simétricas en el tiempo, la entropía debería crecer hacia el pasado. Es decir, dada la manera en la que hemos argumentado que la entropía crece, y juntándolo con que el estado del sistema tiene igual predilección por un estado que por otro (y lo mismo si evolucionamos hacia el pasado), es infinitamente más probable que vengamos de un estado desordenado que de uno ordenado. Es decir, si quieres razonar sobre los fenómenos que observas usando la dinámica invariante bajo inversión temporal, es más probable que hace diez minutos ese hielo que ves ahí formado estuviera derretido.
Esta idea, cómo no, tiene un problema.
La entropía evalúa el número de microestados (que al fin y al cabo son soluciones) compatibles con un macroestado dado. Dado que depende de soluciones, no hay ninguna razón para esperar que conserve la simetría de las ecuaciones originales. Recuerda de nuestra entrada sobre simetrías que las soluciones de unas ecuaciones simétricas no tienen porqué mantener dicha simetría (por ejemplo, la gravitación universal es simétrica bajo rotaciones y entre sus soluciones están las nada simétricas elipses).
Pero aun así (aun si no esperamos que la entropía sea simétrica en el tiempo -el teorema de recurrencia asegura que como poco es periódica-), si nos olvidamos de la cosmología sigue siendo más probable que la entropía crezca hacia el pasado, razonamiento inevitable si confiamos en la dinámica invariante bajo inversión temporal. Y de ahí la idea de que seamos una fluctuación.
Esta idea falla de por sí al considerar que, si acabamos de ser creados a partir de una fluctuación, las propias leyes físicas son un constructo artificial y no tienen porqué ser ciertas (y nos daríamos cuenta tarde o temprano), pero es que además esas mismas leyes físicas son las que nos han llevado a dicho razonamiento, que entonces no sería ya correcto. Es un círculo vicioso y sin sentido.
Actualmente, todos los físicos consideran que la única respuesta a esta «paradoja» es suponer que el universo comenzó en unas condiciones de extremadamente baja entropía. Esto se conoce como hipótesis del pasado. Así, el pasado actúa a modo de «reservorio» permitiendo crear estructuras ordenadas (de baja entropía) mientras el universo globalmente se desordena (su entropía aumenta). Esto es lo que he intentado representar más arriba al hacer que el estado evolucione de cajitas minúsculas hacia las más grandes. En palabras de Feynman:
«Por tanto creo que es necesario añadir a las leyes físicas la hipótesis de que en el pasado el universo estaba más ordenado, en el sentido técnico, de lo que lo está hoy día. Creo que esta es la aseveración adicional que es necesaria para […] dar sentido a la irreversibilidad«. Feynman en «El carácter de la ley Física«.
Crecimiento a la Susskind
Otra manera de ver el crecimiento de entropía es el siguiente (que he nombrado «a la Susskind» porque la primera vez la leí en un libro suyo que cito al final).
Si admitimos que tenemos cierta incertidumbre experimental, debemos mallar el espacio de fases en cubos (cubos 6N dimensionales, pero cubos) de un volumen mínimo (en una descripción semiclásica, como poco del tamaño de la constante de Planck elevado a por el principio de incertidumbre de Heisenberg:
) a fin de poder asignar un volumen a los macroestados.
Es obvio entonces que, partiendo de un volumen inicial con una entropía concreta, en su evolución, pese a que el volumen no varíe, podemos sobreestimarlo dado que se «desparrama» por el espacio de fases. De hecho, es usual que el volumen de un macroestado evolucione hacia formas más complicadas que harían que sobreestimemos enormemente su tamaño, y por tanto la entropía crezca de manera efectiva.

Esto es algo similar a cuando dejamos caer una gota de agua sobre un material poroso. La porosidad hará que la mancha se filtre y ocupe gran superficie pese a no variar su volumen. O como cuando dejamos caer una gota de tinta y se difunde en agua (de ahí la foto de cabecera :P).
Esta manera de ver el crecimiento de la entropía no es única de Susskind. También la explica el premio nobel Kip Thorne en un libro muy poco ortodoxo que sacó hace unos años, llamado «Modern classical physics». Extraigo una cita que resume la idea:
«Así, para un conjunto de sistemas cerrados es la elección del físico (usualmente una necesidad práctica) de realizar promedios mediante granulado grueso lo que causa que la entropía aumente y que el conjunto evolucione hacia el equilibrio estadístico.«
Con esto terminamos la entrada. Espero que entiendas ahora en qué sentido podemos decir que la entropía no crece, y no quieras lapidarme por decirlo.
Aun así, dejamos cosas abiertas. ¿Qué ocurre en cuántica, donde no podemos conocer posiciones y velocidades al detalle? ¿Por qué los sistemas vivos parecen saltarse la segunda ley de la termodinámica? ¿Y por qué la gravedad también parece hacerlo? ¿Está todo dicho sobre la flecha del tiempo?
Estas preguntas son legítimas, y hacéis bien en preguntármelas. Pensaba incluir algunas de sus respuestas (parciales) en esta entrada, pero mejor lo dejaremos para el futuro 🙂
Para ampliar
Si te apetece profundizar en el maravilloso mundo de la física estadística y en las movidas de la entropía, te dejo unos libros interesantes (de menos a más en dificultad) que podrías consultar:
«La guerra de los agujeros negros», de Leonard Susskind, es un genial libro para entender la entropía y su conexión con la información, así como la paradoja de su pérdida en los agujeros negros y posibles soluciones (al menos la que Susskind aportó).
«Desde la eternidad hasta hoy» es un brutal libro de Sean Carroll que me he leído enterito para preparar esta entrada (quizá hasta le haga una reseña). Explica de cero la entropía, su historia, relación con biología, cuántica, gravedad… Quizá el libro más completo al respecto.
«Philosophy of Physics», de Dean Rickles, es un libro alucinante sobre la filosofía de la física. Dedica un capítulo entero a la entropía y sus paradojas sobre la compatibilidad entre su crecimiento y la reversibilidad de las leyes físicas.
«The theoretical minimun: what you need to start doing physics» es el primer volumen de la serie de libros de «Theoretical minimum» que Susskind plantea para que el público general pueda aprender física de buen nivel. En este en concreto podréis encontrar el modelo de juguete del que he hablado en esta entrada sobre la conservación de la información y la conexión con (así como la demostración de) el teorema de Liouville.
«An Introduction to Black Holes, Information and the String Theory Revolution» es un libro que Susskind y Lindesay escribieron para abordar el tema de la pérdida de información en agujeros negros, explicando lo que se sabía hasta el momento y posibles salidas a la paradoja. Es el primer libro que me hizo entender que la entropía no crecía. Hice además un trabajo en el máster en base al mismo que puedes leer por aquí.
Libros hechos y derechos para aprender mecánica estadística e imbuirse en las sutilezas del teorema de Liouville, el teorema de recurrencia, la entropía y demás, podrían ser: «Statistical Mechanics», de K. Huang y «Statistical Mechanics» de R. K. Pathria y P. D. Beale.
Y el libro que todo amante de la física debería tener, aunque sea por lo bonito que es: «El camino a la realidad: Una guía completa de las Leyes del Universo». Dedica un capítulo entero al granulado grueso, crecimiento de la entropía, paradojas, inicio extremadamente poco entrópico del universo… Aderezado con unos dibujos preciosos, en los cuales me he inspirado para hacer el granulado grueso del espacio de fases.
Como ya he comentado en anteriores entradas, los hiperenlaces a amazon que haya incluido son de afiliado, si compráis a través de ellos a mí me darán un minúsculo porcentaje y a vosotros no os costará más (a ver si entre todos pagamos el hosting). Aun así, como siempre, si podéis comprarle a vuestro librero de confianza, mejor que mejor.
No sería más adecuado a efectos divulgativos el título “ La entropia no crece siempre que el sistema sea abierto”
No soy físico pero me gusta leer divulgación de la ciencia y te felicito por tu blog
Buenas Pedro.
Precisamente, la entropía no crece siempre que el sistema sea cerrado. Es decir, cuando yo concreto qué entiendo por mi sistema, y lo aislo del resto, ese subsistema cerrado (que no intercambia información con el entorno) mantiene la entropía constante, tanto clásica como cuánticamente (al menos la entropía en el sentido que he expuesto en la entrada, como conservación del volumen en el espacio de fases, se denomina a esta entropía «fine grained» -granulado fino- en contraposición a la entropía de granulado grueso -fine grained-). Una vez que permites al sistema intercambiar información con el entorno, añades nuevos grados de libertad que hacen que la entropía crezca. Pero siempre que reduzcas el zoom lo suficiente y aísles el sistema, tendrás que la entropía no crece.
Un saludo.
Gracias por el artículo. Muy bueno.
Bueno, la verdad es que en algunos momentos, me pierdo. Pero queria dejar una opinión.
Con todo mis respeto a la ciencia, a la que tengo en alta estima, y como ya he dicho en algún otro lugar, sabemos que los teoremas, conjeturas o leyes que la conforman, deben cumplir dos requisitos: ser consistentes con la realidad y estar libres de contradicciones internas.
Para mi, el teorema de recurrencia de Poincaré no cumple con el primer requisito. Y creo que una buena prueba de ello, es que si se acepta, al final nos lleva a una situación en la que no se cumple el segundo. Y tiene uno que acabar preguntándose si es real o es un holograma.
Me gusta la hipótesis de Feynman, aunque desde la ignorancia, tiene a verse más como una realidad que como una hipótesis.
Buenas Pola.
Es cierto que podemos ser pragmáticos y decir «bueno, si el paradigma clásico me lleva a entender la entropía como el logaritmo del volumen de los microestados indistinguibles, pero resulta que el teorema de Poincaré asegura que entonces la entropía crece pero puede -y acabará por- decrecer, debo concluir que el paradigma clásico es incorrecto». Sí y no.
Te pongo un ejemplo que te puse algún día ya. Entender la temperatura como agitamiento de las moléculas nos hace ganar en predictividad, pero a cambio, es posible (y ocurre continuamente) que entre dos cuerpos en contacto a distintas temperaturas se intercambie parcialmente (en ciertos lugares de la zona de contacto) calor del cuerpo de menor a temperatura al del mayor, lo cual intuitivamente es una locura. Pero es lo que ocurre cuando entiendes que la temperatura tiene esa naturaleza. Al final, las leyes termodinámicas, tan inamovibles e inapelables como parecían, son de carácter estadístico (salvo la conservación de la energía). Esto no es un problema, pues nuestros nuevos modelos estadísticos predicen lo mismo que los termodinámicos siempre que el número de moléculas sea grande, y nos hacen ganar en predictividad. Realmente entonces no hay nada que lleve a una situación irreal en estas consideraciones. Simplemente si queremos abarcar más fenómenos damos con teorías que quiza vayan contra nuestro instinto, que evolucionó en las estepas, y no para entender la mecánica cuántica o el espacio de fases.
Aun así, sí es cierto que el teorema de Poincaré y otras objeciones nos demuestran que el paradigma clásico hace aguas. Igual que el electromagnetismo nos demostró que también era incompatible con la clásica. Pero son dos tipos de «aguas» distintas. El teorema de Poincaré evidencia que nuestra comprensión «filosófica» del paradigma clásico puede ser inadecuada, pero total, como no es el paradigma más profundo que tenemos (están la relatividad y la cuántica), tampoco es que los filósofos de la ciencia le sigan dando mucho bombo al tema. En cambio, el problema que inició la relatividad especial (incompatibilidad entre las ecuaciones de Maxwell y las transformaciones de Galileo) era práctico, por lo que los físicos (y no los filósofos de la ciencia) se ocuparon de arreglarlo.
No sé si me explico (las respuestas suelen ser más irreflexivas que la entrada, pues las escribo y le doy a enviar), así que sigue preguntando si quieres 😛
Hola Adrian, ha sido una buena y potente entrada.
Me he llegado a imaginar la evolución del estado del sistema en el espacio de fases de dos formas muy distintas.
En la primera el estado inicial es como un volumen que fluye de forma incompresible y que se cierra sobre si mismo (por eso de que a cada estado se le asocia una flecha de entrada y una de salida). Algo así como un donut en 6N dimensiones que gira sobre si mismo. En este caso la entropía del sistema es constante ya que el volumen se mantiene constante.
En la segundo el estado inicial es un punto que se mueve «aleatoriamente» por un espacio de fases dividido en regiones según hace el granulado grueso. Si va a regiones más grandes la entropía aumenta y si va a regiones más pequeñas la entropía disminuye. En este caso es como que la entropía da saltos hacia arriba y hacia abajo tendiendo a aumentar (por el hecho de que es mas probable que vaya a zonas mayores). La forma en la cual se define el granulado grueso, o sea, la forma en que se divide el espacio de fases es única?
Poco más, sigue asi hombre de bien.
Perfecto Antonio, lo has clavado. La primera manera que comentas es la entropía à la Susskind, y la segunda à la Boltzmann. A mi me gusta más la interpretación de Susskind. En ambas puedes argumentar al final que la entropía aumenta (cuando promedias y haces un granulado grueso), pero siendo técnicos la de Susskind y el teorema de Liouville está mejor.
Pues como sospechas, la forma en que se define el granulado grueso no es única. Pero se puede demostrar (por ahí enlazo algún paper en un hiperenlace) que no al final no depende de la manera en que se defina, dado que el macroestado asociado al equilibrio ocupa casi todo el espacio de fases.
Un abrazo Antonio!
Hola Adrián,
Muchas gracias por la entrada. Acabas de descubrirme un nuevo mundo sobre la entropía, ya que yo me había quedado con la afirmación termodinámica clásica de que en un sistema cerrado siempre aumenta. Tomo nota de los libros que recomiendas, ahondaré más en el tema.
Una pregunta, si hago un zoom suficientemente grande de la frontera entre dos regiones de macroestados diferentes, intuitivamente me viene a la mente la idea de que, en el instante inmediatamante posterior a haber cruzado la frontera, el sistema tendría la misma probabilidad de «devolverse» a la región de la cual provenía, con lo cual la entropía volvería a disminuir. ¿Dónde está el fallo de mi razonamiento?
Gracias de nuevo por la entrada en particular, y por la idea de este blog.
Qué pena que se esté perdiendo el mundo de los blogs, el twitter tiene cosas buenas, pero no es posible transmitir este tipo de mensajes.
Un abrazo,
Roberto
Buenas Roberto.
Ante todo, muchas gracias por tus halagos. Para mí entender este aspecto de la entropía gracias a un trabajo en el máster fue una gran reveleación. Vino peleándome con la paradoja de la pérdida de la información en agujeros negros, ya que, ¿si la entropía ha de crecer y por consiguiente la pérdida de información es inherente a las leyes físicas, ¿por qué le preocupaba tanto a los físicos dicha paradoja? Hasta que entendí que realmente es porque la entropía no cambia según las leyes más profundas de la física.
Yendo a tu pregunta, tu argumento es correcto en sí. Es el problema que tiene entender la entropía a la Boltzmann. Aun así, por el mismo juego de probabilidades de la primera entrada, en su devenir cuasi-aleatorio el estado del sistema permanecerá la mayor parte del tiempo en las cajitas de mayor volumen. Pero puede disminuir. El caso es que estrictamente la entropía no crece, dado que la información no se pierde (y por eso la interpretación a la Susskind me gusta más). Aun así, por señalarte algo de lo dicho que me chirría, es el tema de «hacer zoom». Por definición, hacer zoom cambiará el granulado grueso, hasta el punto de diluir las fronteras (que no son más que el reflejo de que experimentalmente tenemos cierta imprecisión, imprecisión que desaparecería si fuesemos capaces de hacer un zoom arbitrariamente profundo).
Cualquier otra duda, pregunta. Un abrazo!
sigo sosteniendo, una cosa es el mundo manifestado y otra cosa es la interpretación del mundo hecho por los científicos. No creo “Dios geometriza” ni que “el mundo está escrito en el lenguaje matemático. El mundo es como es, creo es la gran verdad intuida por el ilustre Clausius en el siglo XIX y no podemos saber en momento si morirá por el frío o si se producirá la inspiración de Brama (implosión del universo que lo llevará a la nada) a la que seguirá una espiración (una nueva explosión del universo de la cual volverá a brotar la materia)
Es cierto, el mundo está formado por partículas pero nuestra percepción del mundo es macroscópica.
Además la afirmación que el tiempo no existe en las leyes de las partículas, se contradice con la realidad que todo envejece y muere, lo único inmortal es Dios.
A ver si en las próximas entradas encontramos explicaciones para las preguntas que lanzas al final y qué nuevas preguntas nos traen.
Por cierto, de este post tengo 2 dudas:
1) dices que a nivel micro las particulas siguen leyes reversibles y por tanto deterministas. ¿La reversibilidad no es antideterminista dado que, como en una moneda, siempre tiene dos opciones (adelante en el tiempo o hacia atras) sin causa para escoger una u otra más que cierta probabilidad?
2) que todos los microestados de un sistema sean equiprobables, como presupone boltzmann, no explica porque los procesos evolucionan de menos a mas entropia. En el tiempo deberían sucederse estados de forma completamente aleatoria e inconexa entre si: por ejemplo, un estado de maxima entropia y luego uno de minima, para volver de immediato a otro de maxima y asi mantenerse largo tiempo, para luego pasar a uno de menos entropia y de immediato volver a otro de maxima entropia etc. Sin embargo nosotros vemos evoluciones:estados de poca entropia que van pasando mas o menos gradualmente a estados con mas entropia has alcanzar un maximo. ¿No le faltara algo a la entropia de boltzmann o yo me pierdo cosas?
Gracias y sigue con el blog y la termodinamica 🙂
Buenas RDC! =)
Respecto a 1)
– La reversibilidad es determinista, en tanto en que conociendo el estado anterior el siguiente queda fijado, sin probabilidad alguna.
Respecto a 2)
– Las cuentas sobre porqué la interpretación microscópica de la entropía implica que el crecimiento es hacia más entropía las hice en la anterior entradaa a esta, que te dejo por aquí: https://fisicatabu.com/el-origen-microscopico-de-la-entropia/ . Si se desarrolla con cuidado, es «fácil» ver por qué se tiende al desorden al lidiar con muchas partículas. Pero en esa entrada sembré el germen de la duda, pues un análisis detallado nos revela (como he hecho en esta entrada) que la entropía realmente no crece, si no que su crecimiento se debe a promedios que debemos realizar inevitablemente debido a nuestra falta de precisión infinita (nada reprochable, por otra parte :P)
Un saludo, y ojalá sacar tiempo pronto para seguir con este apasionante tema (y llegar a entropía de agujeros negros algún día, que es de mis temas favoritos)
Gracias por responder Adrián!
Sobre la primera respuesta: recuerdo de mis viejas clases que un proceso reversible es quasiestático (infinitamente lento) porqué está compuesto por infinitos estados en equilibrio, de modo que tantas «razones» tiene para ir hacia delante como atrás, ya que de todos modos está en equilibrio; y de aquí supuse que el proceso sería ambiguo (tanto puede ir hacia delante como hacia atrás) y con ello me pregunté si sería probabilístico, como una moneda. Entonces, con lo que me respondes me viene en mente el movimiento de un péndulo, cuya energía total siempre es Ep+Ec -Ed (energía potencial + energía cinetica – energía disipada en el entorno). Sabemos que cuando EP és máxima Ec es mínima y que la EP tanto puede incrementarse como disminuir de forma sincronizada con la EC. También sabemos que por la energía disipada el incremento de EP nunca podrá alcanzar su máximo, y el proceso será cícilo y menguante hasta llegar al reposo (sin energía). Entonces, cuando suponemos que no hay disipación de energía y tratamos el movimiento del péndulo como reversible suponemos que se trata de un ciclo completo e ideal (el péndulo hace todo el recorrido de forma determinística al pasar de forma ordenada por todos los puntos). Y eso lo suponemos por experiencia, ya que al hacer cada vez péndulos con menos fricciones sus movimientos parecen ser cada vez más cíclicos y regulares. Pero no es más que una generalización. Al eliminar toda energía disipada el comportamiento del péndulo igual cambia por completo. De hecho, entiendo leyendo las fórmulas que sin disipación alguna el movimiento ya no «identificaría» si está bajando o subiendo, de modo que «no sabería» si tiene que seguir bajando o subiendo. ¿Qué haría? ¿Se quedaría cuasiparado como se interpreta de ordinario? ¿O subiría-bajaría aleatóriamente?
En la respuesta 2) Creo que no me he expresado bien… lo que quería decir es que no le veo sentido a que si en un sistema aislado los macroestados son configauraciones de cierto número de microestados, y todos los microestados son equiprobables, entonces los procesos que empiezan por una configuración de pocos microestados (poca entropía) y van evolucionando «paso a paso» hacia configuraciones de más microestados. Si todo microestado es equiprobable «este paso a paso» de configuraciones con menos mricroestados a configuraciones con más microestados no debería darse, la evolución no debería darse y en vez de una historia más o menos lineal y con sentido habría una sucesión inconnexa, ecléctica y aleatória de configuraciones; no?
Muchas gracias
Sí RDC, un proceso reversible es precisamente eso. Y todos los procesos lo son, el problema es que hay que ir al detalle fino para darse cuenta. Por ejemplo, cuando tu péndulo se ha parado, si para ti el sistema de estudio es solo el péndulo, obviamente tienes un proceso irreversible en el que se pierde energía. Si tienes en cuenta el aire circundante, ya no se pierde la energía, se la pasa al aire que se calienta por el rozamiento (y el péndulo también), aunque sigue pareciendo irreversible. Pero esto es porque no nos fijamos en el detalle: cada choquecito de una molécula de aire con un átomo del péndulo sigue leyes perfectamente deterministas (dispersión electromagnética, principalmente), si pudieramos seguirle la pista a todas, veríamos que no se pierde nada de información (con lo que no aumenta la entropía). El problema es que macroscópicamente es más práctico promediar, perderle la pista, y decir cosas como «un cuerpo tiene cierta temperatura» en lugar de «un cuerpo tiene una distribución estadística atómica de velocidades, que promediadas dan una energía cinética media que es una medida de su temperatura». ¿Me explico?
Respecto a los microestados, es cierto que parece que de un microestado al siguiente no tiene porqué crecer la entropía (y no lo hace). Pero hay tantos microestados compatibles con macroestados de equilibrio que el sistema, aun explorando todas las configuraciones posibles, acabará por pasar un tiempo infinitamente mayor en macroestados realistas (todas las moléculas dispersas por la habitación, café y leche disueltos, etc…)
Un saludo.
Desde q me enseñaron termodinamica con 15 años siempre he tenido claro esto que tan bien cuentas, Adrian: que la entropia, com perdida de trabajo util o de irreversibilidad de un proceso determinado, es solo un «problema contable» de ingenieros cuya unica obsesion es buscar rentabilizar al maximo un proceso definido y delimitado arbitrariamente segun sus intereses, pero que al universo eso le importa un carajo.
De modo que a nivel global, el universo, siempre me ha parecido reversible.
Lo que pasa es que tengo mis dudas sobre lo que significa en el fondo «ser reversible», y por ello me aventuraba con esa primera pregunta, dado que la respuesta «clasica», con su determinismo, no me acaba de convencer. Pero no sé…
Es cierto que la reversibilidad es un concepto sutil. En mecánica clásica se entiende desde la perspectiva de ecuaciones diferenciales, donde existen teoremas de unicidad, que aseguran que dadas unas condiciones iniciales la evolución será única, y eso es lo que intentaba plasmar con mis ejemplos con flechitas… 😛
En mecánica cuántica la definición es más dificil, pero está presente en el sentido de que la evolución es unitaria. Sí que es cierto que el tema del colapso está por ahí, pero en mi opinión el colapso es algo artificial, y no es necesario en mecánica cuántica desde el punto de vista fundamental. Por este vídeo lo explicaba veritasium: https://www.youtube.com/watch?v=kTXTPe3wahc
Un gran saludo! =)
Interesante video. Una cosa que no he entendido muy bien del video: Carrol dice que el universo es una funcion de onda, la cual determina su energia global junto con todas sus posibilidades. Por tanto, he entendido que cada posibilidad (por ejemplo nuestra realidad concreta) no expresa toda la energia del universo, sino su parte correspondiente como posibilidad. De modo q el conjunto de todas las realidades concretas da la energia total, la cual se conserva. ¿He entendido bien?
Por tanto, ¿cuando colapsa la ecuacion de onda, el resultado expresa menos energia ?
Buenas RDC. En esta interpretación no habría colapso, si no todo el rato evolución debido a la ecuación de Schrödinger, y las diferentes posibilidades se deben a nuevos entrelazamientos y superposición.
Un saludo.
Gracias Adrián
Hola Adrian, he vuelto a leer e post. Algunas cosas para ver si lo he entendido bien; cuando escribes que
“¿Y qué implica?
Como ves, las leyes dinámicas en física son tales que los estados presente y futuro (y viceversa) están conectados uno a uno, sin poder cortarse las trayectorias de evolución ni acabar varios estados en un único estado futuro y viceversa. Esto equivale a asegurar que la información (aproximadamente la cantidad de preguntas necesarias que hay que responder para conocer el estado actual del sistema) no varía.
¡Pero entonces la entropía tampoco!”
Lo que te dice el teorema de Gibbs-Louville, para hacer un símil, es:
-Tomamos cada uno de los microestados posibles como punto cualquiera del espacio de fases.
-Cada uno de estos microestados es equiprobable, por tanto, aleatoriamente el sistema puede adquirir cualqueira de ellos.
Hasta aquí, pues, es como si un sistema fuera un bombo lleno de bolitas y cada una representa un microestado posible. Y una vez sale la bolita se va formando la serie “ganadora” que pauta la evolución del sistema.
Por tanto, en base al teorema de Gibbs-Louville, al salir por azar una de las bolitas para formar parte de un instante de la serie de evolución del sistema, la bolita ya no vuelve entrar en el bombo y por tanto, no puede volver a salir hasta que no hayan salido todas las bolitas generando la serie evolutiva completa. Y luego, por el teorema de recurrencia, lo que te dice, es que la serie que ha salido se vuelve a repetir. ¿Es correcto el símil?
Buenas RDC.
La bolita sí puede volver a entrar en el bombo, no hace falta que todas las evoluciones detallen caminos que llenen todo el espacio de fases. Podrían haber trayectorias cerradas (como una línea de corriente circular en un fluido). El teorema de Gibbs-Liouville te dice que este fluido es incompresible, es lo único. De un microestado puedes pasar a otro, pero no a dos (evolucionan 1:1 los estados). El teorema de recurrencia te dice que dado el suficiente tiempo, siempre acabarás por pasar por un microestado arbitrariamente cercano al de partida. Pero puede ser el mismo (y ser un tiempo corto :P)
Gracias Adrian. A veces mezclo ideas cuando escribo rápido, como fue el caso de antes de ayer; ponía el símil del bingo hablando del teorema de Gibbs-Liouville, cuando tenía en mente, más bien, el de recurrencia de Poincaré (que entiendo que es una aplicación del de Liouville).
Por tanto, con lo del bombo buscaba un símil de juego de azar, más o menos cotidiano, con que representar esta recurrencia gráficamente. No sé sería posible buscar un símil de estas características; si supieras alguno Adrian… 😉
Eso sí; un par de dudas más concretas sobre del teorema de recurrencia:
1) el teorema te dice que ciertos sistemas, dado un tiempo suficientemente largo seguirán una trayectoria o cerrada o casi cerrada, verdad?
2)Esta trayectoria, entiendo que es regida por el azar: sus puntos se van sucediendo de forma aleatoria; dado un punto de la trayectoria el siguiente puede ser cualquiera del espacio de fases -Y sólo será un punto.
3) Si el apartado 2 es correcto, entonces, una trayectoria es como una serie de combinaciones de microestados aleatoria.
4) Si lo anterior es más o menos correcto, entonces una trayectoria cerrada es una serie de combinaciones aleatorias que empieza y termina por un mismo punto, pero ello no implica que luego esta serie se repita exactamente igual, o sí?
Nota: por cierto, un espacio de fase es conceptualmente, más o menos, como un espacio muestral?
Empiezo respondiendo por el final: un espacio de fases se parece más al espaciotiempo que a un espacio muestral. Es el conjunto de estados que puede tener un sistema de partículas, y resulta que tiene la misma estructura (matemáticamente hablando) que los espaciotiempos en relatividad general (de variedad).
Sobre 2), las trayectorias no son al azar. De un microestado al siguiente se pasaría de manera unívoca, determinada por una aplicación (el hamiltoniano), o en versiones más «newtonianas», resolviendo las ecuaciones diferenciales que surgirían de aplicar la segunda ley de Newton a todas las partículas del sistema interactuando.
Puedes imaginártelo (en parte) como un billar donde golpeas una bola: la evolución (su trayectoria y velocidades) queda completamente determinada en un instante por las condiciones en el instante anterior aplicando las ecuaciones de la mecánica clásica. Si eliminamos el rozamiento, la bola puede tener trayectorias cerradas. Si aun así diéramos con unas condiciones iniciales tal que la trayectoria no se cerrara sobre sí misma, el teorema de recurrencia sería análogo a esèrar que en un tiempo finito la bola debería volver a un punto arbitrariamente cercano al de partida (en cuanto a posición y velocidad, por lo que la trayectoria se volvería a asemejar a la del inicio).
Entiendo… y tengo más dudas 😉
Dices que:
«Sobre 2), las trayectorias no son al azar. De un microestado al siguiente se pasaría de manera unívoca, determinada por una aplicación (el hamiltoniano), o en versiones más «newtonianas», resolviendo las ecuaciones diferenciales que surgirían de aplicar la segunda ley de Newton a todas las partículas del sistema interactuando.»
Ok… yo pensaba que el T. de Poincaré trataba el mismo asunto que ya trató Boltzmann, pero de forma más global por así decirlo; a fin de cuentas parecen usar las mismas herramientas (hamiltonianos, t. de Liouville, microestados, etc). Además, he leído como a veces se explica así.
Pero no debe ser lo mismo, porque Boltzmann asume que de un microestado a otro se pasa de forma aleatoria, en vez de forma determinística como dices del T. de Poincaré, dado que el austríaco entiende que cualquier microestado del espacio de fases es equiprobable.
En fin. Ahora me pierdo entre el determinismo del T. de Poincaré y el modelo probabilístico de Boltzmann. ¿O acaso tienen algún punto en común?
Boltzmann (y su interpretación mecanicista del crecimiento de la entropía) sí es probabilista. Él renuncia a poder resolver las (del orden de) 1E23 ecuaciones diferenciales que deben resolverse, y simplemente razona que por meros cálculos probabilísticos las partículas irán alcanzando macroestados con más microestados asociados. Pero si, aunque no puedas resolverlas, sigues entendiendo que de fondo las leyes son deterministas, lo que cambia es más bien entender que el proceso es otro: experimentalmente solo podremos discernir macroestados (cuyos límites unos con otros siempre dependerán de nuestra precisión experimental) que vemos como regiones en el espacio de fases. El microestado evoluciona de manera determinista, y por el simple hecho de que los macroestados de equilibrio ocupan el 99.9999…% del espacio de fases en su evolución acabará por entrar en uno y no salirse, siempre y cuando tengas condiciones de partida estándar. Si buscas condiciones de partida muy especiales, podría entrar en macroestados más pequeños (huevos recomponiéndose :P).
Imaginate una mota de polen rebotando en las moléculas de agua de una piscina (y ten en cuenta que los rebotes, aunque parezcan azarosos, siguen estrictamente las leyes de la mecánica). Y que segmentas la superficie del agua con parcelas pequeñitas y una enormemente grande (el macroestado de equilibrio). En su evolución determinista pasará la mayor parte del tiempo en dicha parcela.
Gracias Andrian! Espero que disfrutes del verano y que saques pronto otra entrada.
Vale, entiendo:
a) el T. de Poincaré supone que los microestados evolucionan determísticamente y en base a ello deduce la recurrencia de cualqueir microestado (y por tanto de cualquier macroestado) bajo un tiempo lo suficientemente largo.
b) Boltzmann dice que vale, que está muy bien asumir que los microestados evolucionan determinísticamente, pero que resulta inútil pensarlo así para tratar sistemas de incontables partículas. Que es mejor pensarlo de forma probabilística, porque se vuelve manejable.
Por tanto, tratar la cuestión desde una postura determinista, como Poincaré, o probabilística como Boltzmann, de algún modo es equivalente en este tipo de sistemas; ni se excluyen ni contradicen, sino que «hablan» de lo mismo. ¿Correcto?
Entonces, ¿del mismo modo que podemos entender el trabajo de Boltzmann asumiendo que todas las partículas de un sistema se comportan determinísticamente, tb podemos entender el trabjo de Poincaré asumiendo que el sistema evoluciona aleatoriamente, no?
Hasta el último párrafo, todo de acuerdo.
Respecto a la última pregunta, hasta donde yo entiendo (y no soy ningún experto) no, pues el teorema de Poincaré se demuestra asumiendo que existe una aplicación que evoluciona los microestados de manera determinista.
He mirado algunos cosillas sobre determinismo y azar en sistemas complejos. Dejo un artículo interesante, y muy bien redactado, de hace ya algunos años -mediados de los 90’s-, de Javier Girón Gonzalez; cuando no existían aún los blogs.
https://rac.es/ficheros/doc/00327.pdf
Me ha parecido muy interesante, claro y explica un poco el porqué ciertos sistemas no lineales que devienen caóticos muestran un comportamiento probabilístico -en general los juegos de azar como los dados, cartas, ruleta, etc.
También me ha «medio sorprendido» apreciar la importancia de Poincaré en el estudio fundamental de estos temas. Y «entiendo» que el T. de recurrencia pertenece de facto a esta temática -Por esto te hacia la última pregunta en el post anterior.
Nada, buen verano!!
Nada, hoy he escrito pensando, entre otras cosas, con las dudas que vertía este verano con este tema.
https://privatum.blogspot.com/2021/10/el-azar-vii-si-el-azar-tiene-estructura.html
Un saludo
Pregunta tonta:
Sabemos que la informacion (entropia y energia) no puede ir mas rapido q la luz y suponemos q el universo es un Todo inmenso (sistema aislado) , ¿Como sabe el universo q la entropia y la energia se mantiene siempre igual o varian?
Estaba mirando este vídeo de veritasium (https://www.youtube.com/watch?v=FtEe0IlK6Hc), sobre aleatoriedad en el universo. Obviamente terminan hablando de la información y la entropía del universo.
Sin embargo, con tu post queda patente que los físicos tenéis muy claro que en un sistema aislado ni la información ni la entropía varían. Tampoco es algo que me resulte tan rompedor, porque aún recuerdo cuando estudiaba, hace 25 años, que ya se dejaba claro en termodinámica clásica que en un sistema aislado la entropía simplemente no puede crecer, con lo cual o se mantiene constante o disminuye. Lo que no entiendo es porque aún se divulga que la entropía del universo, como sistema aislado, debe crece necesariamente.
Por otro lado al final del vídeo hay algo que me parece turbador, y no sé si me equivoco. Se usa el indeterminismo cuántico para meter en calzador un concepto teológico-moral harto dudoso como el «libre albedrío». ¿Es común entre los científicos pensar que el azar (la indeterminación) permite que los seres humanos tomemos decisiones de forma «libre»? Por que la idea de azar implica, precisamente, que lo que sucede no obedece a ninguna causa, es decir, ninguna decisión determinada, en fin, los acontecimientos no vienen determinadas por las condiciones iniciales del sistema, sólo dependen de la distribución de posibilidades del sistema. Yo, ahí, no veo nada de libre albedrío, sino todo lo contrario.
Por cierto, una pregunta tonta: si la energía, la información y por tanto, la entropía no pueden viajar más rápido que la luz y el universo, suponiendo que sea un Todo (sistema aislado), es absurdamente grande, entonces, ¿como «sabe» (detecta) precisamente el universo que la energía, la entropía y la información se mantienen o varían?
Buenas RDC. Ciertamente quizá he hablado con más confianza de la que tengo sobre que la gran mayoría de físicos opinen como yo. Bien es cierto que creo que sí es la opinión más extendida entre los teóricos (véase el siguiente tweet, https://twitter.com/GastonGiribet/status/1541947826841833473?s=20&t=t-5y9RXxOtjXWNdu0ENjMA). Lo que hace Veritasium al final del vídeo nunca me ha gustado y me parece una magufada de primera, nunca entenderé por qué decidió meter eso ahí, y nunca he leído nada serio al respecto.
Sobre la conservación de la energía o la entropía, todas las leyes de conservación en física se formulan de manera «local», lo que quiere decir que se cumplen en un entorno del punto. No hace falta que nada «alejado» del fenómeno tenga que «saber» qué está ocurriendo.
Ok
Otra duda tonta: la entropia de boltzmann es proporcional al num. de microestados compatibles de un sistema macro en equilibrio. Es decir, en un sistema macro en equilibrio, y por tanto q su entropia se mantiene constante, se supone q se van sucediendo microestados compatibles de forma aleatoria, no?
Mi pregunta: aunque el sistema este en equilibrio macro siempr hay agitacion microscopica (intercambio de microestados compatibles), pero cada microtransaccion de calor genera entropia, con lo cual debe de haber un incremento constante de entropia, no!? Por tanto ningun sistema puede estar jamas en equilibrio ni, por ello, haber microestados asociados…
No hay una posible contradiccion aqui
Buenas RDC. Desde la perspectiva microscópica no hay sucesión de microestados. El sistema se encuentra en uno que evoluciona. El resto de microestados posibles también evolucionan con el tiempo. Pero el sistema solo está en uno.
Gracias Adrián por la contestación… Vale, he vuelto a leerlo todo y entiendo que:
-Un microestado está compuesto por un montón de partículas con una energía concreta cada una. Cuando al menos una de estas partículas intercambia energía con otra entonces se pasa a otro microestado distinto.
-La entropía, con Boltzmann, ya no tiene nada que ver el con intercambio de energía entre dos cosas, sino que la entropía pasa a ser el número de microestados asociados a un macroestado.
-por tanto, la entropía ya no se aplica en el intercambio energético entre partículas*, de modo que el intercambio de energía entre partículas es completamente reversible. Es decir, tanto da que una partícula con más energía cinética que otra le dé o bien le absorba energía cinética. De hecho, pregunto: ¿que esta partícula haga una cosa u otra es algo completamente aleatorio, como tirar una moneda? Pero, ¿acaso se ha podido comprobar esta perfecta reversibilidad micro o sólo es una interpretación de las ecuaciones de Boltzmann?
Sin embargo, ¿qué sucedería si el intercambio entre partículas no fuera reversible sino que con el intercambio todas las partículas tendieran al equilibrio energético entre ellas y por tanto a tener exactamente la misma energía? ¿Eso no cuadra con la interpretación de Boltzmann?
*Hecho que me parece gracioso por paradójico dado que la entropía surgió, precisamente, al estudiar el intercambio de energía entre «cosas» y detectar allí una asimetría: que la energía siempre va de la cosa caliente a la fría y jamás al revés.
PD/ A ver si tenemos suerte y te animas a regalando algún post nuevo. Un saludo y buen verano
– Un microestado es una configuración de posiciones y velocidades de todas las partículas. Este evoluciona en el tiempo, y estas posiciones y velocidades variarán por las interacciones entre estas partículas, pero sigue siendo el «mismo» microestado (solo que ha evolucionado en el tiempo).
– Eso es, viene a ser el «volumen» del conjunto de microestados asociados a un mismo macroestado.
– Esa es la idea, todas las interacciones son totalmente reversibles y PARA NADA son aleatorias, en el sentido de que la evolución de los sistemas es determinista al existir leyes físicas que conectan estados del pasado con estados del futuro 1 a 1.
pd: espero escribir pronto, me está costando encontrar energía y fuerzas para vencer el síndrome del impostor que aflora tras tanto tiempo sin escribir 😛
Te animo a que escribas que lo haces muy bien, y además, siempre tratas los temas desde una perspectiva interesante y singular.
Ya sé que soy muy pesado, pero me vienen dudas…. y es verano ;). Si no te apetece no hace falta que contestes:
Dices: «Esa es la idea, todas las interacciones son totalmente reversibles y PARA NADA son aleatorias, en el sentido de que la evolución de los sistemas es determinista al existir leyes físicas que conectan estados del pasado con estados del futuro 1 a 1»
En un proceso reversible, entiendo, si bien la dirección o trayectoria que seguirá el proceso está completamente determinada por las leyes físicas del proceso, su sentido no está determinado por estas leyes, dado que permite sin distinción ambos sentidos. Por ejemplo, las leyes de la física, en la caída libre de una pelota que choca de forma perfectamente elástica con el suelo para volver a subir hasta el punto de partida, y volver a caer indefinidamente, determinan completamente la trayectoria que seguirá la pelota, pero no determinan cual será su sentido. Con lo cual, dado un periodo de tiempo indeterminado y hacemos una «foto» de la pelota no podemos deducir si baja o sube.
Creo que ya lo comenté otra vez, quizás aquí mismo: todos tenemos claro que la idea de reversibilidad tiene el problema del sentido (la flecha del tiempo si se quiere), porque es una variable que no está determinada por ninguna ley del proceso reversible. De modo que: ¿A qué responde que un proceso reversible tome un sentido u otro? Si no se debe a ninguna razón, ninguna causa, ninguna fuerza, entonces cabe pensar que la explicación de que un proceso reversible tome un sentido u otro será la aleatoriedad, es decir, la ausencia de causa: -el proceso simplemente toma uno de sus sentidos posibles sin razón alguna-, ¿no?
Pensémoslo a partir de los macroestados y microestados: si definimos que las partículas que configuran un microestado interaccionan de forma reversible entre sí comerciando energía unas con otras, tal y como presupone el modelo de Boltzmann, entonces ¿a santo de qué una partícula va a adquirir o perder energía al interaccionar con otra? Es decir, el hecho de que una partícula tenga más energía cinética que otra no determinará que sea la primera la que transfiera energía a la segunda, ni viceversa, porque ninguna ley cinética lo determina.
Por tanto, tenemos que una partícula que interacciona de forma reversible con otras puede absorber o emitir energía sin seguir ninguna ley, sin causa, sin razón. Entonces, cabe pensar que será un proceso aleatorio. En caso contrario ¿qué tipo de proceso es? Determinista no, insisto, porque ninguna ley cinética afecta a la partícula para determinar que su comercio energético con otra partícula sea de un modo u otro.
Imaginemos que tenemos dos partículas en un espacio relativamente pequeño y por tanto intercambiando habitualmente energía de forma reversible ¿Qué comportamiento veríamos? ¿Acaso no veríamos como su intercambio sería aleatorio, por ser reversible, dado que cualquiera de las dos partículas puede absorber o emitir energía de forma indiscriminada, es decir, sin seguir ninguna ley sino, acaso, un patrón de probabilidades?
De hecho, ¿no es por eso mismo que dicen que dado un sistema con un número ya muy grande de partículas resulta sumamente improbable, pero no imposible, que el sistema vuelva a un estado anterior y por tanto, parece que siempre se comporta de forma irreversible?
Es más, ¿no es absurdo hablar de reversibilidad vs irreversibilidad? De hecho, no iba de esto mismo el post: ¿negar la flecha del tiempo?
En tal sentido entiendo que este modelo de Boltzmann reinterpreta la noción de reversibilidad: ya no significa proceso determinista cuasiestático, sino proceso con un sentido aleatorio o probabilístico. Y sí, tienes razón, esto es un problema porque entonces un estado inicial y un estado posterior no están conectados determinísticamente, es decir, 1 a 1: dadas las energías (velocidad y posición) de dos partículas en un momento dado no se puede saber cuál de ellas ha dado energía a cual en el instante anterior ¿Qué ley de la cinética me lo puede decir? Ninguna. ¿no?
Otra cosa; esto no lo entiendo:
«– Un microestado es una configuración de posiciones y velocidades de todas las partículas. Este evoluciona en el tiempo, y estas posiciones y velocidades variarán por las interacciones entre estas partículas, pero sigue siendo el «mismo» microestado (solo que ha evolucionado en el tiempo).»
Vale, un microestado es un conjunto de partículas con una energía. Las partículas intercambian en cada instante energía entre ellas, modificando así sus velocidades y posiciones respectivas. Ahora bien, entiendo que en cada instante que pasa, dado que la energía de las partículas se va modificado siguiendo una interacción «reversible», el microestado cambia, porque ya no es el mismo que en el instante anterior; de hecho la energía que ahora tiene cada partícula podría ser cualquiera, mientras se cumpla el principio de conservación. Por este motivo pensaba que en cada intercambio de energía entre partículas cambia el microestado y mientras estos microestados distintos que se van sucediendo sean compatibles con un mismo macroestado concreto entonces el sistema se puede considerar en equilibrio térmico. Y ahí no se ve que pase nada. Sin embargo, si en un instante cualquiera se diera un microestado sumamente especial por improbable, entonces el macroestado saldría espontáneamente del equilibrio para mostrar un macroestado de gran desequilibrio termodinámico. ¿no iba así la cosa?
Ah, y para terminar:
En la imagen donde sale la representación del espacio de fases y el granulado con una supuesta evolución de los microestados del sistema (en rojo) atravesando los distintos macroestados hasta alcanzar el macroestado más grande, y por tanto con mayor número de microestados asociados, se representa esta trayectoria o evolución de forma errática, browniana y sin saltos. ¿eso es correcto?
Lo digo porque si la evolución de microestados fuera aleatoria o probabilística, ¿esa evolución no haría saltos o no tiene porqué dar saltos?
Gracias