Partículas elementales. Estado actual de su estudio. Partículas fundamentales constitutivas del átomo. Del microcosmos al macrocosmos. Teorías sobre la formación y evolución del universo

En esta entrada revisaremos lo que se sabe actualmente de las dos teorías que explican de qué estamos hechos y cómo hemos llegado hasta aquí: la física de partículas y la cosmología. Lo haremos repasando su historia y a quienes participaron en ella.

Física de partículas

En este apartado repasaremos la historia de la física de partículas (que se puede leer con más detalle en esta entrada), separada en periodos de tiempo en los que los físicos se focalizaron en unos aspectos concretos de la misma, intentando poner orden en el zoo de partículas que se iba presentando.

Años 1900-1930

Podemos decir que la física de partículas comienza con el descubrimiento del electrón por Thomsom en 1897, investigando la naturaleza de los rayos catódicos. Al descubrir que el cociente carga masa de los mismos era enorme (implicando que se trataban de partículas muy cargadas o bien de partículas muy livianas), supuso que estos se componían de corpúsculos diminutos cargados negativamente y que formarían parte de los átomos, proponiendo su modelo del pudín de pasas.

Rutherford desmintió el modelo con su experimento de dispersión de partículas alfa entre 1909 y 1911, concluyendo que los átomos poseían un núcleo cargado positivamente y los electrones se encontraban orbitando el mismo como un sistema planetario (modelo inestable y que Bohr mejoraría). Posteriormente, basado en el hecho de que las masas de los átomos más ligeros eran un número entero de veces la del hidrógeno, propuso que los núcleos de H eran partículas singulares y elementos básicos de todos los núcleos atómicos: los protones.

Por otro lado, dado que los átomos son neutros, no se puede explicar que para la masa del helio se tenga que m(\:^4 He)\approx 4m(\:^1 H), si este solo tiene dos electrones y por tanto dos protones. Rutherford supuso que en el núcleo debían haber partículas de masa similar a la del protón pero neutras, denominadas neutrones, que además ayudarían a apantallar la repulsión culombiana entre protones. Los neutrones fueron descubiertos en 1932 por Chadwick (quien fuera discípulo de Rutherford). Al principio se pensó que los neutrones serían un sistema protón electrón ligado, pero esto no tenía sentido a la luz de la ecuación E=mc^2, pues los sistemas ligados tienen menos masa que sus componentes por separado y en cambio m_n \gtrsim m_p+m_e.

Además, en estos años se produjo el inicio de la física cuántica, intentando dar solución a problemas como la radiación de cuerpo negro, los calores específicos de gases o el efecto fotoeléctrico. Se entendió que la energía se podía crear y absorber en cuantos de energía llamados fotones (luego la luz tenía naturaleza ondulatoria y corpuscular –dualidad onda/corpúsculo-), así como que las partículas tenían naturaleza ondulatoria. Se desarrolló la mecánica cuántica, donde a las partículas se las describe por una función de onda \psi que evoluciona según la ecuación de Schrödinger \hat{H}\psi=i\hbar \partial_t \psi, con el problema de que no es relativista: las partículas libres tienen energía E=p^2/2m.

Años 1930-1950

A comienzos de los años ’30 la mecánica cuántica estaba en su apogeo, siendo aplicada a numerosos sistemas. Pero tenía el problema de no ser relativista.

Dirac arregló en parte esto, llegando en 1927 a una ecuación relativista para los electrones (para las partículas de espín -momento angular intrínseco- 1/2 en general). En esta, la energía de las partículas sigue la ecuación relativista E^2=m^2c^4+p^2c^2. El problema es que esta ecuación da dos soluciones posibles para las energías, \pm \sqrt{m^2c^4+p^2c^2}, separadas por una banda de energías prohibidas. Como los sistemas físicos tienden a ir a menores energías, nada impedía que las partículas no <<cayeran>> a estados de energía cada vez más negativa, radiando una energía infinita. Para evitarlo, Dirac propuso que los estados de energía negativa estaban llenos de un mar de electrones. Si uno de estos electrones absorbía un fotón, podía saltar a las energías positivas. El hueco dejado en las negativas se comportaría a efectos prácticos como un electrón positivo, que se denominó positrón. El positrón fue encontrado en 1931 por Anderson.

Aun así, la interpretación de Dirac no satisfizo a los físicos, que ya estaban desarrollando las primeras teorías cuánticas de campos, QFT (por sus siglas en inglés), teorías cuánticas y también relativistas, donde las partículas se entienden como excitaciones que pueden surgir en los campos tras cuantizarlos. Así, se tienen campos electrónicos, positrónicos, neutrónicos, etc. Con esta teoría, llegó la interpretación de Feynman-Stueckelberg, según la cual los estados de energía negativos se interpretan como estados de energía positivos de una partícula diferente. Nace así el concepto de antipartícula. Las antipartículas se suelen denotar por una barra encima, por ejemplo, si representamos por p al protón, el antiprotón será \overline p, aunque las cargadas se suele únicamente cambiar el símbolo de la carga (si el electrón es e^-, el positrón es e^+). Algunas partículas son sus propias antipartículas, como el fotón: \gamma=\overline{\gamma}.

El último aspecto relevante de esta época es la introducción de las partículas mensajeras como mediadoras de las interacciones. La idea fue propuesta por Hideki Yukawa. Se sabía que debía haber una interacción nueva que mantuviera a los protones y neutrones en el núcleo sobreponiéndose a la repulsión electromagnética, pero con un alcance menor ya que si no toda la materia se aglutinaría en núcleos. Esta fuerza se denominó fuerza nuclear fuerte. Para explicar su corto alcance, Yukawa supuso que la interacción entre nucleones (partículas que componen en núcleo) es como sigue: un nucleón emite una partícula mensajera, que es absorbida por otro núcleo resultando en una interacción atractiva o repulsiva (la fuerza nuclear fuerte debía ser repulsiva a muy cortas distancias).

Intercambio de piones en la interacción entre nucleones. Esto se conoce como diagrama de Feynman, donde se esquematiza el proceso de interacción entre las partículas mediante el intercambio de otras partículas virtuales. No se corresponde con el proceso real, pues realmente surgió como una manera de traducir ecuaciones a diagramas para operar con ellos más fácilmente.

La energía necesaria para crear tal partícula se justifica a partir de la indeterminación \Delta E\Delta t\sim \hbar: se puede violar la conservación de la energía para crear una partícula de energía \Delta E\approx mc^2, siempre que sea por un tiempo \Delta t\approx \hbar/mc^2 (estas partículas son indetectables experimentalmente de manera aislada, por lo que se conocen como partículas virtuales). Suponiendo que tal partícula (en el peor de los casos) viaja a la velocidad de la luz, el tiempo necesario para recorrer el diámetro del núcleo implicaría una masa de entorno a 140\:MeV. Al estar en un rango de masas intermedio de las partículas por entonces descubiertas (pues m_e\approx 0.5\: MeV, y m_p\sim m_n \approx 940\: MeV), estas partículas mensajeras se denominaros mesones (de masa media, en contraposición a leptones para los electrones -por ligeros- y bariones a nucleones -por pesados-).

Es interesante destacar que los mesones (que finalmente se descubrieron como partículas denominadas piones) tienen espín unidad (entero), por lo que son bosones (no cumplen el principio de exclusión de Pauli, en contraposición a los fermiones -espín semientero- que sí lo cumplen). Esta es una característica de las partículas mensajeras.

Años 1950-1970

En los años 50 los físicos estaban aún aprendiendo a domar los infinitos que aparecían en sus teorías.

La electrodinámica cuántica (QED) se había completado la pasada década (con nombres como Feynman, Schwinger y Tomonaga) y era la primera teoría cuántica de campos, aplicable a la interacción de la luz con partículas cargadas. Pero la fuerza fuerte y la fuerza débil (responsable de que los núcleos se desintegraran) se resistían a modelarse como QFT.

Para la fuerza débil se tenía una teoría puntual (sin partículas mediadoras) ideada por Fermi, que había tenido buenos resultados explicando algunos procesos en los que intervenían neutrinos (partículas neutras y con masa muy pequeña que se emitían en los decaimientos beta). Pero para otros procesos arrojaba probabilidades infinitas, lo que era formalmente inaceptable.

Por otro lado, a partir de los años 50 empezaron a detectarse una ingente cantidad de nuevas partículas, lo que pondría patas arriba lo que los físicos conocían. Estas partículas se catalogaron como extrañas, porque solían aparecer por pares. Algunas tenían masas intermedias, por lo que entraban a engrosar el grupo de mesones, y otras masas muy grandes, entrando al grupo de bariones. Pero pronto esta clasificación cambió. Ya que el protón era estable, cuando en principio podría decaer según p\to e^++\gamma, se introdujo el concepto de número bariónico y una ley de conservación asociada al mismo. Así, las partículas se clasificaban en leptones, que no sienten la interacción fuerte, como los electrones, muones y neutrinos) y hadrones, que sí la sienten, y a su vez se dividen en mesones y bariones, siendo estos últimos los que tienen número bariónico no nulo que ha de conservarse en las interacciones.

En los años 60, Gell-Mann y Yuval Ne’eman se dieron cuenta independientemente de que las partículas conocidas se podían agrupar según patrones geométricos. Por ejemplo, los bariones ligeros y los mesones conocidos cuadraban en octetes (hexagonales) y los bariones pesados en decupletes (a esto se le denominó, jocosamente, óctuple camino en alusión al budismo por los octetes). Lo interesante de estos patrones es que están basados en la teoría de grupos, rama de las matemáticas que estudia las transformaciones de simetría, lo que permitía predecir cosas en base a ellos. Por ejemplo, para entonces no se había descubierto aún la partícula del decuplete marcada con ? en la figura inferior. Gell-Mann (al igual que hizo Mendeleev con su tabla periódica, dejando huecos y prediciendo las propiedades de los átomos que ahí irían) predijo su existencia y propiedades como su masa, extrañeza, etc.

Es más, la teoría de grupos explicaba que estos patrones eran representaciones del grupo SU(3) de dimensiones 8 y 10. Pero el grupo SU(3) admite una representación tridimensional que, para mas inri, permite construir el resto de representaciones mediante multiplicaciones de la misma. Y era de suponer que la naturaleza también tendría 3 partículas para tal representación aun más fundamentales que el resto. Estas partículas se denominaron quarks, y venían en tres sabores: el quark up u, el quark down d, y el quark strange, s (se acabarían descubriendo tres más, encanto, c, top, t, y botom, b). La carga de los quarks debía ser fraccionaria (2e/3 para el u, -e/3 para d y s) y mediante agrupamiento compondrían los hadrones (tres quarks los bariones, dos quarks los mesones). Por ejemplo, el contenido de quarks del protón es uud y el del neutrón udd. Al hecho de que los quarks no se puedan observar aislados se le denomina confinamiento, y se debe a que la constante de acoplamiento de la fuerza fuerte (similar a las constantes k y G de electromagnetismo y gravedad, respectivamente) crece con la distancia, por lo que si se intentan separar dos quarks acabamos creando nuevos quarks que se emparejan.

Aun así, surgió un problema: algunas partículas tenían los tres quarks iguales (como la partícula predicha por Gell-Mann, que era \Omega^-=sss). Para explicar que pudiesen formar hadrones y cumplir el principio de exclusión (ya que los quarks tienen espín 1/2), era necesario introducir un nuevo número cuántico, que Greenberg denominó carga de color, que puede tener tres valores. Se fue entendiendo que la fuerza que unía a los quarks se debía a esta carga de color, y la QFT que la explicaba era la cromodinámica cuántica (QCD), cuyos bosones intermediarios se denominaron gluones (de pegamento -glue- en inglés, por ser la fuerza fuerte la más intensa), que también portan (dos) carga(s) de color. Así, la fuerza que permite formar hadrones es la fuerza fuerte mediada por gluones, mientras que la fuerza que une a los núcleos es un remanente de la misma, al igual que la interacción Van der Waals es un remanente de la interacción electromagnética. Además, aun no se tiene una teoría al respecto, pero se sabe que los hadrones han de ser incoloros en el sentido cromático: los bariones tienen que tener tres quarks de distinto color (los tres colores básicos suman blanco), y los mesones dos quarks de colores contrarios (en el sentido de que uno sea azul y el otro anti-azul). Cabe mencionar que la carga de color no tiene que ver con un color real de los quarks, es más bien un nombre desafortunado.

Por último, faltaba una QFT para la interacción débil que fuera renormalizable. Esto lo consiguieron Glashow, Weinberg y Salam (GWS) con su teoría electrodébil. En ella, consiguieron unificar el electromagnetismo con la fuerza débil. De esta unión surgían cuatro bosones, tres de los cuales adquirían masa tras una ruptura espontánea de la simetría y formaban los bosones (vectoriales por tener espín unidad) de la interacción débil: W^{\pm}, \:Z^0 (encontrados en el CERN en los años 80), así como un cuarto bosón sin masa para la interacción electromagnética, el fotón. Los bosones vectoriales son capaces de cambiar el sabor de los quarks, lo que permitía explicar el decaimiento beta como la transformación de un quark d en uno u gracias a un bosón W^- que luego decae en un electrón y un antineutrino.

El mecanismo que dota de masa a los bosones vectoriales, así como al resto de partículas masivas del modelo estándar es el mecanismo de Higgs-Kibble, asociado a un bosón de espín cero que se encontró en 2012 en el CERN, y que GWS introdujeron en su teoría electrodébil.

Modelo Estándar

Se denomina modelo estándar a la teoría que agrupa todos los conocimientos de la física de partículas hasta ahora.

Por un lado tenemos seis sabores de leptones, que se distinguen por su masa y número leptónico. Podemos agruparlos de manera natural en tres generaciones: \{\nu_e, e^-\}, \{\nu_{\mu}, \mu^-\} y \{\nu_{\tau}, \tau^-\}, ordenadas por masa creciente (con la salvedad de que los neutrinos no tienen masa en el modelo estándar, aunque experimentalmente se sabe que su masa es muy pequeña pero no nula).

Por otro tenemos seis sabores de quarks, ordenados también de manera natural en tres generaciones: \{d,u\}, \{s,c\} y \{b,t\}. De nuevo, ordenadas por masa creciente y correspondiendo el primer quark de cada par a carga -1/3 y el segundo a +2/3. Cada quark se presenta en tres colores. Los quarks están confinados formando hadrones, siendo imposibles observarlos de manera aislada (aunque los experimentos de dispersión confirman su presencia), y además los hadrones han de ser incoloros.

Para las interacciones, tenemos un bosón mediador para el electromagnetismo, tres para la fuerza débil, y ocho para la fuerza fuerte.

Además, la teoría tiene una fuerte carga matemática basada en la teoría de grupos. El grupo de simetrías del modelo estándar se puede poner como el producto de los grupos de cada interacción:

    \[SU(3)\times SU(2)\times U(1)\]

donde SU(3) es el grupo de color de la fuerza fuerte, y SU(2)\times U(1) el grupo de la fuerza electrodébil.

Finalmente, se añade el mecanismo de ruptura espontánea de la simetría y el bosón de higgs para dotar de masa a las partículas.

Aun así, se sabe que el modelo estándar no puede ser la última palabra. A parte de desacuerdos experimentales menores, los físicos no están contentos con tener tres generaciones distintas de quarks y leptones, además de tener quarks y leptones por separado, creyendo que deben todos formar parte de un grupo de simetrías mayores que los conecte.

Cosmología

La cosmología es la rama de la física que aborda preguntas como ¿de dónde viene todo lo que nos rodea? ¿Cuál es nuestro lugar en el cosmos? Para ello, plantea el estudio del universo como un todo, tratando de desentrañar su composición, pasado y futuro.

Pese a que todas las civilizaciones han abordado en mayor o menor medida el estudio del cosmos (podríamos hablar de cosmogonías, en el sentido de relatos mitológicos de la creación) no es hasta el siglo XX que la cosmología adquiere las herramientas necesarias para tornarse ciencia. Esto fue gracias a la relatividad general.

Las bases: relatividad general

En 1915, Einstein llega por fin a la teoría adecuada para describir la gravedad respetando su principio de relatividad (todos los observadores son equivalentes a la hora de<<hacer física>>), teoría que aun a día de hoy es la más precisa para describir los fenómenos gravitatorios: la relatividad general.

El corazón de esta teoría es el principio de equivalencia, que nos dice que un campo gravitatorio homogéneo es indistinguible localmente de una aceleración constante. Por ejemplo, si un astronauta estuviera en un cohete pero no lo supiera, y este acelerase de manera constante, bien podría pensar que se halla en un campo gravitatorio (pues los objetos que soltase <<caerían>> de manera acelerada hacia el suelo, solo que desde fuera veríamos que es porque el suelo acelera hacia su encuentro). De este principio se derivan cosas como que la luz pierde energía al escapar de los campos gravitatorios, luego su longitud de onda aumenta (y el tiempo se dilata), que la luz se desvía en campos gravitatorios (confirmado en el famoso experimento de Eddington) o que el perihelio de Mercurio precesa en la cantidad correcta.

Pero desde luego, la relatividad general se mostró particularmente útil al aplicarse al universo como un todo.

El universo en expansión

A inicios del siglo XX los científicos pensaban que el universo debía ser estático (ni siquiera sabían que existían otras galaxias más allá de las nuestras, las que observaban se calificaban de nebulosas). Acorde a tal creencia, Einstein propuso un modelo de universo estático en 1917. Para conseguirlo, tuvo que introducir una constante, conocida como constante cosmológica \Lambda, que más tarde (cuando ya se supo que el universo sí se expandía) calificó como el mayor error de su vida.

Por otro lado, en 1914 Vesto Slipher ya había anunciado medidas de corrimiento al rojo en los espectros de galaxias, indicando que la mayoría se alejaban de nosotros. El corrimiento al rojo (redshift en inglés) es el cambio en la longitud de onda observada experimentalmente respecto a la teóricamente emitida en los espectros de las estrellas, y se mide por un factor z de redshift definido como:

(1)   \begin{equation*} z=\dfrac{\lambda_{obs}-\lambda_{em}}{\lambda_{em}} \end{equation*}

A finales de los años 20, aparecieron varios cosmólogos que desarrollaron modelos de universos en expansión. Las bases de estos modelos relativistas bajo las cuales el universo evoluciona expandiéndose son la suposición de que el universo es homogéneo e isótropo (igual en todo punto y en todas direcciones) a gran escala (de cientos de millones de parsecs). Este hecho observacional se conoce como el principio cosmológico. En concreto, fueron Friedmann y Lemaître quienes llegaron a tales soluciones. Mientras que Friedmann lo hizo como una mera curiosidad matemática, Lemaître sí creía que el universo se comportaba así, pero no tuvo gran repercusión (incluso Einstein le dijo que su modelo le parecía abominable).

Pero en 1929, Edwin Hubble descubrió que la distancia a las galaxias aumentaba. En concreto, que estas se alejaban con una velocidad proporcional a su distancia:

(2)   \begin{equation*} v=H_0 D \end{equation*}

donde H_0 es una constante (realmente no, el subíndice 0 índica que consideramos su valor actual) cuyo valor es tema de debate (tensión de Hubble), pero ronda los 70\:km \:s^{-1} Mpc^{-1}. Es decir, que dos galaxias separadas 1\: Mpc\sim 3.3\cdot 10^6\: ly se alejarán a una velocidad relativa de 70 \:km/s. Aun así, Hubble nunca relacionó su ley empírica con la expansión cósmica.

Para más inri, Eddington demostró que la relatividad general no permitía tener universos estáticos: cualquier mínima perturbación (como la aniquilación de un par partícula-antipartícula) llevaría a una expansión o contracción exponencial. Así que había que asumir que nuestro universo no era estático, y experimentalmente parecía que estaba en expansión.

Pero claro, si extrapolamos hacia el pasado la expansión, todos los objetos del universo debían haber estado muy juntos, lo que significa que el universo ¡tuvo un comienzo! De hecho, la propia ley de Hubble nos permite estimar la edad del universo (de manera no totalmente rigurosa). Si pensamos que el Big Bang dotó a las galaxias de su velocidad actual, el tiempo que han tardado en recorrer una distancia r a velocidad v=H_0 r viene dado por:

    \[t=\dfrac{r}{H_0 r}=\dfrac{1}{H_0}\approx 1.3\cdot 10^{10} \:\text{años}\]

lo que cuadra (por ser mayor) con las mediciones de la vida de las estrellas más longevas conocidas.

El origen del universo

Aparte de extrapolar la expansión hacia el pasado, los cosmólogos disponían de otras pistas. Por ejemplo, se sabía que el hidrógeno y helio no podía haberse formado en las estrellas.

Lemaître sugirió la existencia de una fase inicial muy caliente al comienzo del universo, que llamo átomo primordial, y permitiría formar los núcleos de los átomos más ligeros. En los años 40, George Gamow y otros extendieron la idea de que el universo comenzara a partir de una gran explosión que hizo que se expandiera hasta alcanzar su tamaño actual, y propusieron que conforme su temperatura (ergo su energía) descendiera, en cierto momento la luz dejaría de tener energía para ionizar los átomos y se debía desacoplar de la materia, pudiendo ser detectada hoy día.

Dicha idea fue ridiculizada radiofonicamente por Fred Hoyle, introduciendo el termino Big Bang para denigrarla, término que al final se acuñó conforme la idea se corroboraba. El hallazgo que más apoyo brindó a la idea fue el descubrimiento (por accidente) de la radiación residual del universo primordial, la radiación cósmica de microondas (CMB por sus siglas en inglés) por parte de Penzias y Wilson, que además permitió desechar otros modelos.

Actualmente contamos con una teoría cosmológica que ha sobrevivido muchos test y se sigue afinando, denominada modelo cosmológico estándar \bold{\Lambda}CDM. Esta teoría permite explicar con un alto grado de precisión aspectos como las anisotropías del CMB, la distribución de las grandes estructuras, la distancia a las supernovas, y las abundacias relativas de los elementos ligeros. Para explicar qué significan las siglas, debemos hacer una disgresión.

Por un lado, se sabe que en las galaxias debe haber mucha más materia de la que se puede observar a simple vista, pues las curvas de rotación de las galaxias no cuadran con la materia que se observa. Para ello se introduce la materia oscura, un tipo de materia que solo interactúa (en principio) gravitatoriamente, y que supera en contenido a la materia ordinaria o bariónica en proporción de 5 a 1. El modelo cosmológico estándar considera que la parte material del universo se puede modelar como materia oscura fría (Cold Dark Matter), en el sentido de que sus energías no son relativistas.

Por otro, se sabe desde finales del siglo XX que el universo se encuentra en expansión acelerada. Para explicarlo es necesario introducir energía oscura, un tipo de energía con efectos gravitatorios repulsivos (la constante cosmológica es un ejemplo de posible energía oscura), y para cuadrar los datos es necesario que la energía oscura constituya alrededor de un 70% del contenido energético del universo.

En base a lo anterior, es realmente remarcable que toda la física de partículas descrita en el tema ¡solo sirva para explicar el 5% del contenido energético del universo!

Por completar, añadamos una breve descripción de las sucesivas etapas al comienzo del universo, al menos hasta donde nos permite extrapolar el modelo \LambdaCDM (para poder explicar más atrás, es necesaria una teoría cuántica de la gravedad -o incluso una teoría que unifique todas las interacciones-). El universo comienza con el Big Bang, y conforme se expande se enfría y se siguen los siguientes procesos:

  • En torno al tiempo de Planck, t_p\sim 10^{-43} s tras el Big Bang, la fuerza gravitatoria se desacopla del resto, y entramos en la era de la gran unificación (las otras tres interacciones siguen unidas). No hay distinción entre quarks y leptones.
  • Poco después, en torno a t\sim 10^{-35} s, la fuerza fuerte se separó. Leptones y quarks ya no son intercambiables, y los quarks se confinan: comienza la era hadrónica. Especulativamente, se cree que por este momento tuvo lugar una época inflacionaria en la que el tamaño del universo creció exponencialmente en muy poco tiempo (esto resuelve problemas como el equilibrio térmico del CMB entre regiones desconectadas causalmente así como que el Universo parezcla globalmente plano). La inflación cesó, y el universo constaba de una sopa de leptones y hadrones (con partículas y antipartículas en números aproximadamente iguales).
  • Alrededor del microsegundo (10^{-6} s) la temperatura ha descendido tanto que no se pueden seguir creando pares nucleón-antinucleón, solo pueden seguir aniquilándose entre ellos. Debían haber más de un tipo que del otro para explicar el hecho de que actualmente exista materia bariónica, y es un reto explicar esta asimetría materia-antimateria. Aquí comienza la era leptónica por la sobreabundancia de leptones frente a bariones.
  • Cuando t\sim 1 s, la temperatura cayó para frenar ahora la producción de pares electrón-positrón, pudiendo ya solo aniquilarse y, al igual que con los bariones, sobrar un exceso de electrones frente a positrones. Alrededor de t\sim 10 s el universo entra en la era de la radiación, con sus componentes mayoritarios fotones y neutrinos (se dice que el universo estaba dominado por la radiación).
  • Cuando t\sim 2-3 min, comenzaron a ocurrir las fusiones nucleares (nucleosíntesis), y se pueden hasta llegar a explicar las abundancias relativas de los núcleos más ligeros. Al poco la temperatura cayó tanto que las fusiones cesaron, reanudándose millones de años después en las estrellas.
  • Cuando t\sim 380000 años, la energía de los fotones cayó por debajo de la de ionización de los átomos, entrando en la época de recombinación. Los fotones se desacoplaron de la materia, y el universo dejó de ser opaco (por eso no podemos ver con radiación electromagnética periodos anteriores a la recombinación). Entre tanto, el universo pasó a estar dominado por materia.
  • Ahora se sabe que en torno a t\sim 5\cdot 10^9 la densidad de energía asociada a la materia cayó lo suficiente para que el universo comenzase a estar dominado por la energía oscura, cuyo efecto repulsivo hace que la expansión del universo comenzase a acelerarse.

Conclusión

En esta entrada hemos revisado lo que sabemos acerca de la física de partículas y la cosmología. Aun quedan muchas preguntas por resolver, tanto para ese 5% que constituye la materia que nos forma como para el restante 95% del que apenas empezamos a aprender.

Aunque el origen del universo es aun difuso, sí podemos saber con cierta seguridad qué nos depara el futuro: el universo parece globalmente plano y la expansión se está acelerando. Por lo tanto, seguirá expandiéndose mientras continua enfriándose, las estrellas se apagarán, y los agujeros negros se evaporarán. La radiación perderá toda su energía y el universo se sumirá en una oscuridad total para el resto de la eternidad.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.