sexta-feira, 8 de abril de 2016

Gravedad Cuántica De Bucles



La gravedad cuántica de bucles o de lazos (LQG, por Loop Quantum Gravity), o también gravedad cuántica de recurrencias, es una teoría de gravedad cuántica formulada por Abhay Ashtekar en 1986, que mezcla las teorías aparentemente incompatibles de la mecánica cuántica y la relatividad general. Como teoría de la gravedad cuántica, es el competidor principal de la teoría de las cuerdas, aunque quienes sostienen esta última exceden en número a quienes sostienen la teoría de bucles por un factor, aproximadamente, de 10 a 1.

Esta teoría sugiere que el espacio puede tratarse como una fina red tejida con un número finitos de lazos o bucles cuantizados que se denomina red de espín (spin network, SN). Si incorporamos el tiempo a estas redes entonces tendremos una espuma de espín (spin foam). En otras palabras, LQG plantea que a escalas muy pequeñas (a distancia de Planck), el espacio-tiempo está formado por una red de lazos entretejidos en una especie de espuma. Defiende que el espacio no es suave y continuo sino que consta de trozos indivisibles de 10-35 metros de diámetro que constituyen una suerte de "átomos" de espacio-tiempo. Estos "átomos" del espacio-tiempo forman una malla densa en cambio incesante que, en condiciones normales, nunca apreciaremos: el espaciado dentro de la malla es tan pequeño que nos parece ser un continuo. La LQG define el espacio-tiempo como una red de enlaces abstractos que conecta estos volúmenes de espacio, como si fueran los nodos enlazados de un grafo. Las secuencias de enlaces o aristas conforman lazos, los cuales constituyen los bucles de la LQG.

Aunque es una teoría aún por terminar y no se sabe aún si es correcta (se desconoce incluso su dinámica), ya ha cosechado algunos éxitos. Versiones simplificadas de esta teoría han permitido incluso explorar el estado previo al Big Bang, contándonos qué hubo “antes”. LQG es el resultado del esfuerzo por formular una teoría cuántica substrato-independiente. La teoría topológica de campos cuánticos proporcionó un ejemplo, pero sin grados de libertad locales, y solamente finitos grados de libertad globales. Esto es inadecuado para describir la gravedad, que incluso en el vacío tiene grados de libertad locales, según la relatividad general.

Éxitos de la LQG

Los éxitos principales de la LQG son:

Implica una cuantización no perturbativa de la geometría del espacio 3D, con operadores cuantizados de área y de volumen.
La LQG puede librarse de los infinitos y de las singularidades presentes en la relatividad general cuando se aplica al Big Bang. Según esta teoría, las propias unidades de espacio sufren un análogo del principio de exclusión de Pauli y no pueden ocupar el mismo estado cuántico (el mismo punto de espacio). Por tanto, existe un límite de compresión que no se puede cruzar y las singularidades simplemente no se dan nunca. Esto significa que siempre se puede predecir la evolución de un sistema de este tipo. Mientras que las herramientas estándares de la física colapsan, la LQG ha proporcionado modelos internamente consistentes de un Big Bounce en el tiempo que precedió al Big Bang. Cuando se importan las técnicas de la LQG a la cosmología se encuentra que la singularidad inicial del universo, el punto inicial del Big Bang, no es un punto especial.
Permite el cálculo de la entropía de agujeros negros plausibles en astrofísica. La ley de Bekenstein-Hawking indica que la entropía de un agujero negro es A/4, pero para encontrar el coeficiente 1/4 hay que fijar un parámetro libre de la teoría para acomodar este valor, y esto parece demasiado ad hoc. No obstante, los últimos resultados indican actualmente que no hay que fijar dicho parámetro para encontrar la proporcionalidad correcta entre entropía y área en un agujero negro.
Representa una prueba de facto de que no es necesario tener una teoría de Todo para tener un candidato razonable para una teoría cuántica de la gravedad.

Defectos de la LQG

Los defectos principales de LQG son:

El principal problema de la LQG es que no se sabe si cuando revertimos el proceso de convertir la relatividad general en una teoría cuántica volvemos a obtener relatividad general.
No tiene todavía un cuadro de la dinámica, sino solamente de la cinemática.
No es todavía capaz de incorporar la física de partículas, y por tanto no puede considerarse por el momento una teoría unificadora. La LQG puede aceptar cualquier tipo de campo no gravitatorio viviendo sobre las redes de espín. Así que no hay restricciones, ni unificaciones. Sin embargo, hay una unificación sutil en la LQG, ya que en esta teoría la gravedad se formula de manera idéntica al resto de interacciones del modelo estándar de la física de partículas.
No es capaz todavía de recuperar el límite clásico de acuerdo con el principio de correspondencia.

La historia de la LQG

La relatividad general es la teoría de la gravitación publicada por Albert Einstein en 1915. Según la relatividad general, la fuerza de la gravedad es una manifestación de la geometría local del espacio-tiempo. Matemáticamente, la teoría es modelada según la geometría métrica de Riemann, pero el grupo de Lorentz de las simetrías del espacio-tiempo (un ingrediente esencial de la propia teoría de Einstein de la relatividad especial) sustituye al grupo de simetrías rotatorias del espacio. La LQG hereda esta interpretación geométrica de la gravedad, y postula que una teoría cuántica de la gravedad es fundamentalmente una teoría cuántica del espacio-tiempo.

En los años 1920 el matemático francés Élie Cartan formuló la teoría de Einstein en el lenguaje de fibrados y conexiones, una generalización de la geometría de Riemann a la cual Cartan hizo contribuciones importantes. La así llamada teoría de Einstein-Cartan de la gravedad no solamente reformuló sino también generalizó la relatividad general, y permitió espacio-tiempos con torsión así como con curvatura. En la geometría de Cartan de fibrados el concepto de transporte paralelo es más fundamental que el de distancia, la pieza central de la geometría de Riemann. Un similar desplazamiento conceptual ocurrió entre el intervalo invariante de la relatividad general de Einstein y el transporte paralelo en la teoría Einstein-Cartan.

En los años 1960 el físico Roger Penrose exploró la idea del espacio presentándose como una estructura combinatoria cuántica. Sus investigaciones dieron lugar al desarrollo de las redes de espín (Spin Networks).3 Como ésta era una teoría cuántica del grupo de rotaciones y no del grupo de Lorentz, Penrose desarrolló los twistores.

En 1986 el físico Abhay Ashtekar reformuló las ecuaciones del campo de la relatividad general de Einstein usando las que han venido a ser conocidas como las variables de Ashtekar, un enfoque particular de la teoría de Einstein-Cartan con una conexión compleja. Usando esta reformulación, él pudo cuantificar la gravedad usando técnicas bien conocidas de la teoría cuántica del campo de gauge. En la formulación de Ashtekar, los objetos fundamentales son una regla para el transporte paralelo (técnicamente, una conexión) y un marco coordenado (llamada tétrada) en cada punto.

La cuantización de la gravedad en la formulación de Ashtekar fue basada en los bucles de Wilson, una técnica desarrollada en los años 1970 para estudiar el régimen de interacción fuerte de la cromodinámica cuántica. Es interesante, en este contexto, el que se conocía que los bucles de Wilson tenían "mal comportamiento" en el caso de la teoría estándar cuántica del campo en el espacio de Minkowski (i. e. chato), y fue así que no proporcionó una cuantización no perturbativa de QCD. Sin embargo, como la formulación de Ashtekar era substrato-independiente, era posible utilizar los bucles de Wilson como la base para la cuantización no perturbativa de la gravedad. Alrededor de 1990 Carlo Rovelli y Lee Smolin obtuvieron una base explícita de los estados de la geometría cuántica, que resultaron venir etiquetados por los redes de espín de Penrose. En este contexto, los redes de espín se presentaron como una generalización de los bucles de Wilson necesaria para ocuparse de los bucles que se intersecan mutuamente. Matemáticamente, los SN (las redes de spin) se relacionan con la teoría de representación de grupos y se pueden utilizar construir invariantes de nudo tales como el polinomio de Jones.

Operadores de área y volumen
Spin foams

Bucles de Wilson y Redes de Espín

El desarrollo de una teoría cuántica de campos de una fuerza da lugar invariablemente a respuestas infinitas (y por lo tanto inútiles). Los físicos han desarrollado técnicas matemáticas (renormalización) para eliminar estos infinitos que funcionan con las fuerzas nucleares fuertes y débiles y con las electromagnéticas pero no con la gravedad.

Las maneras más obvias de combinar los dos (tales como tratar la gravedad como simplemente otro campo de partículas) conduce rápidamente a lo qué se conoce como el problema de la renormalización. Las partículas (portadoras) de la gravedad se atraerían y, si se agregan juntas todas las interacciones, se termina con muchos resultados infinitos que no se puedan cancelar fácilmente. Esto contrasta con la electrodinámica cuántica donde las interacciones dan lugar a algunos resultados infinitos, pero éstos son lo suficientemente escasos en número como para ser eliminables via renormalización.

Cuando se fuerza a la relatividad general a ser cuántica, la LQG, como la teoría de campos, afirma que sólo puedes obtener información en líneas de campo, pero en este caso las líneas son cerradas, son círculos y de ahí viene el nombre de bucle o lazo (técnicamente bucles de Wilson). Esto implica una “discretización” efectiva del espacio-tiempo, en el que ya no se puede sondear en cualquier sitio. Sólo tiene sentido hablar de gravedad (y por tanto de espacio-tiempo por donde se propagan partículas y energías) en esos lazos o bucles.

Los lazos no están en ningún sitio, sino que ellos mismos definen el espacio-tiempo por el cual la materia se propaga. No tiene sentido hablar de un “espacio” en el que están los lazos, ni de lo que hay fuera de los mismos. Sólo tiene sentido hablar de dichos lazos. A nivel cuántico, un estado cuántico del espacio está dado por una configuración de dichos lazos.

Pronto se descubrió que este procedimiento era ciertamente complicado a la hora de hacer cálculos, y para simplificarlos se utilizó las redes de espín (fueron introducidos por Roger Penrose para dar una definición cuántica del espacio).

Las redes de espín son simplemente grafos, conjunto de líneas unidas en nodos, donde cada línea del grafo tiene una etiqueta que puede tomar valores 1/2, 1, 3/2, 2, 5/2,… Estas líneas tienen una orientación, es decir, podemos decir si la línea “entra” a un nodo o “sale” del nodo dado. Además, los nodos también tienen información. En ellos hay un objeto matemático que transforma los valores de las etiquetas entrantes en los valores de las etiquetas salientes, correspondientes a las líneas entrantes y salientes de un nodo dado. Esta es una característica esencial de la teoría. El punto esencial es que dado un conjunto de lazos siempre se puede encontrar una red de espín equivalente. Los estados cuánticos del espacio-tiempo, o de la geometría siguiendo la teoría de la relatividad general, vienen dados por una red de espín (conjunto de líneas unidas en los nodos y las etiquetas de cada línea). Es por eso que a veces se dice que las redes de espín representan un estado cuántico de la geometría y por eso a la LQG también se le llamar Geometría Cuántica.

El desarrollo de una teoría cuántica de la gravedad debe lograrse por diferentes medios que los que fueron utilizados para las otras fuerzas. En la LQG, la textura del espacio-tiempo es una red espumosa de lazos que obran recíprocamente y que son descritos matemáticamente por redes de espín. Estos lazos son de alrededor de 10-35 metros de tamaño, llamada Escala de Planck. Los lazos se anudan juntos con la formación de bordes, superficies y vértices, al igual que las pompas de jabón ensamblándose juntas. Es decir, el espacio-tiempo mismo está cuantificado. El dividir un lazo, si se logra, forma dos lazos, cada uno con el tamaño original. En LQG, las redes de espín representan los estados cuánticos de la geometría del espacio-tiempo relativo. Mirado de otra manera, la teoría de la relatividad general de Einstein es (como Einstein predijo) una aproximación clásica de una geometría cuantizada.

Características de la LQG

LQG y el límite clásico

Cualquier teoría exitosa de la gravedad cuántica debe proporcionar predicciones físicas que emparejen de cerca la observación conocida, y reproducir los resultados de la teoría de campos cuánticos y de la gravedad. Hasta la fecha la teoría de Einstein de la relatividad general es la teoría más acertada de la gravedad. Se ha mostrado que cuantificar las ecuaciones del campo de la relatividad general no recuperará necesariamente esas ecuaciones en el límite clásico. Sigue siendo confuso si LQG da los resultados que emparejan la relatividad general en el dominio de las bajas energías, macroscópico y astronómico. Hasta la fecha, LQG ha demostrado dar resultados concordantes con relatividad general en 1+1 y 2+1 dimensiones. Hasta la fecha, no se ha demostrado que LQG reproduzca gravedad clásica en 3+1 dimensiones. Así, sigue siendo confuso si LQG combina con éxito la mecánica cuántica con relatividad general.

Cosmología cuántica de la LQG

Un principio importante en la cosmología cuántica al cual LQG adhiere, es que no hay observadores exteriores al universo. Todos los observadores deben ser una parte del universo que están observando. Sin embargo, porque los conos de luz limitan la información que está disponible para cualquier observador, la idea platónica de verdades absolutas no existe en un universo de LQG. En su lugar, existe una consistencia de verdades en que cada observador, si es veraz, reportará resultados consistentes pero no necesariamente iguales.

Otro principio importante gira alrededor de la constante cosmológica, que es la densidad de la energía inherente a un vacío. Ha habido propuestas para incluir una constante cosmológica positiva en LQG que implicaba un estado designado como el estado de Kodama (por Hideo Kodama). Algunos han argumentado, por analogía con otras teorías, que este estado es no-físico. Este tema sigue sin resolverse.

El Big Bang en la LQG

La LGQ se ha asociado a un modelo en el que el Big Bang es precedido por una o varias fases previas de colapso y expansión, en una especie de 'rebote' llamado Big Bounce (Gran Rebote). LGQ permite hacer cálculos y computar lo que puede haber pasado antes del Big Bang, e indican de forma rotunda que antes del Big Bang hubo otro universo que se contrajo y luego, al rebotar, dio lugar al nuestro. Según este modelo cosmológico simplificado basado en LGQ, si retrocedemos en el tiempo, el Universo se hace cada vez más denso hasta que no se puede comprimir más, pasándose luego a una fase de expansión hacia atrás en el tiempo (colapso en el sentido del tiempo habitual).

Los "átomos" del espacio-tiempo forman una malla densa que cambia incesantemente. A gran escala, su dinámica da lugar a una evolución del universo conforme a lo que dicta la relatividad general. Pero cuando el espacio-tiempo está abarrotado de energía, como ocurrió en el Big Bang, la estructura fina del espacio-tiempo constituye un factor a tener en cuenta y las predicciones de la LQG difieren de las de la relatividad general. La gravedad, en condiciones normales, es una fuerza de atracción. Pero, según se desprende de la LQG, la estructura atómica del espacio-tiempo modifica la naturaleza de la gravedad a densidades de energía muy altas y la convierte en repulsiva.Un espacio cuántico tiene una capacidad finita de almacenar energía, al igual que una esponja porosa tiene una capacidad finita de absorber agua. Cuando las densidades energéticas son demasiado grandes, aparecen las fuerzas de repulsión. La relatividad general considera, por el contrario, que el espacio, además de ser continuo, puede almacenar cantidades ilimitadas de energía abriendo la puerta a la existencia de singularidades (como los agujeros negros o el Big Bang). Debido al cambio cuántico gravitatorio del balance de fuerzas, en gravedad de bucles no puede aparecer ninguna singularidad, ningún estado de densidad infinita.Según este modelo, la materia del universo temprano tuvo una densidad que, aunque enorme, era finita y equivalente a un billón de soles concentrados en el tamaño de un protón. En situaciones tan extremas, la gravedad actuó de modo repulsivo y expandió el espacio. A medida que la densidad se relajaba, la gravedad pasó a ser la fuerza de atracción que todos conocemos. Esta gravedad repulsiva inicial provocó la expansión del espacio a un ritmo acelerado, tal como predicen las teorías de la inflación, las cuales, hoy por hoy, añaden la inflación de forma ad hoc para ajustarse a las observaciones.

Por tanto, nuestro universo sería el resultado del rebote de un universo previo que colapsó bajo los efectos de la gravedad sin pasar por una singularidad. Las preguntas que surgen son muchas: ¿qué era ese universo? ¿era igual que el nuestro pero colapsando? ¿de donde surgió? ¿tiene nuestro universo memoria sobre el universo previo?. Todas estas preguntas se están investigando y no hay una respuesta clara. Quizás el estudio en detalle de la radiación cósmica de fondo nos dé pistas al respecto y nos diga si esta teoría va por buen camino. Permitiría someter esta teoría al escrutinio experimental, y corroborar o refutar el modelo de evolución del universo que se infiere de la LQG. Posiblemente esta teoría cosmológica basada en LQG, que se conoce como LQC, afecte a la teoría inflacionaria, y por tanto podrá ser discriminada por observaciones cosmológicas que cada día son más precisas.

LQG vs teoría de supercuerdas

La LQG es una hipótesis más conservadora que la teoría de supecuerdas que, partiendo de las ecuaciones de Einstein, también intenta fusionar las teorías de la relatividad y la mecánica cuántica, aunque de una forma menos espectacular. La LQG no considera más dimensiones que las habituales y trata de incorporar la relatividad general. Conserva muchas características de la relatividad general y a la vez cuantiza el propio espacio-tiempo.

En la teoría de supercuerdas, hay 10500 universos posibles que se dan como resultado de explicar los aparentes valores arbitrarios del universo, tales como la longitud de Planck o la masa y carga del electrón.

Por otro lado, la teoría de supercuerdas se desarrolla en un substrato espacio-temporal fijo, y no atiende a este substrato para explicar el desarrollo y comportamiento de las cuerdas. La LQG sí lo hace y por ello resulta un modelo que contiene, de una forma mucho más completa, los aspectos cruciales sobre materia, energía, espacio y tiempo que han de conjugarse para crear una Teoría del Todo. Dicho de otro modo: la teoría de supercuerdas desarrolla su base en un marco espacio-temporal fijo y que le es ajeno (es substrato-dependiente). La LQG incluye ese marco en su modelo teórico (es substrato-independiente).

Estas teorías cuánticas de la gravedad surgieron desde dos puntos de vista de la física teórica actual. La teoría de supercuerdas emergió de la comunidad de la física de partículas y fue formulada originalmente como una teoría que dependía de un espacio-tiempo de base, plano o curvado, que obedecía las ecuaciones de Einstein. Ahora se sabe que sólo es una aproximación de una teoría subyacente misteriosa (Teoría M), todavía no bien formulada y que, por tanto, puede ser substrato-independiente o puede no serlo. Por el contrario, la LQG fue formulada con independencia del substrato. Sin embargo, es difícil demostrar que la gravedad clásica emerge de la teoría.

Por esta razón, la LQG y la teoría de supercuerdas parecen complementarias. La teoría de supercuerdas recupera fácilmente la gravedad clásica, pero carece de una descripción fundamental del substrato espacio-temporal. La LQG es una teoría independiente del substrato, pero el límite clásico todavía no se ha probado manejable. Esto ha hecho creer a algunos físicos teóricos que la LQG y la teoría de supercuerdas pueden ser dos aspectos de una misma teoría subyacente y cuya síntesis conducirá a una teoría completa de la gravedad cuántica. Por el momento, tan sólo es una especulación con poca evidencia, pero ahora existe una esperanza para la unificación de ambas teorías. Hasta hace poco se creía que la LQG no podía ser formulada en un espacio-tiempo con un número de dimensiones mayores de cuatro. Pero en 2011, se descubrió una versión de la teoría que permite extender las técnicas de LQG a un número arbitrario de dimensiones (Supergravedad cuántica de bucles, o LQSG por Loop Quantum Supergravity).Además permite introducir la supersimetría en este contexto en dimensiones extra. Esto puede ser útil para ver si la LQG y la teoría de supercuerdas tienen algún punto en común.

Posibles pruebas experimentales de LQG

LQG puede hacer hipótesis que pueden ser experimentalmente verificables en el futuro cercano.

La trayectoria tomada por un fotón con una geometría discreta del espacio-tiempo sería diferente de la trayectoria tomada por el mismo fotón a través de un espacio-tiempo continuo. Normalmente, tales diferencias deben ser insignificantes, pero Giovanni Amelino-Camelia aclaró que los fotones que han viajado desde galaxias distantes pueden revelar la estructura del espacio-tiempo. LQG predice que los fotones más energéticos deben viajar levemente más rápido que los fotones menos energéticos. Este efecto sería demasiado pequeño para observarlo dentro de nuestra galaxia. Sin embargo, la luz que nos alcanza como explosiones de rayos gamma desde otras galaxias deben manifestar desplazamiento espectral variable en el tiempo. Es decir las explosiones gammas distantes deben aparecer más azuladas al comenzar y terminar más rojizas. Alternativamente, los fotones altamente enérgicos de ráfagas de rayos gamma deben llegar algo más pronto que los menos enérgicos. Los físicos de LQG aguardan con impaciencia resultados de los experimentos espaciales de espectrometría de rayos gamma -- una misión lanzada en febrero de 2007.

Teóricos de la LQG y áreas relacionadas

Teóricos de LQG:

Abhay Ashtekar
John Baez
Julian Barbour
John Barrett
Martin Bojowald
Alejandro Corichi
Louis Crane
Laurent Freidel
Rodolfo Gambini
Giorgio Immirzi
Christopher Isham
Kirill Krasnov
Jerzy Lewandowski
Renate Loll
Fotini Markopoulou-Kalamara
Donald Marolf
Jorge Pullin
Michael Reisenberger
Carlo Rovelli
Lee Smolin
Thomas Thiemann
José Antonio Zapata

Gravedad Cuántica



La gravedad cuántica es el campo de la física teórica que procura unificar la teoría cuántica de campos, que describe tres de las fuerzas fundamentales de la naturaleza, con la relatividad general, la teoría de la cuarta fuerza fundamental: la gravedad. La meta es lograr establecer una base matemática unificada que describa el comportamiento de todas las fuerzas de la Naturaleza, conocida como la Teoría del campo unificado.

Una teoría cuántica de la gravedad debe generalizar dos teorías de supuestos y formulación radicalmente diferentes:

La teoría cuántica de campos que es una teoría no determinista (determinismo científico) sobre campos de partículas asentados en el espacio-tiempo plano de la relatividad especial (métrica de Minkowski) que no es afectado en su geometría por el momento lineal de las partículas.
La teoría de la relatividad general que es una teoría determinista que modela la gravedad como curvatura dentro de un espacio-tiempo que cambia con el movimiento de la materia y densidades energéticas.

Teorías gauge

Las maneras más obvias de combinar mecánica cuántica y relatividad general, sin usar teorías de gauge, tales como tratar la gravedad como simplemente otro campo de partículas, conducen rápidamente a lo que se conoce como el problema de la renormalización. Esto está en contraste con la electrodinámica cuántica y las otras teorías de gauge que son en general renormalizables y donde el cálculo perturbativo mediante diagramas de Feynman pueden ser acomodados para dar lugar a resultados finitos, eliminando los infinitos divergentes asociados a ciertos diagramas vía renormalización.

En cuanto a los detalles formales, hay que señalar que las teorías cuánticas de campos exitosas como la teoría electrodébil (que aúna la interacción electromagnética y la débil) y la cromodinámica cuántica (que describe la interacción fuerte) en forma de teorías de gauge usan un grupo de gauge finito, pero que el tratamiento del campo gravitatorio como campo de gauge requeriría un grupo de gauge infinito, ya que el conjunto de difeomorfismos (Ver: Homeomorfismo) del espacio-tiempo no es un grupo finito.

Ámbitos disjuntos de la MC y la TRG

Otra dificultad viene del éxito de la mecánica cuántica y la relatividad general. Ambas han sido altamente exitosas y no hay fenómeno conocido que contradiga a las dos. Actualmente, el problema más profundo de la física teórica es armonizar la teoría de la relatividad general (TRG), con la cual se describe la gravitación y se aplica a las estructuras en grande (estrellas, planetas, galaxias), con la Mecánica cuántica (MC), que describe las otras tres fuerzas fundamentales y que actúan en la escala cuántica.

Las energías y las condiciones en las cuales la gravedad cuántica es probable que sea importante son hoy por hoy inaccesibles a los experimentos de laboratorio. El resultado de esto es que no hay observaciones experimentales que proporcionen cualquier indicación en cuanto a cómo combinar las dos.

La lección fundamental de la relatividad general es que no hay substrato fijo del espacio-tiempo, según lo admitido en la mecánica newtoniana y la relatividad especial. Aunque fácil de agarrar en principio, éste es la idea más difícil de entender sobre la relatividad general, y sus consecuencias son profundas y no completamente exploradas aún en el nivel clásico. Hasta cierto punto, la relatividad general se puede considerar como una teoría totalmente relacional, en la cual la única información físicamente relevante es la relación entre diversos acontecimientos en el espacio-tiempo.

Espacio-tiempo cuántico

Por otra parte, los físicos cuánticos han dependido desde su invención de una estructura (no-dinámica) fija como substrato. En el caso de la mecánica cuántica, es el tiempo el que se da y no es dinámico, exactamente como en la mecánica clásica newtoniana. En teoría relativista de campos cuánticos, lo mismo que en teoría clásica de campos, el espacio-tiempo de Minkowski es el substrato fijo de la teoría. Finalmente, la teoría de las cuerdas, comenzada como una generalización de la teoría de campos cuánticos donde, en vez de partículas puntuales, se propagan en un fondo fijo del espacio-tiempo objetos semejantes a cuerdas.

La teoría cuántica de campos en un espacio (no minkowskiano) curvo, aunque no es una teoría cuántica de la gravedad, ha mostrado que algunas de las asunciones de la base de la teoría de campos cuánticos no se pueden transportar al espacio-tiempo curvado, aún menos, entonces, a la verdadera gravedad cuántica. En particular, el vacío, cuando existe, se demuestra dependiente de la trayectoria del observador en el espacio-tiempo. Asimismo, el concepto de campo se ve como fundamental sobre el concepto de partícula (que se presenta como una manera conveniente de describir interacciones localizadas).

Históricamente, ha habido dos reacciones a la inconsistencia evidente de las teorías cuánticas con la substrato-independencia obligatoria de la relatividad general. El primero es que la interpretación geométrica de la relatividad general no es fundamental, sino apenas una cualidad emergente de una cierta teoría substrato-dependiente. Esto se remarca explícitamente, por ejemplo, en el texto clásico Gravitation and Cosmology de Steven Weinberg. La visión opuesta es que la independencia del substrato es fundamental, y la mecánica cuántica precisa generalizarse a contextos donde no hay tiempo especificado a-priori. El punto de vista geométrico es expuesto en el texto clásico Gravitation, por Misner, Thorne y Wheeler. Es interesante que dos libros escritos por gigantes de la física teórica expresando puntos de vista totalmente opuestos del significado de la gravitación fueran publicados casi simultáneamente al comienzo de los años 1970. Simplemente, se había alcanzado un callejón sin salida. No obstante, desde entonces el progreso ha sido rápido en ambos frentes, conduciendo en última instancia a ST (String Theory o teoría de cuerdas) y a LQG.

Requerimientos de una teoría cuántica de la gravedad

El enfoque general tomado en derivar una teoría de la gravedad cuántica es asumir que la teoría subyacente será simple y elegante y entonces mirar las teorías actuales buscando las simetrías y las indicaciones sobre cómo combinarlas elegantemente en una teoría abarcadora. Un problema con este enfoque es que no se sabe si la gravedad cuántica será una teoría simple y elegante.

Tal teoría se requiere para entender los problemas que implican la combinación de masas o de energías muy grandes y de dimensiones muy pequeñas del espacio, tales como el comportamiento de los agujeros negros, y el origen del universo.

Una teoría cuántica de la gravitación debería poder ayudarnos a resolver varios problemas físicos no resueltos como:

El problema de las singularidades, que nos explique cual es el fin último de una partícula que cae en un agujero negro siguiendo una geodésica que acaba en una "singularidad" espaciotemporal y cuál es la naturaleza física de las singularidades.
El problema del origen del universo, que explique el proceso conocido como inflación cuántica que al parecer podría explicar también el problema cosmológico del horizonte.
Roger Penrose ha propuesto algunos hechos que la teoría cuántica de gravitación podría (o debería) explicar:

El problema del colapso de la función de onda cuántica: como es sabido, la mecánica cuántica postula dos clases de evolución temporal. De un lado tenemos una evolución temporal suave, determinista y lineal dada por una ecuación tipo ecuación de Schrödinger (cuando el sistema se deja evolucionar sin afectarlo mediante ninguna medida), tal como se recoge en el postulado V . Y de otro lado tenemos una evolución abrupta, aleatoria y no lineal recogida en el postulado IV y que ocurre cuando hacemos una medida de una magnitud física del sistema. De acuerdo con Penrose, estos dos tipos de evolución podrían ser casos límites de un mismo tipo de evolución no lineal que en ciertas ocasiones se presenta como lineal o cuasi-lineal, quedando así explicada la ambigüedad de la teoría cuántica sobre cuándo realmente ocurre o no una medida.
La asimetría temporal relacionada con la segunda ley de la termodinámica que Penrose argumenta razonadamente se remonta a que la singularidad inicial del Big Bang fue de un tipo especial con tensor de curvatura de Weyl nulo. Penrose explica que todas las singularidades finales, como las de los agujeros negros, por el contrario, conllevan un tensor de Weyl que tiende a infinito.
La naturaleza de la conciencia humana, que Penrose opina no es de naturaleza puramente algorítmica sino que incluiría elementos no computables. Penrose apunta que una teoría cuántica de la gravitación debería ser no lineal, y si bien podría ser realmente determinista sería claramente no computable lo que explicaría que los fenómenos cuánticos de medición nos parecieran impredecibles tal como realmente observamos.
También una teoría cuántica de la gravedad debería ampliar nuestro conocimiento de efectos cuánticos predichos por enfoques tentativos de otras teorías cuánticas, como la existencia de radiación de Hawking.

Intentos de teorías cuánticas de la gravedad

Hay un número de teorías y de proto-teorías propuestas de la gravedad cuántica incluyendo:

Supergravedad
Teoría de supercuerdas y Teoría M
Gravedad cuántica de bucles (de Abhay Ashtekar, Lee Smolin y Carlo Rovelli)
Gravedad cuántica canónica (de Bryce DeWitt)
Geometría no conmutativa (de Alain Connes)
La teoría "R=T" (Dilatón)2 (de Robert Mann y Tony Scott)
Teoría de Twistores (de Roger Penrose)
Gravedad cuántica euclídea o "Estado de Hartle-Hawking" (de Stephen Hawking y James Hartle)
Conjuntos causales (de Rafael Sorkin)
Triangulación dinámica causal (de Renate Loll, Jan Ambjørn y Jerzy Jurkiewicz)
Expansión cósmica en escala3 (de C. Johan Masreliez)
Geometrodinámica (de John Wheeler)
Universo holográfico (de Gerard 't Hooft y Leonard Susskind)
Relatividad interna (de Olaf Dreyer)
Graficidad cuántica (de Fotini Markopoulou)
Gravedad cuántica de Einstein (de Martin Reuter)
Teoría E8 (de Garrett Lisi)
Teoría F (de Cumrun Vafa)
Teoría S (de Itzhak Bars)
Teoría 2-T (de Itzhak Bars)
Teoría 26D (de Richard Ruquist)

Teóricos de gravedad cuántica

Abhay Ashtekar
John Baez
Julian Barbour
Martin Bojowald
Louis Crane
Rodolfo Gambini
Brian Greene
Stephen Hawking
Peter Higgs
Christopher Isham
Ted Jacobson
Michio Kaku
Renate Loll
Robert B. Mann
Fotini Markopoulou-Kalamara
Roger Penrose
Jorge Pullin
Carlo Rovelli
Tony C. Scott
Lee Smolin
Andrew Strominger
Thomas Thiemann
Edward Witten
John Archibald Wheeler
Barton Zwiebach

Expansión Acelerada Del Universo



La «expansión acelerada del universo» o «universo en expansión acelerada» son términos con los que se designa el hecho descubierto en los años 1990 de que el universo se expande a una velocidad cada vez mayor. Este hecho fue un descubrimiento no esperado, ya que hasta ese descubrimiento se pensaba que, si bien el universo ciertamente está en expansión, su ritmo iba decreciendo por efecto de la atracción mutua entre galaxias distantes.

A finales de los años 1990 unas observaciones de supernovas tipo A (clase Ia) arrojaron el resultado inesperado de que la expansión del Universo parece ir acelerándose. Estas observaciones parecen más firmes a la luz de nuevos datos.

De ser correcta esta teoría, el resultado último de esta tendencia sería la imposibilidad de seguir viendo cualquier otra galaxia. Esta nueva teoría del fin del Universo ha recibido el nombre de Gran Desgarramiento o, en inglés, Big Rip.

Puesto que la energía causante de la aceleración del espacio-tiempo no ha podido ser observada en forma directa, se ha dado en llamarla energía oscura. Dos candidatos teóricos que podrían hacer las veces de esta energía son una constante cosmológica no igual a cero (que pudo haber causado la inflación cósmica) y una energía repulsiva más general llamada quintaesencia. De todas maneras una expansión acelerada no entra en contradicción frontal con la formulación original de la Teoría General de la Relatividad que ya ocasionó en su tiempo una polémica entre Albert Einstein, quien en un tiempo introdujo la constante cosmológica en su ecuación de campo retirándola después, y varios científicos: Alexander Friedman, Georges Lemaître, Howard Percy Robertson y Arthur Geoffrey Walker, quienes probaron que existían soluciones estables no estacionarias sin el término proporcional a la constante cosmológica.

La observación de un Universo en aceleración parece plantear grandes problemas para la Inteligencia eterna de Dyson. Esta teoría depende de un Universo en desaceleración, lo que durante muchos años fue el modelo dominante en la cosmología, ya que, a falta de observaciones que probaran la existencia de la energía oscura, se creía que la atracción gravitatoria de la materia del Universo sobre la misma materia actuaría para frenar la expansión.

Aceleración de la expansión del Universo

La observación de que, retrocediendo en el tiempo 5×109 años, el Universo ha entrado desde un período de desaceleración de su expansión a uno de aceleración, surge como una predicción al aplicar el mecanismo de división y elongación de fotones en cascada (Photon-splitting and elongation-cascade, PSEC), propuesto por Alfred Bennun (Rutgers University), no sólo al período de inflación cósmica (Alan Guth), sino también al de su subsiguiente expansión. Este mecanismo de expansión exponencial es asimilable a la constante cosmológica de Einstein, porque propone que la energía primordial se puede describir como una radiación que precede a la formación de materia, contrarrestando la atracción gravitatoria de la misma por elongación de longitud de onda, que persiste en el "fósil" observable como radiación cósmica de fondo (Cosmic Background Radiation, CMB). Esta caracterización conceptual, atribuyendo a la energía radiante una función de onda, permite su descripción como paquetes de energía (quanta o fotones) de ultra-rápida frecuencia (v) y ultra-pequeña longitud de onda (λ), correspondientes con el límite de energía de Planck (1022 MeV).

Usando el equivalente de masa crítica sugerido por la NASA, 6 protones por metro cúbico (6 x masa en reposo del protón 9,38379×102 MeV), el valor resultante —5,630274×103— se multiplica por el volumen del Universo observable en la actualidad —13,7×109 años luz, o 9,1×1078 metros cúbicos— para obtener el total de la energía presente al inicio de la inflación —5,124×1082 MeV—. Por división de este número por la energía de Planck se obtiene el número inicial de fotones: 5,124×1060. Estos trenes de fotones serían inicialmente confinados dentro de topología no calculable pero que se abre creando un espacio tridimensional de radio igual al radio de Fermi, 10–13 cm, y por lo tanto evitando la naturaleza puntual y adimensional de una singularidad. En simulación, desde el inicio de inflación (tiempo de Planck: 10–44 segundos) hasta su final (10–33 segundos), el tiempo se escaló como un incremento logarítmico y por subdivisión se obtuvo una secuencia de 66 lapsos con progresión de fechas respectivas, cada una duplicando la extensión temporal del período anterior.

En cada período, la energía per quanta se redujo a la mitad con respecto al período anterior, como si fuera una cascada de división de fotones reiterada 66 veces, o sea de 1×266 divisiones de los fotones iniciales pero cuyo incremento inicial del radio del Universo se expresa en base 4 y exponencial 66, (1×2×2)66, ya que en cada división o partición de los fotones simultáneamente, no sólo se dobla su número, sino también la amplitud de su longitud de onda. Ambos procesos no están limitados por la velocidad de la propagación de la luz en el espacio, porque implican transiciones en la amplitud del espacio-tiempo mismo. La contribución al crecimiento cósmico por despliegue de la luz en el mismo es despreciable durante la inflación. Sin embargo, ésta se vuelve muy importante durante la expansión mientras la elongación de la longitud de onda de CMB se asocia en función temporal no ya a dichas mínimas fracciones de segundos, sino a muchos años luz.

Escalando desde el Universo de 90 años luz de radio (r) al final de la inflación hasta 12,08×109 años luz (que es menor que el radio al presente) se obtiene una exponencial 27 para representar la secuencia de divisiones de fotones en base dos: 90×227 = 12,08×109 años luz. Este procedimiento para calcular la cascada de división de fotones durante la expansión cósmica podría no ser el adecuado.

Otra aproximación es verificar este valor iterativo de exponencial 27 obtenido para las secuencias de divisiones en la era de expansión usando el valor energético al presente de CMB —2,71 K o 2,3×10–10 MeV— multiplicado por 227 para obtener el valor energético de CMB al final de la inflación: 3,087×10–2 MeV. El ajustado de este número por simulación posiblemente requiere diferenciar la contribución de la expansión debida a la luz, o de la debida a la división fotónica usando parámetros adicionales como los relacionados a la formación de materia. Como el fotón carece de masa, el origen de ésta, vinculada a una radiación primogénita requiere postular un mecanismo para su generación. Este podría ser que en función de un momento angular, éste manifiesta equivalencia de masa. Transferencia de momento angular ocurriría durante la desaceleración de un cosmos inicialmente rotacional, o porque los trenes de fotones (polarizados transversalmente) viajarían en una dirección del espacio-tiempo que le conferiría momento angular.

Radiación De Fondo De Microondas

En cosmología, la radiación de fondo de microondas (en inglés cosmic microwave background o CMB) es una forma de radiación electromagnética descubierta en 1965 que llena el Universo por completo. También se denomina radiación cósmica de microondas o radiación del fondo cósmico.

Se dice que es el eco que proviene del inicio del universo, es decir, el eco que queda del Big Bang que da origen al universo (aunque el Big Bang no es exactamente una explosión en el sentido propio del término, ya que no se propaga fuera de sí mismo).

Tiene características de radiación de cuerpo negro a una temperatura de 2,725 K y su frecuencia pertenece al rango de las microondas con una frecuencia de 160,2 GHz, correspondiéndose con una longitud de onda de 1,9 mm. Muchos cosmólogos consideran esta radiación como la prueba principal del modelo cosmológico del Big Bang del Universo.

La radiación de fondo de microondas es isótropa hasta una parte entre 105: las variaciones del valor eficaz son sólo 18 µK.1 El espectrofotómetro FIRAS (en inglés The Far-Infrared Absolute Spectrophotometer) en el satélite COBE de la NASA ha medido cuidadosamente el espectro de la radiación de fondo del microondas. El FIRAS comparó el CMB con un cuerpo negro de referencia y no se pudo ver ninguna diferencia en sus espectros. Cualquier desviación del cuerpo negro que pudiera seguir estando sin detectar en el espectro del CMB sobre el rango de longitudes de onda desde 0,5 a 5 mm tendría que tener un valor de unas 50 partes por millón del pico de brillo del CMB.Esto hizo del espectro del CMB el cuerpo negro medido de manera más precisa en la naturaleza.

Esta radiación es una predicción del modelo del Big Bang, ya que según este modelo, el universo primigenio era un plasma compuesto principalmente por electrones, fotones y bariones (protones y neutrones). Los fotones estaban constantemente interactuando con el plasma mediante la dispersión Thomson. Los electrones no se podían unir a los protones y otros núcleos atómicos para formar átomos porque la energía media de dicho plasma era muy alta, por lo que los electrones interactuaban constantemente con los fotones mediante el proceso conocido como dispersión Compton. A medida que el universo se fue expandiendo, el enfriamiento adiabático (del que el corrimiento al rojo cosmológico es un síntoma actual) causado porque el plasma se enfrie hasta que sea posible que los electrones se combinen con protones y formen átomos de hidrógeno. Esto ocurrió cuando esta alcanzó los 3000 K, unos 380 000 años después del Big Bang. A partir de ese momento, los fotones pudieron viajar libremente a través del espacio sin rozar(sin llegar a unirse) con los electrones dispersos. Este fenómeno es conocido como era de la recombinación; la radiación de fondo de microondas es precisamente el resultado de ese periodo. Al irse expandiendo el universo, esta radiación también fue disminuyendo su temperatura, lo cual explica por qué hoy en día es sólo de unos 2,7 K. La radiación de fondo es el ruido que hace el universo. Se dice que es el eco que proviene del inicio del universo, o sea, el eco que quedó de la gran explosión que dio origen al universo.

Los fotones han continuado enfriándose desde entonces, actualmente han caído a 2,725 K y su temperatura continuará cayendo según se expanda el Universo. De la misma manera, la radiación del cielo que medimos viene de una superficie esférica, llamada superficie de la última dispersión, en la que los fotones que se descompusieron en la interacción con materia en el Universo primigenio, hace 13.700 millones de años, están observándose actualmente en la Tierra. El Big Bang sugiere que el fondo de radiación cósmico rellena todo el espacio observable y que gran parte de la radiación en el Universo está en el CMB, que tiene una fracción de aproximadamente 5·10-5 de la densidad total del Universo.

Dos de los grandes éxitos de la teoría del Big Bang son sus predicciones de este espectro de cuerpo negro casi perfecto y su predicción detallada de las anisotropías en el fondo cósmico de microondas. El reciente WMAP ha medido precisamente estas anisotropías sobre el cielo por completo a escalas angulares de 0,2°.Estas se pueden utilizar para estimar los parámetros del Modelo Lambda-CDM estándar del Big Bang. Alguna información, como la forma del Universo, se puede obtener directamente del CMB, mientras otros, como la constante de Hubble, no están restringidos y tienen que ser inferidos de otras medidas.

Historia

Esta radiación fue predicha por George Gamow, Ralph Alpher y Robert Hermann en 1948. Es más, Alpher y Herman pudieron estimar que la temperatura del fondo de radiación de microondas era 5 K, aunque dos años después, la reestimaron en 2.8 K.6 Aunque había varias estimaciones previas de la temperatura del espacio, éstas sufrieron dos defectos. En primer lugar, fueron medidas de la temperatura efectiva del espacio y no sugieren que el espacio fue rellenado con un espectro de Planck térmico. Y en segundo lugar, son dependientes de nuestro lugar especial en el extremo de la Vía Láctea y no sugieren que la radiación es isótropa. Además, produciría predicciones muy diferentes si la Tierra estuviera localizada en cualquier lugar del Universo.

Los resultados de 1948 de Gamow y Alpher no fueron ampliamente discutidos. Sin embargo, fueron redescubiertos por Robert Dicke y Yakov Zel'dovich a principios de los Años 1960. La primera apreciación de la radiación del CMB como un fenómeno detectable apareció en un breve artículo de los astrofísicos soviéticos A. G. Doroshkevich e Igor Dmitriyevich Novikov, en la primavera de 1964.8 En 1964, David Todd Wilkinson y Peter Roll, y los colegas de Dicke en la Universidad de Princeton, empezaron a construir un radiómetro de Dicke para medir el fondo de radiación de microondas.En 1965, Arno Penzias y Robert Woodrow Wilson en los Laboratorios Bell de Crawford Hill cerca de Holmdel Township (Nueva Jersey) habían construido un radiómetro Dicke que intentaron utilizar para radioastronomía y experimentos de comunicaciones por satélite. Su instrumental tenía un exceso de temperatura de ruido de 3,5 K con el que ellos no contaban. Después de recibir una llamada telefónica de Crawford Hill, Dicke dijo la gracia: «Chicos, hemos sido robados».Un encuentro entre los grupos de Princeton y Crawford Hill determinó que la temperatura de la antena fue inducida debido al fondo de radiación de microondas. Penzias y Wilson recibieron el Premio Nobel de Física de 1978 por su descubrimiento.

La interpretación de la radiación de fondo de microondas fue un tema controvertido en los años 1960 entre los defensores de la Teoría del Estado Estacionario argumentando que el fondo de microondas era el resultado de la luz dispersada de las estrellas procedente de las galaxias distantes. Utilizando este modelo y basado en el estudio de la absorción reducida de líneas que caracteriza el espectro de las estrellas, el astrónomo Andrew McKellar escribió en 1941: "Se puede calcular que el rotacional de temperatura del espacio interestelar es 2 K".Sin embargo, durante los años 1970 el consenso fue que la radiación de fondo de microondas es un remanente del Big Bang. Esto fue en gran parte porque las nuevas medidas en un rango de frecuencias demostraron que el espectro era un térmico, cuerpo negro, un resultado que el modelo del estado estacionario no podía reproducir.

Harrison, Peebles y Yu, y por otra parte Zel'dovich se dieron cuenta que el Universo primigenio tendría que tener inhomogeneidades en un nivel de 10-4 o 10−5.Rashid Siunyáiev después calculó la huella observable que estas inhomogeneidades tendrían en el fondo de radiación de microondas.Incrementalmente los límites estrictos de la anisotropía del fondo de radiación de microondas fueron establecidos por experimentos basados en la tierra, pero la anisotropía se detectó por primera vez por el Radiómetro de Microondas Diferencial en el satélite COBE.

Inspirado por los resultados del COBE, una serie de experimentos en tierra o basados en globos midieron las anisotropías del fondo de radiación de microondas en pequeñas escalas angulares durante la década siguiente. El objetivo primario de estos experimentos fue medir la escala del primer pico acústico, para el que el COBE no tenía suficiente resolución para resolverlo. El primer pico en la anisotropía fue detectado tentativamente por el experimento Toco y el resultado fue confirmado por los experimentos BOOMERanG y MAXIMA.Estas medidas demostraron que el Universo era aproximadamente plano y podía descartar las cuerdas cósmicas como un gran componente en la formación de estructuras cósmicas y sugiere que la inflación cósmica era la teoría correcta para la formación de estructuras.

El segundo pico fue detectado con indecisión por varios expertos antes de ser detectado definitivamente por el WMAP, que también ha detectado vacilantemente el tercer pico. Varios experimentos para mejorar las medidas de la polarización y el fondo de microondas en pequeñas escalas angulares están en curso. Éstas son el DASI, WMAP, BOOMERanG y el Cosmic Background Imager. Los experimentos venideros en este campo son el satélite Planck, el Telescopio Cosmológico de Atacama y el Telescopio del Polo Sur.

Cronología del fondo de radiación de microondas

1940. Andrew McKellar: La detección observacional de una temperatura bolométrica media de 2,3 K basada en el estudio de las líneas de absorción interestelar es informada desde el Observatorio Dominion Observatory, Columbia Británica
1946. Robert Dicke descubre ".. la radiación de la materia cósmica" a < 20 K, no se refiere a la radiación de fondo
1948. George Gamow calcula una temperatura de 50 K (asumiendo un Universo de 3.000 millones de años),18 comentándolo".. está de acuerdo razonablemente con la temperatura actual del espacio interestelar", pero no menciona el fondo de radiación.
1948. Ralph Alpher y Robert Herman estiman «la temperatura en el Universo» en 5 K. Aunque no mencionan específicamente el fondo de radiación de microondas, se puede inferir.
1950. Ralph Alpher y Robert Herman re-estiman la temperatura a 2 K.
1953. George Gamow estima 7 K.
1956. George Gamow estima 6 K.
Años 1960. Robert Dicke reestima una temperatura de la radiación de fondo de microondas de 40 K
1964. A. G. Doroshkevich y Igor Novikov publican un breve artículo, donde dicen que el fenómeno de la radiación de fondo de microondas es detectable.
1964-65. Arno Penzias y Robert Woodrow Wilson miden la temperatura como aproximadamente 3 K. Robert Dicke, P. J. E. Peebles, P. G. Roll y D. T. Wilkinson interpretan radiación como una firma del Big Bang.
1983. Empieza el experimento soviético RELIKT-1 sobre la anisotropía del CMB.
1990. Se obtienen medidas del FIRAS de la forma de cuerpo negro del espectro del CMB con exquisita precisión.
1992. El descubrimiento de la anisotropía por la nave espacial RELIKT-1 fue reportado oficialmente en enero de 1992 en el seminario de Astrofísica de Moscú.
1992. El COBE DMR revela la temperatura de anisotropía primaria por primera vez.
2002. El DASI descubre la polarización del CMB.21
2004. El CBI obtiene el espectro de polarización del CMB.

Relación con el Big Bang

El modelo estándar caliente del Big Bang del Universo requiere que las condiciones iniciales para el Universo son un campo gaussiano casi invariente o espectro de Harrison-Zel'dovich. Esto es, por ejemplo, una predicción del modelo de inflación cósmica. Esto significa que el estado inicial del Universo es aleatorio, pero de una forma claramente especificada en que la amplitud de las inhomogeneidades vírgenes es 10-5. Por tanto, los postulados sobre las inhomogeneidades en el Universo necesitan ser estadísticas por naturaleza. Esto lleva a la varianza cósmica en que las incertidumbres en la varianza de las fluctuaciones de las escalas mayores observadas en el Universo tienen dificultades para compararse de manera precisa a la teoría.

Temperatura

La radiación del fondo cósmico de microondas y el corrimiento al rojo cosmológico se consideran conjuntamente como la mejor prueba disponible para la teoría del Big Bang. El descubrimiento del CMB a mediados de los años 1960 redujo el interés en alternativas como la Teoría del Estado Estacionario. El CMB proporciona una imagen del Universo cuando, de acuerdo con la cosmología convencional, la temperatura descendió lo suficiente como para permitir que los electrones y protones formen átomos de hidrógeno, haciendo así el Universo transparente a la radiación. Cuando se originó unos 400.000 años después del Big Bang, este período es conocido generalmente como el "periodo de la última dispersión" o el periodo de la recombinación o el desacople, la temperatura del Universo era de unos 3000 K. Esto se corresponde con una energía de unos 0.25 eV, que es mucho menor que los 13.6 eV de la energía de ionización del hidrógeno. Desde entonces, la temperatura de la radiación ha caído en un factor de aproximadamente 1100 debido a la expansión del Universo. Según se expande el Universo, los fotones del fondo cósmico de microondas se desplazan hacia el rojo, haciendo que la temperatura de radiación sea inversamente proporcional al factor de escala del Universo.

Estudio de las anisotropías

La radiación de fondo aparece a primera vista isótropa, es decir, independiente de la dirección el que se mida. Este hecho era de difícil explicación según el modelo original del Big Bang y fue una de las causas que llevó a la formulación del modelo inflacionario del Big Bang. Una de las predicciones de este modelo es la existencia de pequeñas variaciones en la temperatura del fondo cósmico de microondas. Estas anisotropías o inhomogeneidades fueron detectadas finalmente en los años 90 por varios experimentos, especialmente, por el satélite de la NASA COBE (Cosmic Background Explorer) entre 1989 y 1996 que fue la primera experiencia capaz de detectar irregularidades y anisotropías en esta radiación. Las irregularidades se consideran variaciones de densidad del universo primitivo y su descubrimiento arroja indicios, la formación de las primeras estructuras de gran escala y la distribución de galaxias del universo actual. En el 2001 la agencia espacial americana NASA lanzó el WMAP (Wilkinson Microwave Anisotropy Probe), un nuevo satélite capaz de estudiar con gran detalle la radiación cósmica de fondo, que consiguió el mapa más completo de las anisotropías en la radiación de fondo de microondas. Otros instrumentos han detectado aún con más detalle y a mayor resolución angular las anisotropías del CMB, como el Cosmic Background Imager pero en sólo unas zonas del cielo. Los datos aportados por el WMAP en 2003 y 2006 revelan un universo en expansión formado por un 4% de materia bariónica, un 22% de materia oscura y un 74% de energía oscura. El 2009 la ESA lanzó el Planck, un satélite de capacidades mucho mayores todavía que el WMAP.

La anisotropía del fondo de radiación de microondas está dividida en dos tipos: anisotropía primaria – debida a efectos que ocurren en la última superficie de dispersión y en la anterior – y la anisotropía secundaria – que es debida a efectos, como las interacciones con gases calientes o potenciales gravitacionales, entre la última superficie de dispersión y el observador.

Anisotropía primaria

La estructura de las anisotropías del fondo de radiación de microondas es determinada principalmente por dos efectos: oscilaciones acústicas y difusión húmeda (también llamada humedad sin colisiones o seda húmeda). Las oscilaciones acústicas surgen a partir de la competencia en el plasma fotón-barión en el Universo primigenio. La presión de los fotones tienden a eliminar las anisotropías, mientras que la atracción gravitacional de los bariones – que se mueven a velocidades mucho menores que la velocidad de la luz – los hace tender a colapsar para formar densos halos. Estos dos efectos compiten para crear oscilaciones acústicas que dan al fondo de radiación de microondas su característica estructura de pico. Los picos se corresponden, aproximadamente, con resonancias en las que los fotones se desacoplan cuando un modo particular se encuentra en su pico de amplitud.

Los picos contienen interesantes firmas físicas. La escala angular del primer pico determina la curvatura del Universo (pero no la topología del Universo). El segundo pico – realmente la proporción de los picos impares con los picos pares – determina la reducida densidad bariónica. El tercer pico se puede utilizar para extraer información sobre la densidad de materia oscura.

Las localizaciones de los picos también dan importante información sobre la naturaleza de la densidad de perturbaciones primigenia. Hay dos tipos fundamentales de densidad de perturbaciones -- llamadas "adiabática" e "isocurvatura". Una densidad de perturbación general es una mezcla de estos dos tipos y existen diferentes teorías que aparentan explicar el espectro de densidad de perturbación primigenio que predice diferentes mezclas.

Para densidades de perturbación adiabáticas, la sobredensidad fraccional en cada componente de materia (bariones, fotones...) es la misma. Es decir, si hay un 1% más de energía en bariones que la media en un punto, entonces con una densidad de perturbación adiabática pura hay también un 1% más de energía en los fotones y un 1% más de energía en neutrinos, que la media. La inflación cósmica predice que las perturbaciones primigenias son adiabáticas.
Con la densidad de perturbaciones de la isocurvatura, la suma de las sobredensidades fraccionales es cero. Es decir, una perturbación donde en algún punto hay un 1% más de energía en bariones que la media, un 1% más de energía en fotones que la media y un 2% menos energía en neutrinos que la media, sería una perturbación de isocurvatura pura. Las cuerdas cósmicas se producirían principalmente por perturbaciones de isocurvatura primigenias.
En el espectro del CMB se pueden distinguir estos dos tipos de perturbaciones porque los picos se producen en diferentes locacalizaciones. La densidad de perturbaciones de isocurvatura producen una serie de picos cuyas escalas angulares (l-valores de los picos) están aproximadamente en las relaciones 1 : 3 : 5..., mientras que la densidad de perturbaciones adiabáticas producen picos cuyas ubicaciones están en las relaciones 1 : 2 : 3.23 Las observaciones son consistentes conque la densidad de perturbaciones primigenia es completamente adiabática, proporcionando la clave para el soporte de la inflación y descartar muchos modelos de formación de estructuras incluyendo, por ejemplo, las cuerdas cósmicas.

La humedad sin colisiones es causada por dos efectos, cuando el tratamiento del plasma primigenio como un fluido empieza a romperse:

El incremento del camino libre medio de los fotones en el plasma primordial llega a estar incrementalmente enrarecido en un Universo en expansión.
El grosor de la última superficie de dispersión, que causa el incremento del camino libre medio durante el desacople, incluso mientras la dispersión Compton sigue ocurriendo.

Estos efectos contribuyen por igual a la supresión de anisotropías en pequeñas escalas y dan lugar a la característica cola húmeda exponencial vista en anisotropías en escalas angulares muy pequeñas.

La delgadez de la última superficie de dispersión se refiere al hecho de que el desacople de los fotones y bariones no ocurre instantáneamente, sino que requiere una fracción apreciable de la edad del Universo por encima de esa época. Un método para cuantificar exactamente cuánto tiempo duró este proceso utiliza la Función de visibilidad de fotones. Esta función se define tal que, definiéndola como P(t), la probabilidad de que un fotón de la última dispersión del CMB entre t y t+dt está dada por P(t)dt.

El máximo de la función de visibilidad (el tiempo en que es más probable que un fotón determinado de la última dispersión del CMB) es conocido de manera muy precisa. Los resultados del primer año de WMAP dicen que el tiempo en que P(t) es máximo entre 372 000 años (± 14000).24 A menudo se considera el "tiempo" en que se formó el fondo de radiación de microondas. Sin embargo, para comprender cuánto tiempo se necesitó para el desacople de fotones y bariones, se necesita una medida de la anchura de la función de visibilidad. El equipo del WMAP encuentra que P(t) es mayor que la mitad de su valor máximo (la "anchura entera a mitad del máximo) en el intervalo 115 000 años (± 5000). Según esta medida, el desacople duró unos 115 000 años y cuando se completó, el Universo tenía unos 487 000 años.

Anisotropía tardía

Después de la creación del CMB, éste es modificado por varios procesos físicos colectivamente conocidos como anisotropía tardía o anisotropía secundaria. Después de la emisión del CMB, la materia ordinaria en el Universo estaba formada principalmente de hidrógeno neutro y átomos de helio, pero de las observaciones de las galaxias parece que gran parte del volumen del medio intergaláctico (IGM) actualmente consiste en material ionizado (ya que hay algunas líneas de absorción debido a átomos de hidrógeno). Esto implica un periodo de reionización en que el material del Universo se colapsa en iones de hidrógeno.

Los fotones del CMB se esparcen en cargas libres como electrones que no están ligados a átomos. En un Universo ionizado, tales electrones han sido liberados de átomos neutros por radiación ionizante (ultravioleta). Hoy estas cargas libres son de una densidad suficientemente baja en gran parte del volumen del Universo que no afectan a las mediciones del CMB. Sin embargo, si el IGM fue ionizado en tiempos muy tempranos cuando el Universo era muy denso, entonces habría dos efectos principales en el CMB:

Las anisotropías a pequeña escala son eliminadas (justo como cuando se observa un objeto a través de la niebla, los detalles del objeto aparecen difuninados).
La física de cómo los fotones se esparcen en electrones libres (Difusión Thomson) induce a la polarización de las anisotropías en grandes escalas angulares. Esta polarización de gran angular está correlada con la perturbación de temperatura de gran angular.
Estos dos efectos han sido observados por el satélite WMAP, proporcionando pruebas de que el Universo fue ionizado en tiempos muy primigenios, con un corrimiento al rojo de más de 17. La procedencia detallada de esta temprana radiación ionizante continúa siendo debatida por los científicos. Se puede incluir la luz de las estrellas desde la primera población de estrellas (población III), las supernovas en las que se convirtieron estas estrellas al final de sus vidas o la radiación ionizante producida por la adición de discos de agujeros negros masivos.

El periodo después de la emisión del fondo de radiación de microondas y antes de la observación de las primeras estrellas es conocido de forma casi cómica por los cosmólogos como las edades oscuras, y es un periodo que está bajo un intenso estudio por los astrónomos.

Otros efectos que ocurren entre la reionización y nuestra observación del CMB que causan las anisotropías son el efecto Siunyáiev-Zeldóvich, en el que una nube de electrones de alta energía dispersa la radiación, transfiriendo anguna energía a los fotones del CMB y el efecto Sachs-Wolfe, que cause que los fotones del fondo de radiación de microondas estén gravitacionalmente desplazados hacia el rojo o hacia el azul debidos a campos gravitacionales cambiantes.

Polarización

El CMB está polarizado con un nivel de unos cuantos microkelvins. Hay dos tipos de polarización, llamados modos Ey B. Esto presenta una analogía con la electrostática, en que el campo eléctrico (campo E) tiene un rotacional evanescente mientras que el campo magnético (campo B) tiene una divergencia evanescente. Los modos E aparecen de forma natural a partir de la difusión Thomson en un plasma heterogéneo. Los modos B, que no han sido medidos y se piensa que tienen una amplitud de como mucho 0,1 µK, no se producen únicamente a partir del plasma. Son una señal de la inflación cósmica y son determinados a partir de la densidad de las ondas gravitacionales primigenias. La detección de los modos B es extremadamente difícil, particularmente dado que el grado de contaminación de fondo es desconocido y la señal de las lentes gravitacionales mezclan la fuerza relativa del modo E con el modo B.25

Observaciones del fondo de microondas

Después del descubrimiento del CMB, se han realizado cientos de experimentos del fondo cósmico de microondas para medir y caracterizar la naturaleza de la radiación. El experimento más famoso es probablemente el satélite COBE de la NASA que orbitó entre 1989-1996, que detectó y cuantificó las anisotropías de gran escala al límite de sus capacidades de detección. Inspirado por los resultados iniciales del COBE, un fondo extremadamente isótropo y homogéneo, una serie de experimentos basados en balones y suelo cuantificaron las anisotropías del CMB en pequeñas escalas angulares durante la siguiente década. El principal objetivo de estos experimentos era medir a escala angular el primer pico acústico, para el que el COBE no tenía suficiente resolución. Estas medidas podrían excluir las cuerdas cósmicas como la principal teoría de la formación de estructuras cósmicas y sugieren que la inflación cósmica es la teoría adecuada. Durante los años 1980, el primer pico fue medido con una sensibilidad creciente y en el año 2000, el experimento BOOMERanG reportó que las fluctuaciones de mayor energía ocurrían a escalas de aproximadamente un grado. Junto con otros datos cosmológicos, estos resultados implican que la geometría del Universo es plana. Varios interferómetros proporcionaron medidas de fluctuaciones de gran precisión durante los tres años siguientes, incluyendo el Very Small Array, Degree Angular Scale Interferometer (DASI) y el Cosmic Background Imager (o CBI). La primera detección del DASI fue la polarización del CMB mientras que el CBI obtuvo el espectro de polarización del CMB.

En junio de 2001, la NASA lanzó una segunda misión espacial para el CMB, el WMAP, para realizar medidas mucho más precisas de las anisotropías a gran escala en todo el cielo. Los primeros resultados de esta misión, revelados en 2003, fueron medidas detalladas del espectro de potencia angular en las escalas más bajas, acotando varios parámetros cosmológicos. Los resultados son ampliamente consistentes con los esperados de la inflación cósmica así como otras teorías competidoras y están disponibles detalladamente en el centro de datos de la NASA para el Fondo Cósmico de Microondas. Aunque el WMAP proporcionó medidas muy exactas de las fluctuaciones a grandes escalas angulares en el CMB (estructuras que son tan grandes en el cielo como la luna), no tendrían resolución angular suficiente para medir las fluctuaciones a pequeña escala que habían sido observadas utilizando interferómetros terrestres, como el Cosmic Background Imager.

Una tercera misión espacial, el Planck, fue lanzado en 2009. El Planck utilizará dos radiómetros HEMT así como la un bolómetro y medirá el CMB a escalas menores que el WMAP. A diferencia de las dos misiones espaciales previas, el Planck es una colaboración entre la NASA y la Agencia Espacial Europea (ESA). Sus detectores fueron probados en el Telescopio Viper en el experimentp ACBAR, que ha producido las medidas más precisas a pequeñas escalas angulares hasta la fecha – y en el telescopio de balones Archeops.

Los instrumentos terrestres adicionales como el Telescopio del Polo Sur en la Antártida, el propuesto Proyecto Clover, el Telescopio Cosmológico de Atacama y el proyecto Quiet en Chile proporcionará datos adicionales no disponibles en las observciones de satélite, posiblemente incluyento la polarización del modo B.

Es posible "ver" la radiación de fondo de microondas con algo tan común cómo un televisor analógico -es decir, los antiguos no preparados para recibir la Televisión Digital Terrestre- que sintonice un canal en el que no haya ninguna emisora emitiendo; parte (un 1%) de la "nieve" que puede verse en la pantalla es dicha radiación de fondo captada por la antena del aparato.

El futuro del fondo cósmico de microondas

Dado que al irse expandiendo el Universo el desplazamiento al rojo sufrido por la radiación cósmica de fondo va aumentando llegará un momento muy lejano, asumiendo un Universo abierto, en el cual ésta será indetectable por completo, acabando por ser "tapado" por el causado por la luz emitida por las estrellas y éste a su vez al seguir expandiéndose el Cosmos sufrirá el mismo efecto y será reemplazado por el de otros procesos que se produzcan en el futuro lejano.

Expansión Métrica Del Espacio



La expansión métrica del espacio es una pieza clave de la ciencia actual para comprender el Universo, a través del cual el propio espacio-tiempo es descrito por una métrica que cambia con el tiempo de tal manera que las dimensiones espaciales parecen crecer o extenderse según el Universo se hace más viejo. Explica cómo se expande el Universo en el modelo del Big Bang, una característica de nuestro Universo soportada por todos los experimentos cosmológicos, cálculos astrofísicos y medidas hasta la fecha. La métrica que describe formalmente la expansión en el modelo estándar de Big Bang se conoce como Métrica de Friedman-Lemaître-Robertson-Walker.

La expansión del espacio es conceptualmente diferente de otros tipos de expansiones y explosiones que son vistas en la Naturaleza. Nuestra comprensión del "tejido del Universo" (el espacio-tiempo) implica que el espacio, el tiempo y la distancia no son absolutos, sino que se obtienen a partir de una métrica que puede cambiar. En la métrica de expansión del espacio, más que objetos en un espacio fijo alejándose hacia el vacío, es el espacio que contiene los objetos el que está cambiando propiamente dicho. Es como si los objetos no se mueven por sí mismos, el espacio está "creciendo" de alguna manera entre ellos.

Debido a que es la métrica que define la distancia que está cambiando más que los objetos moviéndose en el espacio, esta expansión (y el movimiento resultante son objetos alejándose) no está acotado por la velocidad de la luz que resulta de la relatividad especial.

La teoría y las observaciones sugieren que muy al principio de la historia del Universo, hubo una fase "inflacionaria" donde esta métrica cambió muy rápidamente y que la dependencia del tiempo restante de esta métrica es que observamos la así llamada expansión de Hubble, el alejamiento de todos los objetos gravitacionalmente acotados en el Universo. El Universo en expansión es por tanto una característica fundamental del Universo en el que habitamos, un Universo fundamentalmente diferente del Universo estático que Albert Einstein consideró al principio cuando desarrolló su teoría gravitacional.


La expansión del Universo avanza en todas las direcciones determinada por la constante de Hubble actual. Sin embargo, la constante de Hubble pudo cambiar en el pasado y puede cambiar en el futuro dependiendo del valor observado del parámetro de densidad (Ω). Antes del descubrimiento de la energía oscura, se creyó que el Universo estaba dominado por la materia y así Ω en este gráfico se corresponde con la relación de la densidad de materia con la densidad crítica


Una métrica define cómo se puede medir una distancia entre dos puntos cercanos en el espacio, en términos de las coordenadas de estos puntos. Un sistema de coordenadas ubica puntos en un espacio (de cualquier número de dimensiones) asignando números únicos conocidos como coordenadas, a cada punto. La métrica es entonces una fórmula que convierte las coordenadas de dos puntos en distancias.

Por ejemplo, considerando la medida de la distancia entre dos lugares en la superficie de la Tierra. Este es un ejemplo familiar sencillo de una geometría no euclidiana. Debido a que la superficie de la Tierra es bidimensional, los puntos en la superficie de la Tierra se pueden especificar mediante dos coordenadas, por ejemplo, la latitud y la longitud. La especificación de una métrica requiere que uno primero especifique las coordenadas utilizadas. En nuestro ejemplo sencillo de la superficie de la Tierra, podemos elegir cualquier tipo de sistema de coordenadas, por ejemplo latitud y longitud o coordenadas cartesianas (X-Y-Z). Una vez que hemos elegido un sistema de coordenadas específico, el valor numérico de las coordenadas de dos puntos cualesquiera de las coordenadas de dos puntos son determinados de forma unívoca y basándonos en las propiedades del espacio sobre el que se está discutiendo, la métrica apropiada también se establece matemáticamente. En la superficie curvada de la Tierra, podemos ver este efecto en vuelos de largo recorrido donde la distancia entre dos puntos es medida basándose en un gran círculo y no a lo largo de la línea recta que pasa a través de la Tierra. En teoría hay siempre un efecto debido a esta curvatura, incluso para pequeñas distancias, pero en la práctica para lugares "cercanos", la curvatura de la Tierra es tan pequeña que es despreciable para distancias cortas.

Los puntos en la superficie de la Tierra se pueden especificar dando dos coordenadas. Debido a que el espacio-tiempo tiene cuatro dimensiones, tenemos que especificar los puntos en dicho espacio-tiempo dando cuatro coordenadas. Las coordenadas más convenientes en cosmología se llaman coordenadas comóviles. Debido a que el espacio parece ser Euclídeo, en una gran distancia se pueden especificar las coordenadas espaciales en términos de x, y, z, aunque otras alternativas como las coordenadas esféricas son utilizadas habitualmente. La cuarta coordenada necesaria es el tiempo, que se específica en las coordenadas comóviles como el tiempo cosmológico. La métrica del espacio a partir de las observaciones, parece ser euclídeo a gran escala. Lo mismo no se puede decir de la métrica del espacio-tiempo, sin embargo. La naturaleza no euclídea del espacio-tiempo se manifiesta por el hecho de que la distancia entre puntos con coordenadas constantes crece con el tiempo, más que permanecer constantes.

Técnicamente, la expansión métrica del espacio es una característica de muchas soluciones de las ecuaciones del campo de Einstein de la relatividad general y la distancia se mide utilizando el intervalo de Lorentz. Esta explicación teórica proporciona una explicación clara observacional de la ley de Hubble que indica que las galaxias más lejanas de nosotros parecen estar retrocediendo más deprisa que las galaxias que están más cercanas a nosotros. En espacios que se expanden, la métrica cambia con el tiempo de una forma que causa que las distancias parezcan mayores en momentos posteriores, de tal manera que en nuestro Universo del Big Bang, observamos fenómenos asociados con la expansión métrica del espacio. Si vivimos en un espacio que se contrae (un Universo del Big Crunch) observaremos fenómenos asociados con una métrica de contracción del espacio.

Los primeros modelos relativistas predijeron que un Universo que era dinámico y contenía materia gravitacional ordinaria se contraería más que expandiría. La primera propuesta de Einstein para una solución a este problema incluía añadir una constante cosmológica en sus teorías para balancear la contracción y obtener una solución estática para el Universo. Pero en 1922 Alexander Friedman halló sus famosas ecuaciones de Friedmann, demostrando que el Universo se podía expandir y presentando la velocidad de expansión para este caso.1 Las observaciones de Edwin Hubble en 1929 confirmaron que las galaxias distantes estaban todas alejándose aparentemente de nosotros por lo que los científicos aceptaron que el Universo se estaba expandiendo. Hasta los desarrollos teóricos de los años 1980 nadie tuvo una explicación de por qué era así este caso, pero con el desarrollo de los modelos de inflación cósmica, la expansión del Universo se convirtió en una característica general resultante del falso vacío. Por consiguiente, la pregunta de "¿por qué está el Universo expandiéndose?" es ahora contestada comprendiendo los detalles del proceso de descomposición de la inflación que ocurrió en los primeros 10−32 segundos de existencia de nuestro Universo. Se sugiere que en este momento la propia métrica cambió exponencialmente, causando que el espacio cambie de algo más pequeño que un átomo a unos 100 millones de años luz.

Medición de distancias

En la expansión del espacio, la distancia es una cantidad dinámica que cambia con el tiempo. Hay varias formas diferentes de definir distancias en cosmología, conocidas como medidas de distancia, pero la más común es la distancia comóvil.

La métrica sólo define la distancia entre puntos cercanos. Para definir la distancia entre puntos distantes arbitrariamente, uno tiene que especificar dos parámetros: los puntos y una curva específica que los conecte. La distancia entre los puntos se puede hallar encontrando la longitud de esta curva de conexión. La distancia comovil define esta curva de conexión como una curva de tiempo cosmológico constante. Operacionalmente, las distancias comóviles no pueden ser directamente medidas por un simple observador con las limitaciones de la Tierra. Para determinar la distancia de objetos distantes, los astrónomos generalmente miden la luminosidad de Candela estándar o el factor de corrimiento al rojo z de galaxias lejanas y entonces convertir estas medidas en distancias basadas en algunos modelos particulares de espacio-tiempo, como el Modelo Lambda-CDM.

Pruebas observacionales

No fue hasta el año 2000 en que los científicos finalmente tuvieron todas las piezas de pruebas observacionales directas para confirmar la métrica de expansión del Universo. Sin embargo, antes del descubrimiento de esta prueba, los cosmólogos teóricos consideraron que la métrica de expansión del espacio era una característica probable del Universo basada en lo que ellos consideraban que era un pequeño número de suposiciones razonables en el modelado del Universo. Las más importantes fueron:

El principio cosmológico que exige que el Universo parezca el mismo en todas las direcciones (isótropo) y tenga aproximadamente la misma mezcla suave de material (homogéneo).
El principio copernicano que exige que no hay un lugar en el Universo preferido (es decir, el Universo no tiene "punto de partida").

En varios grados, los cosmólogos han descubierto pruebas apoyando estas suposiciones además de las observaciones directas de la expansión del espacio. Hoy, la métrica de expansión del espacio es considerada por los cosmólogos como una característica observada basándose en que aunque no se pueda ver directamente, las propiedades del Universo que los científicos han probado y que pueda ser observada proporciona una confirmación convincente. Las fuentes de la confirmación son:

Edwin Hubble mostró que todas las galaxias y objetos astronómicos distantes se estaban alejando de nosotros (ley de Hubble) como predecía una expansión universal.2 Utilizando el corrimiento al rojo de su espectro electromagnético para hallar la distancia y la velocidad de objetos remotos en el espacio, mostró que todos los objetos se estaban alejando de nosotros y que su velocidad es proporcional a su distancia, una característica de la métrica de expansión. Estudios posteriores volvieron a mostrar que la expansión era extremadamente isótropa y homogénea, es decir, no parece tener un punto especial como "centro", pero parece Universal e independiente de cualquier punto central fijo.
En estudios de la estructura a gran escala del universo tomados de expediciones de corrimiento al rojo se descubrió el llamado "Final de la Grandeza" en las mayores escalas del Universo. Hasta que estas escalas fueron inspeccionadas, el Universo parecía "grumoso" con grupos de cúmulos galácticos y supercúmulos y filamentos que tenían cualquier característica excepto isótropos y homogéneos. Esta grumosidad desaparece en una distribución lisa de galaxias en las escalas más grandes de la misma manera que un cuadro de Jackson Pollock parece grumoso de cerca, pero más regular al completo.
La distribución isótropa a través del cielo de ráfagas de rayos gamma distantes y supernovas es otra confirmación del Principio Cosmológico.
El Principio Copernicano no fue realmente comprobado en una escala cosmológicoa hasta que las medidas de los efectos de la radiación de fondo de microondas en la dinámica de sistemas astrofísicos distantes. Como se informó desde un grupo de astrónomos del del European Southern Observatory, la radiación que impregna el Universo es más cálida que en los primeros tiempos.3 El enfriamiento uniforme de la radiación del fondo cósmico de microondas durante millones de años es explicable ahora si el Universo está experimentando una expansión métrica.
Tomadas conjuntamente, la única teoría que explica coherentemente estos fenómenos depende de que el espacio se expanda a través de un cambio en la métrica. De modo interesante, no fue hasta el descubrimiento en el año 2000 de las pruebas observacionales directas para el cambio de temperatura del fondo cósmico de microondas que las construcciones más extrañas no fueron excluidas. Hasta ese momento, estaban basadas puramente en una suposición de que el Universo no se comportaba como si la Vía Láctea estuviera en el centro de una métrica fija con una explosión Universal de galaxias en todas las direcciones (como se ve, por ejemplo, en el modelo de Milne).

Además, los científicos están seguros que las teorías que dependen de la expansión métrica del espacio son correctas porque han pasado las rigurosas pruebas del método científico. En particular, cuando los cálculos físicos son realizados basándonos en las teorías actuales (incluyendo la métrica de expansión), parecen dar resultados y predicciones que, en general, están de acuerdo extremadamente cercanos con observaciones astrofísicas y de física de partículas. La universalidad espacial y temporal de las leyes físicas fue hasta hace poco tomada como una suposición filosófica fundamental que ahora es comprobada en los límites observacionales del tiempo y el espacio. Esta prueba es tomada muy en serio porque el nivel de detalle y la cantidad total de medidas que las teorías predicen se puede mostrar que coincide de forma precisa y exacta con la realidad visible. El nivel de precisión es difícil de cuantificar, pero está en el orden de la precisión vista en las constantes físicas que gobiernan la física del Universo.

Analogía con modelos

Debido a que la métrica de expansión no se ve en la escala física de los humanos y el concepto puede ser difícil de comprender. Existen tres analogías fundamentales, la analogía de las hormigas en un balón, la analogía de la hoja de caucho y la analogía de pan de pasas, que se han desarrollado para ayudar en la comprensión conceptual. Cada analogía tiene sus beneficios y sus inconvenientes.

Modelo de las hormigas en un balón

El modelo de las hormigas en un balón es una analogía bidimensional para la métrica de expansión tridimensional. Una hormiga se imagina que está restringida a moverse en la superficie de un balón que para la comprensión de la hormiga es la extensión total del espacio. En una de las primeras etapas del Universo-balón, la hormiga mediría distancias entre puntos separados del balón que sirven como un estándar con el que se puede medir el factor de escala. El balón se infla un poco más y entonces la distancia entre los mismos puntos es medida y determinada por un factor proporcional. La superficie del balón sigue pareciendo plana y aun así todos los puntos han retrocedido desde la hormiga, a su vez cada punto en la superficie del balón está proporcionalmente más lejos de la hormiga que antes de que el Universo-balón se inflara. Esto explica cómo un Universo en expansión puede resultar que todos los puntos retrocedan entre sí simultáneamente.

En el límite en que la hormiga es pequeña y el balón es enorme, la hormiga también puede detectar cualquier curvatura asociada con la geometría de la superficie (que es aproximadamente una geometría elíptica para la superficie exterior de un balón curvado). Para la hormiga, el balón parece ser un plano que se extiende hacia afuera en todas direcciones. Esto imita el llamado "problema de la planitud" visto en nuestro propio Universo observable que parece incluso en las escalas más grandes seguir las leyes geométricas asociadas con la geometría plana. Como las hormigas en un enorme balón, mientras podamos detectar la curvatura, en mayores, escalas observables sería una curvatura residual. La forma del universo que observamos se considera que es plana, cosa que no pasa con las condiciones iniciales que el Universo tuvo en la inflación cósmica que causó que el Universo se empezara a expandir en primer lugar.

En la analogía, las dos dimensiones del balón no se expanden en cualquier cosa ya que la superficie del balón admite infinitos caminos en todas direcciones en todo momento. Hay alguna posibilidad de confusión es esta analogía ya que el balón puede ser visto por un observador externo que vería la tercera dimensión de expansión (en la dirección radial), pero esto no es una característica de la expansión métrica, más que el resultado de la elección arbitraria del balón que ocurre que está en una variedad incrustada en una tercera dimensión. Esta tercera dimensión no es matemáticamente necesaria para que ocurra la métrica de expansión bidimensional y la hormiga que está confinada en la superficie del balón no tiene forma de determinar si una tercera dimensión existe o no. Puede ser útil visualizar una tercera dimensión, pero el hecho es que la expansión no requiere teóricamente que tal dimensión exista. Este es el porqué de que la pregunta "¿dentro de qué se está expandiendo el Universo?" está mal formulada. La métrica de expansión no tiene que avanzar "hacia" nada. El Universo que habitamos se expande y las distancias se harán mayores, pero eso no significa que hay un mayor espacio en el que se está expandiendo.

Modelo de la expansión de la hoja de caucho

Parecido al modelo de las hormigas en un balón, la expansión de la hoja de caucho es un modelo que representa la expansión ignorando la tercera dimensión. En vez de contar con un balón expandiéndose en tres dimensiones, el modelo de la hoja de caucho describe una hoja de caucho infinita que es estirada en ambas direcciones. Los objetos pesados posicionados en la hoja crean depresiones y picos de curvatura local de la misma forma que las galaxias masivas curvan el espacio-tiempo en los pozos gravitacionales de nuestro Universo. Todos estos objetos parecen estar retrocediendo los unos con los otros a menos que sean capturados en el pozo gravitacional de otro (un proceso llamado virialización). La hoja de caucho infinita permanece infinita y bidimensional, pero las distancias entre puntos en la hoja se incrementan estacionariamente con la expansión. Este modelo tiene la ventaja sobre el modelo del balón de una geometría bidimensional plana macroscópica que se corresponde bien con la falta de curvatura tridimensional medida en nuestro Universo observable.

Modelo del pan de pasas

El modelo del pan de pasa imagina las galaxias como si fueran pasas en una masa de pan de pasas que "crecerá" o "expandirá" cuando se cocine. Según ocurra la expansión, cada una de las pasas se irá más lejos de cada otra mientras que las propias pasas conservan su tamaño. La masa entre las pasas en el modelo hace de espacio entre galaxias mientras que las pasas son "objetos acotados" no son objeto de expansión. Este modelo es útil para explicar cómo es que las normas convencionales se pueden determinar midiendo la expansión. En un Universo vacío, el espacio es la única regla y la regla se expande con el espacio, no habría manera de distinguir entre un Universo en expansión y un Universo estático. Sólo en un Universo dónde hay objetos acotados y no se expanden de tal manera que las reglas son independientes de la expansión métrica se pueden realizar medidas.

Como el modelo de las hormigas en el balón, este modelo también sufre el problema de que el pan de pasas se está expandiendo en el horno. Para hacer la analogía con el Universo, es necesario imaginar un pan de pasas que no tenga un borde observable. La expansión seguiría ocurriendo, pero la pregunta, "¿dentro de qué se está expandiendo el pan de pasas?" no tendría significado.

Universo Observable

El universo observable, horizonte del universo u horizonte cosmológico constituye la parte visible del Universo total. Parece tener un espacio-tiempo geométricamente plano. Tiene un radio de 1,37 x 1026 m, un volumen de 1,09 x 1079 m3 y una masa de 9,27 x 1052 kg, por lo que la densidad masa-energía equivalente es de 8,46 x 10-27 kg/m3. La densidad media de sus constituyentes primarios es de un 68,3 % de energía oscura, un 26,8 % de materia oscura fría y un 4,9% de materia ordinaria, según datos recogidos por la sonda Planck. Así, la densidad de los átomos está en el orden del núcleo de hidrógeno sencillo para cada cuatro metros cúbicos.La naturaleza de la energía oscura y la materia oscura fría sigue siendo un misterio. Aunque se han propuesto diferentes candidatos para ambas cosas (como partículas y fuerzas ya existentes o nuevas, o modificaciones de la relatividad general) no existe confirmación experimental sobre ninguna de las propuestas.


Imagen que explica la diferencia sobre el dato de la edad del universo (1.37×1010 años luz) en comparación a la estimación sobre el radio actual del universo observable (4.65×1010 años luz).La explicación de tal sería que al mirar la radiación de fondo y las galaxias más lejanas se observa el pasado con una mayor densidad de materia por centímetro cúbico del universo.


Diferencias entre universo total y universo observable

El universo observable es tan solo aquella pequeña parte que podemos detectar del universo total. El universo observable o local, al tener una geometría plana,ha supuesto que como mínimo el universo total sea mucho más grande o, incluso, éste pueda ser de tamaño infinito.

Tamaño

Tamaño aparente

Es el tamaño basado solo en el recorrido de las ondas de luz desde su primera fuente de emisión y corresponde a un radio aproximado de 13.700 millones de años luz. Es un tamaño relativo pues proviene del pasado, de estados más densos del universo y no contempla el estado de uniformidad u homogeneidad de la densidad actual a otros puntos tras una posterior expansión del universo.


Universo observable con un radio de 14 millones de añoz luz que de forma ilustrativa muestra a los extremos cada vez con estados más densos de materia e, incluso, un borde.


Verdadera distancia comóvil

La verdadera distancia comóvil al extremo del Universo visible es sobre 46.500 millones de años luz en todas las direcciones desde la Tierra, así el Universo visible se puede considerar como una esfera perfecta con la Tierra en el centro y un diámetro de unos 93.000 millones de años luz/880.000 trillones de km (5.865 billones UA).Hay que notar que muchas fuentes han publicado una amplia variedad de cifras incorrectas para el tamaño del Universo visible, desde 13.700 hasta 180.000 millones de años luz. Aunque la edad del universo sea de 13.700 millones de años, la expansión producida debido al Big Bang hace que el universo más lejano observable se haya alejado mucho más que esa distancia, a pesar de haber recorrido menos de 13.700 millones de años luz (1,37x10^10).

Escala comparativa

Equivalentes a escala aproximada 1:1000000000000000, es decir, un metro equivale aproximadamente a un año luz. Por decir algo, molécula de azúcar es a Tokio como planeta Tierra es a la Vía Láctea.

Jacques Bergier - Melquisedeque

  Melquisedeque aparece pela primeira vez no livro Gênese, na Bíblia. Lá está escrito: “E Melquisedeque, rei de Salem, trouxe pão e vinho. E...