sexta-feira, 8 de abril de 2016
Espacio Interestelar
El espacio interestelar es la región que media entre las estrellas y no debe confundirse con el espacio intergaláctico, mucho más vacío. En general, el espacio interestelar suele estar poblado de grandes cantidades de polvo cósmico, aunque la densidad regional puede ser muy variable, en función de la actividad de la zona. El único objeto de manufactura humana que ha logrado alcanzar el espacio interestelar, en el año 2014, es la sonda Voyager 1 de la NASA.
Medio interestelar
En astronomía, el medio interestelar, o ISM por sus siglas en inglés, es el contenido de materia y energía que existe entre las estrellas dentro de una galaxia. El medio interestelar desempeña un papel crucial en astrofísica a causa de su situación entre las escalas estelar y galáctica. Las estrellas se forman dentro de regiones frías de medio interestelar, al tiempo que éstas reponen materia interestelar 3, lo que equivale a un átomo de hidrógeno por centímetro cúbico aproximadamente. Dicho medio lo conforman tres constituyentes básicos: materia ordinaria, rayos cósmicos y campos magnéticos.
El medio en sí es una mezcla heterogénea de polvo. La materia está compuesta a su vez de alrededor de un 99% en masa por partículas de gas y un 1% por polvo. La composición química del gas, de acuerdo a la nucleosíntesis primordial, es de un 90.8% en número (70.4% en masa) de hidrógeno, un 9.1% (28.1%) de helio y un 0.12% (1.5%) de elementos más pesados, comúnmente llamados metales en la jerga astrofísica. Una fracción significativa de estos metales condensan en forma de granos de polvo en las regiones más densas y frías del medio interestelar.
La presencia del oscurecimiento interestelar dio a William Herschel y a Jacobus Kapteyn la falsa impresión de que nuestro Sistema Solar se encontraba cerca del centro de la galaxia. Sin embargo dicho oscurecimiento lo producen las nubes de gas y polvo que se interponen en el recorrido de la luz de las estrellas y nuestro sistema planetario. Es lo que se denomina extinción estelar. Este decaimiento de la intensidad lumínica de las estrellas al ser atravesado por la luz es causado por la absorción de fotones a ciertas longitudes de onda.
Por ejemplo, la longitud de onda típica de absorción del hidrógeno atómico se encuentra a unos 121,5 nanómetros, la transición Lyman-alfa. Por tanto, es casi imposible ver la luz emitida en esta longitud de onda por una estrella, porque gran parte es absorbida durante el viaje a la Tierra. Asimismo, la absorción causada por las nubes de polvo se da, sobre todo, a longitudes de onda cortas, es decir que el azul se absorbe mejor que el rojo. Esto produce un efecto de enrojecimiento (reddening en inglés) de la luz, más intenso cuanto más lejana sea la posición de la fuente. Este es uno de los motivos por los cuales los telescopios de infrarrojos permiten ver mejor a través de dichas nubes.
Otro efecto interesante es la polarización lineal de la luz que es debida a que los granos de polvo no son esféricos sino ligeramente alargados por lo que los campos magnéticos tienden a alinearlos a lo largo de sus líneas de campo. La manifestación de dicho efecto puso en evidencia la existencia de campos magnéticos coherentes en el medio interestelar.
El medio interestelar suele dividirse en tres fases, dependiendo de la temperatura del gas: muy caliente (millones de kelvin), caliente (miles de kelvin), y frío (decenas de kelvin).
Características importantes del estudio del medio interestelar incluyen nubes moleculares, nubes interestelares, restos de supernovas, nebulosas planetarias, y estructuras difusas parecidas.
Historia
Al principio, los astrónomos creían que el espacio era un desierto de vacío. En 1913, el explorador noruego y físico Kristian Birkeland pudo ser el primero en predecir que el espacio no es solo un plasma, sino que también contiene "materia oscura". Escribió: "Parece una consecuencia natural de nuestros puntos de vista suponer que todo el espacio está lleno de electrones e iones eléctricos de todo tipo. Suponemos que cada sistema estelar en evolución lanza corpúsculos eléctricos al espacio. Parece por tanto razonable pensar que la mayor parte de la masa del universo se encuentra, no en sistemas solares o nebulosas, sino en el espacio "vacío". ("Polar Magnetic Phenomena and Terrella Experiments", en la expedición noruega Aurora Polaris 1902-1903 (publ. 1913, p.720)). Johannes Franz Hartmann descubrió los primeros indicios de su presencia.
Espacio Intergaláctico
El espacio intergaláctico es el espacio físico entre las galaxias. Se encuentra lleno de plasma intergalactico, formado por el flujo del viento estelar proveniente de las galaxias. Cada estrella emite fotones de distintas longitudes de onda, el plasma intergalactico está formado principalmente de electrones y protones que se encuentran muy diluidos. Generalmente sin polvo y escombros, el espacio intergaláctico está cerca del vacío total pero lleno de campos electromagnéticos, de las partículas cargadas. Algunas teorías estiman la densidad media del universo en el equivalente a un átomo de hidrógeno por metro cúbico.No obstante, la densidad del universo claramente no es uniforme; varía desde una densidad relativamente alta en galaxias (incluso una densidad muy alta en estructuras dentro de las mismas, como planetas, estrellas, y agujeros negros) a condiciones de enormes vacíos cuya densidad es muy inferior a la media del universo. La temperatura es tan sólo de 2,73 K.3 La misión COBE de la NASA midió una temperatura de 2,725 ± 0,002 K.
En cúmulos de galaxias ricos como el de Virgo, el espacio intergaláctico está ocupado por un gas muy rarificado y a elevadas temperaturas, detectable gracias a su emisión de rayos X.
Espacio exterior
El espacio exterior o espacio vacío, también simplemente llamado espacio, se refiere a las regiones relativamente vacías del universo fuera de las atmósferas de los cuerpos celestes. Se usa espacio exterior para distinguirlo del espacio aéreo (y las zonas terrestres). El espacio exterior no está completamente vacío de materia (es decir, no es un vacío perfecto) sino que contiene una baja densidad de partículas, predominantemente gas hidrógeno, así como radiación electromagnética. Aunque se supone que el espacio exterior ocupa prácticamente todo el volumen del universo y durante mucho tiempo se consideró prácticamente vacío, o repleto de una sustancia llamada éter, ahora se sabe que contiene la mayor parte de la materia del universo. Esta materia está formada por radiación electromagnética, partículas cósmicas, neutrinos sin masa e incluso formas de materia no bien conocidas como la materia oscura y la energía oscura. De hecho en el universo cada uno de estos componentes contribuye al total de la materia, según estimaciones, en las siguientes proporciones aproximadas: elementos pesados (0,03 %), materia estelar (0,5 %), neutrinos (0,3 %), estrellas (0,5 %) hidrógeno y helio libres (4 %) materia oscura (aprox. 25%) y energía oscura (aprox. 70 %); total 100,33 %, por lo que sobra un 0'33 % sin estimar. La naturaleza física de estas últimas es aún apenas conocida. Sólo se conocen algunas de sus propiedades por los efectos gravitatorios que imprimen en el período de revolución de las galaxias, por un lado, y en la expansión acelerada del universo o inflación cósmica, por otro.
Límite de la Tierra
No hay un límite claro entre la atmósfera terrestre y el espacio exterior, ya que la densidad de la atmósfera decrece gradualmente a medida que la altitud aumenta. No obstante, la Federación Aeronáutica Internacional ha establecido la línea de Kármán a una altitud de 100 kilómetros como una definición de trabajo para el límite entre la atmósfera y el espacio. Esto se usa porque, como Theodore von Kármán calculó, por encima de una altitud de unos 100 km, un vehículo típico tendría que viajar más rápido que la velocidad orbital para poder obtener suficiente sustentación aerodinámica para sostenerse él mismo. Estados Unidos designa a la gente que viaja por encima de una altitud de 80 km como astronautas. Durante la reentrada atmosférica, la altitud de 120 km marca el límite donde la resistencia atmosférica se convierte en perceptible.
Sistema Solar
El espacio exterior dentro del Sistema Solar es llamado espacio interplanetario, que se convierte en espacio interestelar en la heliopausa. El vacío del espacio exterior no es realmente vacío; está poblado en parte con varias docenas de tipos de moléculas orgánicas descubiertas mediante espectroscopia de microondas. Según la Teoría del Big Bang, la radiación de los cuerpos negros de 2,7 K de temperatura quedó del 'big bang' y el origen del universo llena el espacio, así como los rayos cósmicos, que incluyen núcleos atómicos ionizados y varias partículas subatómicas. También hay gas, plasma, polvo, meteoros y material dejado de lanzamientos previos tripulados y no tripulados que son un riesgo potencial para las naves espaciales. Alguna de esta basura espacial vuelve a entrar en la atmósfera.
La ausencia de aire convierte al espacio en lugares ideales para la astronomía en todas las longitudes de onda del espectro electromagnético. Las imágenes y otros datos de vehículos espaciales no tripulados han proporcionado información sobre los planetas, asteroides y cometas en nuestro sistema solar.
Variación de presión
Trasladarse desde el nivel del mar hasta el espacio exterior produce una diferencia de presión de unos 103 410 Pa (15 psi ), equivalente a salir a la superficie desde una profundidad bajo el agua de unos 10 metros.
Vacío
Contrario a la creencia popular, una persona expuesta de repente al vacío no explotaría, moriría de frío, pero tardaría poco tiempo en morir de asfixia (anoxia). El vapor de agua comenzaría a hervir desde las áreas expuestas como la córnea del ojo y junto con el oxígeno, desde las membranas dentro de los pulmones.La sangre no herviría puesto que, al ser el sistema circulatorio cerrado, está sujeto a una presión interna y no expuesta a la externa.
Satélites
Hay muchos satélites artificiales orbitando la Tierra, incluyendo satélites de comunicaciones geosíncronos a 35 786 km sobre el nivel del mar sobre el ecuador. Sus órbitas nunca se "deterioran" porque casi no hay materia allí para ejercer arrastre por fricción. Hay también una creciente dependencia de satélites que permiten el Sistema de posicionamiento global (GPS), para usos militares y civiles. Una idea equivocada común es que la gente en órbita está fuera de la gravedad de la Tierra porque están "flotando", pero flotan porque están en caída libre: la fuerza de la gravedad y su velocidad lineal crean una fuerza centrípeta interior que no les permite volar fuera, hacia el espacio. La gravedad de la Tierra alcanza más allá del cinturón de Van Allen y mantiene la Luna en órbita a una distancia media de 384 403 km. La gravedad de todos los cuerpos celestes tiende a cero con la inversa del cuadrado de la distancia.
Hitos en el camino hacia el espacio
Nivel del mar: 100 kPa (1 atm; 1 bar; 760 mm Hg) de presión atmosférica.
4,6 km: la Administración Federal de Aviación de Estados Unidos exige oxígeno suplementario para los pilotos y pasajeros de aviones.
5,0 km: 50 kPa de presión atmosférica.
5,3 km: hay media atmósfera de la Tierra por encima de esta altitud.
8,0 km: zona de la muerte para los escaladores humanos.
8,8 km: cima del Monte Everest, la montaña más alta de la Tierra (26 kPa).
16 km: Cabina presurizada o traje presurizado requeridos.
18 km: Límite entre la troposfera y la estratosfera.
20 km: agua a temperatura ambiente hierve sin un recipiente presurizado. La noción popular de que los fluidos del cuerpo comenzarían a hervir en este punto es falsa porque el cuerpo genera suficiente presión interna para evitarlo.
24 km: los sistemas normales de presurización de los aviones ya no funcionan.
32 km: los turborreactores ya no funcionan.
39,1 km: récord de altitud para vuelo de globo aerostático tripulado (Felix Baumgartner).
45 km: los estatorreactores ya no funcionan.
50 km: límite entre la estratosfera y la mesosfera
80 km: límite entre la mesosfera y la termosfera. Definición estadounidense de vuelo espacial.
100 km: línea Karman, define el límite del espacio exterior según la Federación Aeronáutica Internacional. Superficies aerodinámicas ineficaces debido a la baja densidad atmosférica. La velocidad de ascenso generalmente supera a la velocidad orbital. Turbopausa.
120 km: primera resistencia atmosférica perceptible durante la reentrada desde la órbita.
200 km: órbita más baja posible con estabilidad a corto plazo (estable durante pocos días).
307 km: órbita de la misión STS-1.
350 km: órbita más baja posible con estabilidad a largo plazo (estable durante varios años).
360 km: órbita media de la ISS, aunque varía debido a la resistencia atmosférica y a empujes periódicos.
390 km: órbita de la estación Mir.
440 km: órbita de la estación Skylab.
587 km: órbita de la misión STS-103 y del HST.
690 km: límite entre la termosfera y la exosfera.
780 km: órbita de los satélites Iridium.
20 200 km: órbita de los satélites del sistema GPS.
35 786 km: altura de la órbita geoestacionaria.
326 454 km: la gravedad lunar supera a la de la Tierra en el Apolo 8.
363 104 km: perigeo lunar.
Teoria Das Cordas
A teoria das cordas é um modelo físico-matemático onde os blocos fundamentais são objetos extensos unidimensionais, semelhantes a uma corda, e não pontos sem dimensão (partículas), que são a base da física tradicional. Por essa razão, as teorias baseadas na teoria das cordas podem evitar os problemas associados à presença de partículas pontuais (entenda-se de dimensão zero) em uma teoria física tradicional,sem necessidade de outros objetos que não propriamente cordas - incluindo pontos, membranas e outros objetos de dimensões mais altas.
O interesse na teoria das cordas é dirigido pela grande esperança de que ela possa vir a ser uma teoria de tudo. Ela é uma possível solução do problema da gravitação quântica e, adicionalmente à gravitação, talvez possa naturalmente descrever as interações similares ao eletromagnetismo e outras forças da natureza. As teorias das supercordas incluem os férmions, os blocos de construção da matéria. Não se sabe ainda se a teoria das cordas é capaz de descrever o universo como a precisa coleção de forças e matéria que nós observamos, nem quanta liberdade para escolha destes detalhes a teoria irá permitir. Nenhuma teoria das cordas fez alguma nova predição que possa ser experimentalmente testada.
Trabalhos na teoria das cordas têm levado a avanços na matemática, principalmente em geometria algébrica. A teoria das cordas tem também levado a novas descobertas na teoria da supersimetria que poderão ser testadas experimentalmente pelo Grande Colisor de Hádrons. Os novos princípios matemáticos utilizados nesta teoria permitem aos físicos afirmar que o nosso universo possui 11 dimensões: 3 espaciais (altura, largura e comprimento), 1 temporal (tempo) e 7 dimensões recurvadas (sendo a estas atribuídas outras propriedades como massa e carga elétrica, por exemplo), o que explicaria as características das forças fundamentais da natureza.
O estudo da chamada teoria das cordas foi iniciado na década de 60 e teve a participação de vários físicos para sua elaboração. Essa teoria propõe unificar toda a física e unir a Teoria da relatividade e a Teoria Quântica numa única estrutura matemática. Embora não esteja totalmente consolidada, a teoria mostra sinais promissores de sua plausibilidade.
Depois de dividir o átomo em prótons, nêutrons e elétrons, os cientistas ainda puderam dividir os prótons e nêutrons em quarks, dos quais existem seis categorias diferentes, das quais apenas três existem atualmente, e que, combinadas, formam todos os tipos de partículas do Universo até hoje previstos. Tal divisão pode repetir-se ad infinitum, pois, ao chegar na última partícula (aquela que, supostamente, seria a indivisível), como saber que ela não seria, também, divisível? (O próprio átomo e, depois, prótons e nêutrons eram considerados indivisíveis até serem efetivamente divididos em partículas menores. O elétron, assim como outros léptons, contudo, até o nível de energia das experiências atuais, parece ser sem estrutura nos moldes do modelo padrão).
O que alguns físicos viram como uma possível solução para este problema foi a criação de uma teoria, ainda não conclusiva, que diz que as partículas primordiais são formadas por energia (não necessariamente um tipo específico de energia, como a elétrica ou nuclear) que, vibrando em diferentes frequências, formaria diferentes partículas. De acordo com a teoria, todas aquelas partículas que considerávamos como elementares, como os quarks e os elétrons, são na realidade filamentos unidimensionais vibrantes, a que os físicos deram o nome de cordas. Ao vibrarem as cordas originam as partículas subatômicas juntamente com as suas propriedades. Para cada partícula subatómica do universo, existe um padrão de vibração particular das cordas.
A analogia da teoria consiste em comparar esta energia vibrante com as cordas. As de um violão, por exemplo, ao serem pressionadas em determinado ponto e feitas vibrar produzem diferentes sons, dependendo da posição onde são pressionadas pelo dedo. O mesmo ocorre com qualquer tipo de corda. Da mesma forma, as diferentes vibrações energéticas poderiam produzir diferentes partículas (da mesma forma que uma corda pode produzir diferentes sons sem que sejam necessárias diferentes cordas, uma para cada som).
Einstein e o sonho da unificação da Dimensão Circular
Depois de formular a teoria da relatividade geral, Einstein dedicou praticamente suas últimas três décadas de vida à tentativa de unificar, numa só teoria, a força eletromagnética e a força gravitacional. Uma proposta a que Einstein se dedicou foi a idealizada, independentemente, pelo físico alemão Theodor Kaluza e o sueco Oskar Klein. Nela, além das três dimensões usuais de altura, largura e comprimento, o espaço teria uma dimensão a mais. Mas, diferentemente das três dimensões em que vivemos, cujos tamanhos são infinitos, a dimensão extra da teoria de Kaluza e Klein teria a forma de um círculo com raio muito pequeno. Partículas andando no sentido horário do círculo teriam carga elétrica negativa(como o elétron), enquanto aquelas se movimentando no sentido anti-horário seriam positivas (como o pósitron). Partículas paradas em relação a essa quarta dimensão espacial teriam carga elétrica zero (como o neutrino).
Embora a teoria de Kaluza e Klein unificasse a força gravitacional com a força eletromagnética, ela ainda era inconsistente com a mecânica quântica. Essa inconsistência só seria resolvida 50 anos mais tarde, com o surgimento de uma nova teoria na qual o conceito de partícula como um ponto sem dimensão seria substituído pelo de objetos unidimensionais. Alguns anos depois uma nova teoria foi criada com o mesmo objetivo, a teoria do Tudo que busca unificar todos os campos da física quântica, a relatividade de Einstein (que explica que o espaço-tempo se ajusta à velocidade da luz), e o eletromagnetismo com a força da gravidade .
História
Gabriele Veneziano, em 1968, tentando descobrir o sentido de algumas propriedades da força nuclear forte, percebeu que uma fórmula do matemático Leonhard Euler podia descrever todas as propriedades das partículas que possuem interação forte. Com essa descoberta, uma grande quantidade de pesquisas em relação à aplicação da função beta de Euler às partículas de interação forte foram feitas. Contudo, ninguém sabia o motivo da fórmula funcionar. Em 1970, Yoichiro Nambu e Holger Nielsen mostraram que se as partículas elementares fossem formadas de minúsculas cordas vibrantes e unidimensionais, suas interações poderiam ser descritas exatamente pela função de Euler.
A teoria das cordas foi originalmente inventada para explicar as peculiaridades do comportamento do hádron. Em experimentos em aceleradores de partículas, os físicos observaram que o momento angular de um hádron é exatamente proporcional ao quadrado de sua energia. Nenhum modelo simples dos hádrons foi capaz de explicar este tipo de relação. Um dos modelos rejeitados tenta explicar os hádrons como conjuntos de partículas menores mantidas juntas através de forças similares à força elástica. A fim de considerar estas "trajetórias de Regge" os físicos voltaram-se para um modelo onde cada hádron era de fato uma corda rotatória, movendo-se de acordo com a teoria da relatividade especial de Einstein. Isto levou ao desenvolvimento da teoria bosônica das cordas, que ainda é, geralmente, a primeira versão a ser ensinada aos estudantes. A necessidade original de uma teoria viável para os hádrons foi completamente preenchida pela cromodinâmica quântica, a teoria dos quarks e suas interações. Tem-se a esperança agora que a teoria das cordas ou algumas de suas descendentes irão prover uma compreensão mais fundamental dos quarks em si.
A teoria bosônica das cordas é formulada em termos da ação Nambu-Goto, uma quantidade matemática que pode ser usada para predizer como as cordas se movem através do espaço e do tempo. Pela aplicação das ideias da mecânica quântica às ações Nambu-Goto --- um procedimento conhecido como quantização --- pode-se deduzir que cada corda pode vibrar em muitos diferentes modos, e que cada estado vibracional representa uma partícula diferente. A massa da partícula e a maneira que ela pode interagir são determinadas pela forma de vibração da corda --- em essência, pela "nota" que a corda produz. A escala de notas, cada uma correspondente a um diferente tipo de partícula, é denominada o "espectro" da teoria.
Estes modelos iniciais incluem cordas abertas, que têm duas pontas distintas, e cordas fechadas, onde as pontas são juntas de forma a fazer uma volta completa. Os dois tipos de corda diferem ligeiramente no comportamento, apresentando dois espectros. Nem todas as teorias de cordas modernas usam estes dois tipos; algumas incorporam somente a variedade fechada.
Entretanto, a teoria bosônica tem problemas. Mais importante, como o nome implica, o espectro de partículas contém somente bósons, partículas como o fóton, que obedecem regras particulares de comportamento. Ainda que os bósons sejam um ingrediente crítico do universo, eles não são o únicos constituintes. Investigações de como uma teoria poderia incluir férmions em seu espectro levaram à supersimetria, uma relação matemática entre os bósons e férmions, que agora forma uma área independente de estudo. As teorias de cordas que incluem vibrações de férmions são agora conhecidas como teorias das supercordas. Vários tipos diferentes de supercordas têm sido descritos.
Nos anos 90, Edward Witten e outros encontraram fortes evidências de que as diferentes teorias de supercordas eram limites diferentes de uma teoria desconhecida em 11 dimensões, chamada de Teoria-M. Esta descoberta foi a espoleta da segunda revolução das supercordas. Vários significados para a letra "M" têm sido propostos; físicos jocosamente afirmam que o verdadeiro significado só será revelado quando a teoria final for compreendida.
Muitos dos desenvolvimentos recentes nestes campos relacionam-se às D-branas, objetos que os físicos descobriram que também devem ser incluídos em qualquer teoria de cordas abertas.
Propriedades básicas
O termo "teoria das cordas" pode referir-se tanto à teoria bosônica das cordas, com 26 dimensões, como à teoria das supercordas, descoberta pela adição da supersimetria, com suas 10 dimensões. Atualmente, o termo "teoria das cordas" usualmente refere-se à variante supersimétrica, enquanto as anteriores são designadas pelo nome completo "teoria bosônica das cordas'.
Enquanto a compreensão de detalhes das teorias das cordas e supercordas requer uma considerável sofisticação matemática, algumas propriedades qualitativas das cordas quânticas podem ser compreendidas de forma intuitiva. Por exemplo, cordas quânticas têm tensão, da mesma forma que um barbante. Esta tensão é considerada um parâmetro fundamental da teoria e está intimamente relacionada ao seu tamanho. Considere uma corda em loop fechado, abandonada para se mover através do espaço sem forças externas. Esta tensão tenderá a contraí-la cada vez mais para um loop menor. A intuição clássica sugere que ela deva encolher até um simples ponto, mas isto violaria o Princípio da incerteza de Heisenberg. O tamanho característico do loop da corda é um equilíbrio entre a força de tensão, atuando para reduzi-lo, e o princípio da incerteza, que procura mantê-lo aberto. Consequentemente, o tamanho mínimo de uma corda deve estar relacionado com a tensão que ela sofre.
As dimensões extras
Um aspecto intrigante da teoria das cordas é que ela prediz o número de dimensões que o universo deve possuir. Nada na teoria de Maxwell do eletromagnetismo ou na Teoria da Relatividade de Einstein faz qualquer tipo de predição a este respeito. Estas teorias requerem que o físico insira o número de dimensões "na mão". A primeira pessoa a adicionar uma quinta dimensão na teoria da relatividade foi o matemático alemão Theodor Kaluza em 1919. A razão para que a quinta dimensão não seja observável (sua compactação) foi sugerida pelo físico sueco Oskar Klein em 1926.
Ao invés disto, a teoria das cordas permite calcular o número de dimensões espaço-temporais a partir de seus princípios fundamentais. Tecnicamente, isto acontece porque a invariância de Lorentz só pode ser satisfeita em um certo número de dimensões. Isto é, grosso modo, como dizer que se nós medíssemos a distância entre dois pontos, então girássemos nosso observador para um novo ângulo e a medíssemos novamente, a distância observada somente permaneceria a mesma se o universo tivesse um número particular de dimensões.
O único problema é que quando este cálculo é feito, o número de dimensões do universo não é quatro como esperado (três eixos espaciais e um no tempo), mas vinte e seis. Mais precisamente, a teoria bosônica das cordas tem 26 dimensões, enquanto a teoria das supercordas e a Teoria-M envolvem em torno de 10 ou 11 dimensões. Na teoria de Rambu, as 26 dimensões vêm da equação:
Contudo, este modelo parece contradizer fenômenos observados. Físicos usualmente resolvem este problema de duas formas diferentes. A primeira é a compactação das dimensões extras, i.e., as 6 ou 7 dimensões extras são tão pequenas que não são detectadas em nossos experimentos. Obtém-se a solução de modelos hexadimensionais espaços Calabi-Yau. Em 7 dimensões, elas são chamadas distribuições G2. Essencialmente estas dimensões extras estão "compactadas" pelo seu enrolamento sobre elas mesmas.
Uma analogia padrão para isto é considerar um espaço multidimensional como uma mangueira de jardim. Se se observar a mangueira de uma distância considerável, ela aparenta ter somente uma dimensão, o comprimento. Isso é semelhante às quatro dimensões macroscópicas com as quais estamos acostumados a lidar em nosso dia a dia. Se, no entanto, nos aproximarmos o suficiente da mangueira, descobrimos que ela contém uma segunda dimensão, sua circunferência. Esta "dimensão extra" é somente visível dentro de uma área relativamente próxima da mangueira, justo como as dimensões extras do espaço Calabi-Yau são visíveis a distâncias extremamente pequenas e, portanto não são facilmente detetáveis.
Certamente, cada mangueira de jardim existe nas 3 dimensões espaciais, mas por propósito de analogia, pode-se negligenciar a espessura e considerar somente a noção de superfície da mangueira. Um ponto na superfície da mangueira pode ser especificado por dois números, uma distância ao longo da circunferência, tal como um ponto da superfície da Terra pode ser especificado pela latitude e longitude. Em ambos os casos, diz-se que o objeto tem duas dimensões espaciais. Como a Terra, mangueiras de jardim possuem um interior, uma região que requer uma dimensão extra. No entanto, diferentemente da Terra, um espaço de Calabi-Yau não tem interior.
Outras possibilidades é que nós estejamos presos em subespaço com 3+1 dimensões de um universo com mais dimensões, onde o "3+1" faz-nos lembrar que o tempo é um tipo diferente de dimensão espacial. Como isso envolve objetos chamados D-branas, esta teoria é conhecida como mundo de brana.
Em ambos os casos, a gravidade atuando nas dimensões ocultas produz as outras forças não-gravitacionais tais como o eletromagnetismo. Em princípio, portanto, é possível deduzir a natureza destas dimensões extras pela necessidade de consistência com o modelo padrão, mas esta não é ainda uma possibilidade prática.
Problemas
A teoria das cordas permanece não verificada. Nenhuma versão da teoria das cordas fez ainda uma predição diferente de alguma feita por outras teorias; ao menos, nenhuma que pudesse ser verificada por um experimento atualmente realizável. Neste sentido, a teoria das cordas está em "estado larval": ela possui muitos aspetos de interesse matemático, e isto ainda deve se tornar de suprema importância para nossa compreensão do universo, mas isto ainda vai requerer mais desenvolvimentos para ser aceito ou negado. Uma vez que a teoria das cordas não possa ser testada em um futuro próximo, alguns cientistas têm se perguntado se ela merece mesmo ser chamada de uma teoria científica: ela não é ainda um teoria rejeitável ou falseável no sentido dado por Popper.
Isto não significa que ela seja a única teoria corrente que começou a ser desenvolvida que oferece estas dificuldades. Muitos novos desenvolvimentos podem passar através de um estágio de incerteza antes de se tornarem conclusivamente aprovados ou rejeitados. Como assinalado por Richard Feynman em The Character of Physical Law, o teste chave da teoria científica é se suas consequências concordam com as medições que obtivemos do experimento. Isto significa que não importa quem inventou a teoria, "qual é o seu nome", ou mesmo qual apelo estético a teoria venha ter. "Se ela não está de acordo como os experimentos, ela está errada." (Certamente, haveria outras possibilidades: alguma coisa pode estar errada com os experimentos, ou talvez tenha se cometido um erro ao prever as consequências da teoria. Todas estas possibilidades devem ser verificadas, o que pode tomar um tempo considerável). Estes desenvolvimentos podem se dar na teoria em si, tais como novos métodos de realizar os cálculos e produzir previsões, ou devem ocorrer nos experimentos em si, que passam a exibir quantidades antes imensuráveis.
A humanidade não tem atualmente tecnologia para observar as cordas (que se acredita terem aproximadamente o Comprimento de Planck, em torno de 10−35 m). Em algum momento poderemos ser capazes de observar as cordas de uma forma significativa, ou ao menos obter uma percepção mais substancial pela observação de fenômenos cosmológicos que elucidem a física das cordas.
No início dos anos 2000, teóricos da teoria das cordas retomaram seu interesse em um velho conceito, a corda cósmica. Originalmente discutida nos anos 1980, cordas cósmicas são objetos diferentes em relação às entidades da teoria das supercordas. Por vários anos, cordas cósmicas eram um modelo popular para explicar vários fenômenos cosmológicos, tais como o caminho que foi seguido para a formação das galáxias no início do universo. Apesar disso, novos experimentos — em particular medições detalhadas da radiação cósmica de fundo em micro-ondas — falharam em apoiar as predições do modelo da corda cósmica e ela saiu de moda. Se tais objetos existiram, eles devem ser raros e bem esparsos. Vários anos mais tarde, foi apontado que a expansão do universo poderia ter esticado a corda fundamental (do mesmo tipo considerado pela teoria das supercordas) até que ela atingisse o tamanho intergaláctico. Tal corda esticada pode exibir muitas propriedades da variação da velha corda "cósmica", tornando os velhos cálculos úteis novamente. Além disto, as teorias modernas das supercordas oferecem outros objetos que poderiam ter uma razoável semelhança com cordas cósmicas, tais como D-branas unidimensionais altamente alongadas (conhecidas como "D-cordas"). Como o teórico Tom Kibble comenta, "cosmologistas da teoria das cordas têm descoberto cordas cósmicas observando em todos os lugares escondidos". Velhas propostas para detecção de cordas cósmicas podem agora ser usadas para investigar a teoria das supercordas. Por exemplo, astrônomos têm também detetado uns poucos casos do que podem ser lentes gravitacionais induzidas por cordas.
Super-cordas, D-cordas ou outros tipos de corda esticadas na escala intergaláctica devem irradiar ondas gravitacionais, que podem ser presumivelmente detetadas usando experimentos como o LIGO. Elas também devem causar ligeiras irregularidades na radiação de micro-ondas de fundo, muito sutis para terem sido detetadas ainda, mas na esfera das possíveis observações no futuro.
Embora intrigantes, estes propósitos cosmológicos falham em um sentido: testar uma teoria requer que o teste seja capaz de derrubar (ou provar falsa) uma teoria. Por exemplo, se a observação do Sol durante um eclipse não tivesse mostrado que a gravidade é capaz de desviar a luz, teria sido provado que a teoria da relatividade geral de Einstein era falsa (eliminando, é claro, a chance de erro experimental). Não encontrar cordas cósmicas não demonstraria que a teoria das cordas é fundamentalmente errada — meramente que a ideia particular de uma corda altamente esticada atuando "cosmicamente" é um erro. Enquanto muitas medições podem, em princípio, ser feitas para sugerir que a teoria das cordas está no caminho certo, os cientistas ainda não divisaram um "teste" confiável.
Em um nível mais matemático, outro problema é que, como a teoria quântica de campos, muito da teoria das cordas é ainda somente formulado através da técnica da perturbação (isto é, como uma série de aproximações ao invés de uma solução exata). Embora técnicas não-perturbativas tenham tido um progresso considerável — incluindo definições de conjeturas completas envolvendo tempo-espaço satisfazendo princípios assintóticos — a definição de uma teoria não-perturbativa completa é uma lacuna a ser preenchida.
O interesse na teoria das cordas é dirigido pela grande esperança de que ela possa vir a ser uma teoria de tudo. Ela é uma possível solução do problema da gravitação quântica e, adicionalmente à gravitação, talvez possa naturalmente descrever as interações similares ao eletromagnetismo e outras forças da natureza. As teorias das supercordas incluem os férmions, os blocos de construção da matéria. Não se sabe ainda se a teoria das cordas é capaz de descrever o universo como a precisa coleção de forças e matéria que nós observamos, nem quanta liberdade para escolha destes detalhes a teoria irá permitir. Nenhuma teoria das cordas fez alguma nova predição que possa ser experimentalmente testada.
Trabalhos na teoria das cordas têm levado a avanços na matemática, principalmente em geometria algébrica. A teoria das cordas tem também levado a novas descobertas na teoria da supersimetria que poderão ser testadas experimentalmente pelo Grande Colisor de Hádrons. Os novos princípios matemáticos utilizados nesta teoria permitem aos físicos afirmar que o nosso universo possui 11 dimensões: 3 espaciais (altura, largura e comprimento), 1 temporal (tempo) e 7 dimensões recurvadas (sendo a estas atribuídas outras propriedades como massa e carga elétrica, por exemplo), o que explicaria as características das forças fundamentais da natureza.
O estudo da chamada teoria das cordas foi iniciado na década de 60 e teve a participação de vários físicos para sua elaboração. Essa teoria propõe unificar toda a física e unir a Teoria da relatividade e a Teoria Quântica numa única estrutura matemática. Embora não esteja totalmente consolidada, a teoria mostra sinais promissores de sua plausibilidade.
Depois de dividir o átomo em prótons, nêutrons e elétrons, os cientistas ainda puderam dividir os prótons e nêutrons em quarks, dos quais existem seis categorias diferentes, das quais apenas três existem atualmente, e que, combinadas, formam todos os tipos de partículas do Universo até hoje previstos. Tal divisão pode repetir-se ad infinitum, pois, ao chegar na última partícula (aquela que, supostamente, seria a indivisível), como saber que ela não seria, também, divisível? (O próprio átomo e, depois, prótons e nêutrons eram considerados indivisíveis até serem efetivamente divididos em partículas menores. O elétron, assim como outros léptons, contudo, até o nível de energia das experiências atuais, parece ser sem estrutura nos moldes do modelo padrão).
O que alguns físicos viram como uma possível solução para este problema foi a criação de uma teoria, ainda não conclusiva, que diz que as partículas primordiais são formadas por energia (não necessariamente um tipo específico de energia, como a elétrica ou nuclear) que, vibrando em diferentes frequências, formaria diferentes partículas. De acordo com a teoria, todas aquelas partículas que considerávamos como elementares, como os quarks e os elétrons, são na realidade filamentos unidimensionais vibrantes, a que os físicos deram o nome de cordas. Ao vibrarem as cordas originam as partículas subatômicas juntamente com as suas propriedades. Para cada partícula subatómica do universo, existe um padrão de vibração particular das cordas.
A analogia da teoria consiste em comparar esta energia vibrante com as cordas. As de um violão, por exemplo, ao serem pressionadas em determinado ponto e feitas vibrar produzem diferentes sons, dependendo da posição onde são pressionadas pelo dedo. O mesmo ocorre com qualquer tipo de corda. Da mesma forma, as diferentes vibrações energéticas poderiam produzir diferentes partículas (da mesma forma que uma corda pode produzir diferentes sons sem que sejam necessárias diferentes cordas, uma para cada som).
Einstein e o sonho da unificação da Dimensão Circular
Depois de formular a teoria da relatividade geral, Einstein dedicou praticamente suas últimas três décadas de vida à tentativa de unificar, numa só teoria, a força eletromagnética e a força gravitacional. Uma proposta a que Einstein se dedicou foi a idealizada, independentemente, pelo físico alemão Theodor Kaluza e o sueco Oskar Klein. Nela, além das três dimensões usuais de altura, largura e comprimento, o espaço teria uma dimensão a mais. Mas, diferentemente das três dimensões em que vivemos, cujos tamanhos são infinitos, a dimensão extra da teoria de Kaluza e Klein teria a forma de um círculo com raio muito pequeno. Partículas andando no sentido horário do círculo teriam carga elétrica negativa(como o elétron), enquanto aquelas se movimentando no sentido anti-horário seriam positivas (como o pósitron). Partículas paradas em relação a essa quarta dimensão espacial teriam carga elétrica zero (como o neutrino).
Embora a teoria de Kaluza e Klein unificasse a força gravitacional com a força eletromagnética, ela ainda era inconsistente com a mecânica quântica. Essa inconsistência só seria resolvida 50 anos mais tarde, com o surgimento de uma nova teoria na qual o conceito de partícula como um ponto sem dimensão seria substituído pelo de objetos unidimensionais. Alguns anos depois uma nova teoria foi criada com o mesmo objetivo, a teoria do Tudo que busca unificar todos os campos da física quântica, a relatividade de Einstein (que explica que o espaço-tempo se ajusta à velocidade da luz), e o eletromagnetismo com a força da gravidade .
História
Gabriele Veneziano, em 1968, tentando descobrir o sentido de algumas propriedades da força nuclear forte, percebeu que uma fórmula do matemático Leonhard Euler podia descrever todas as propriedades das partículas que possuem interação forte. Com essa descoberta, uma grande quantidade de pesquisas em relação à aplicação da função beta de Euler às partículas de interação forte foram feitas. Contudo, ninguém sabia o motivo da fórmula funcionar. Em 1970, Yoichiro Nambu e Holger Nielsen mostraram que se as partículas elementares fossem formadas de minúsculas cordas vibrantes e unidimensionais, suas interações poderiam ser descritas exatamente pela função de Euler.
A teoria das cordas foi originalmente inventada para explicar as peculiaridades do comportamento do hádron. Em experimentos em aceleradores de partículas, os físicos observaram que o momento angular de um hádron é exatamente proporcional ao quadrado de sua energia. Nenhum modelo simples dos hádrons foi capaz de explicar este tipo de relação. Um dos modelos rejeitados tenta explicar os hádrons como conjuntos de partículas menores mantidas juntas através de forças similares à força elástica. A fim de considerar estas "trajetórias de Regge" os físicos voltaram-se para um modelo onde cada hádron era de fato uma corda rotatória, movendo-se de acordo com a teoria da relatividade especial de Einstein. Isto levou ao desenvolvimento da teoria bosônica das cordas, que ainda é, geralmente, a primeira versão a ser ensinada aos estudantes. A necessidade original de uma teoria viável para os hádrons foi completamente preenchida pela cromodinâmica quântica, a teoria dos quarks e suas interações. Tem-se a esperança agora que a teoria das cordas ou algumas de suas descendentes irão prover uma compreensão mais fundamental dos quarks em si.
A teoria bosônica das cordas é formulada em termos da ação Nambu-Goto, uma quantidade matemática que pode ser usada para predizer como as cordas se movem através do espaço e do tempo. Pela aplicação das ideias da mecânica quântica às ações Nambu-Goto --- um procedimento conhecido como quantização --- pode-se deduzir que cada corda pode vibrar em muitos diferentes modos, e que cada estado vibracional representa uma partícula diferente. A massa da partícula e a maneira que ela pode interagir são determinadas pela forma de vibração da corda --- em essência, pela "nota" que a corda produz. A escala de notas, cada uma correspondente a um diferente tipo de partícula, é denominada o "espectro" da teoria.
Estes modelos iniciais incluem cordas abertas, que têm duas pontas distintas, e cordas fechadas, onde as pontas são juntas de forma a fazer uma volta completa. Os dois tipos de corda diferem ligeiramente no comportamento, apresentando dois espectros. Nem todas as teorias de cordas modernas usam estes dois tipos; algumas incorporam somente a variedade fechada.
Entretanto, a teoria bosônica tem problemas. Mais importante, como o nome implica, o espectro de partículas contém somente bósons, partículas como o fóton, que obedecem regras particulares de comportamento. Ainda que os bósons sejam um ingrediente crítico do universo, eles não são o únicos constituintes. Investigações de como uma teoria poderia incluir férmions em seu espectro levaram à supersimetria, uma relação matemática entre os bósons e férmions, que agora forma uma área independente de estudo. As teorias de cordas que incluem vibrações de férmions são agora conhecidas como teorias das supercordas. Vários tipos diferentes de supercordas têm sido descritos.
Nos anos 90, Edward Witten e outros encontraram fortes evidências de que as diferentes teorias de supercordas eram limites diferentes de uma teoria desconhecida em 11 dimensões, chamada de Teoria-M. Esta descoberta foi a espoleta da segunda revolução das supercordas. Vários significados para a letra "M" têm sido propostos; físicos jocosamente afirmam que o verdadeiro significado só será revelado quando a teoria final for compreendida.
Muitos dos desenvolvimentos recentes nestes campos relacionam-se às D-branas, objetos que os físicos descobriram que também devem ser incluídos em qualquer teoria de cordas abertas.
Propriedades básicas
O termo "teoria das cordas" pode referir-se tanto à teoria bosônica das cordas, com 26 dimensões, como à teoria das supercordas, descoberta pela adição da supersimetria, com suas 10 dimensões. Atualmente, o termo "teoria das cordas" usualmente refere-se à variante supersimétrica, enquanto as anteriores são designadas pelo nome completo "teoria bosônica das cordas'.
Enquanto a compreensão de detalhes das teorias das cordas e supercordas requer uma considerável sofisticação matemática, algumas propriedades qualitativas das cordas quânticas podem ser compreendidas de forma intuitiva. Por exemplo, cordas quânticas têm tensão, da mesma forma que um barbante. Esta tensão é considerada um parâmetro fundamental da teoria e está intimamente relacionada ao seu tamanho. Considere uma corda em loop fechado, abandonada para se mover através do espaço sem forças externas. Esta tensão tenderá a contraí-la cada vez mais para um loop menor. A intuição clássica sugere que ela deva encolher até um simples ponto, mas isto violaria o Princípio da incerteza de Heisenberg. O tamanho característico do loop da corda é um equilíbrio entre a força de tensão, atuando para reduzi-lo, e o princípio da incerteza, que procura mantê-lo aberto. Consequentemente, o tamanho mínimo de uma corda deve estar relacionado com a tensão que ela sofre.
As dimensões extras
Um aspecto intrigante da teoria das cordas é que ela prediz o número de dimensões que o universo deve possuir. Nada na teoria de Maxwell do eletromagnetismo ou na Teoria da Relatividade de Einstein faz qualquer tipo de predição a este respeito. Estas teorias requerem que o físico insira o número de dimensões "na mão". A primeira pessoa a adicionar uma quinta dimensão na teoria da relatividade foi o matemático alemão Theodor Kaluza em 1919. A razão para que a quinta dimensão não seja observável (sua compactação) foi sugerida pelo físico sueco Oskar Klein em 1926.
Ao invés disto, a teoria das cordas permite calcular o número de dimensões espaço-temporais a partir de seus princípios fundamentais. Tecnicamente, isto acontece porque a invariância de Lorentz só pode ser satisfeita em um certo número de dimensões. Isto é, grosso modo, como dizer que se nós medíssemos a distância entre dois pontos, então girássemos nosso observador para um novo ângulo e a medíssemos novamente, a distância observada somente permaneceria a mesma se o universo tivesse um número particular de dimensões.
O único problema é que quando este cálculo é feito, o número de dimensões do universo não é quatro como esperado (três eixos espaciais e um no tempo), mas vinte e seis. Mais precisamente, a teoria bosônica das cordas tem 26 dimensões, enquanto a teoria das supercordas e a Teoria-M envolvem em torno de 10 ou 11 dimensões. Na teoria de Rambu, as 26 dimensões vêm da equação:
Contudo, este modelo parece contradizer fenômenos observados. Físicos usualmente resolvem este problema de duas formas diferentes. A primeira é a compactação das dimensões extras, i.e., as 6 ou 7 dimensões extras são tão pequenas que não são detectadas em nossos experimentos. Obtém-se a solução de modelos hexadimensionais espaços Calabi-Yau. Em 7 dimensões, elas são chamadas distribuições G2. Essencialmente estas dimensões extras estão "compactadas" pelo seu enrolamento sobre elas mesmas.
Uma analogia padrão para isto é considerar um espaço multidimensional como uma mangueira de jardim. Se se observar a mangueira de uma distância considerável, ela aparenta ter somente uma dimensão, o comprimento. Isso é semelhante às quatro dimensões macroscópicas com as quais estamos acostumados a lidar em nosso dia a dia. Se, no entanto, nos aproximarmos o suficiente da mangueira, descobrimos que ela contém uma segunda dimensão, sua circunferência. Esta "dimensão extra" é somente visível dentro de uma área relativamente próxima da mangueira, justo como as dimensões extras do espaço Calabi-Yau são visíveis a distâncias extremamente pequenas e, portanto não são facilmente detetáveis.
Certamente, cada mangueira de jardim existe nas 3 dimensões espaciais, mas por propósito de analogia, pode-se negligenciar a espessura e considerar somente a noção de superfície da mangueira. Um ponto na superfície da mangueira pode ser especificado por dois números, uma distância ao longo da circunferência, tal como um ponto da superfície da Terra pode ser especificado pela latitude e longitude. Em ambos os casos, diz-se que o objeto tem duas dimensões espaciais. Como a Terra, mangueiras de jardim possuem um interior, uma região que requer uma dimensão extra. No entanto, diferentemente da Terra, um espaço de Calabi-Yau não tem interior.
Outras possibilidades é que nós estejamos presos em subespaço com 3+1 dimensões de um universo com mais dimensões, onde o "3+1" faz-nos lembrar que o tempo é um tipo diferente de dimensão espacial. Como isso envolve objetos chamados D-branas, esta teoria é conhecida como mundo de brana.
Em ambos os casos, a gravidade atuando nas dimensões ocultas produz as outras forças não-gravitacionais tais como o eletromagnetismo. Em princípio, portanto, é possível deduzir a natureza destas dimensões extras pela necessidade de consistência com o modelo padrão, mas esta não é ainda uma possibilidade prática.
Problemas
A teoria das cordas permanece não verificada. Nenhuma versão da teoria das cordas fez ainda uma predição diferente de alguma feita por outras teorias; ao menos, nenhuma que pudesse ser verificada por um experimento atualmente realizável. Neste sentido, a teoria das cordas está em "estado larval": ela possui muitos aspetos de interesse matemático, e isto ainda deve se tornar de suprema importância para nossa compreensão do universo, mas isto ainda vai requerer mais desenvolvimentos para ser aceito ou negado. Uma vez que a teoria das cordas não possa ser testada em um futuro próximo, alguns cientistas têm se perguntado se ela merece mesmo ser chamada de uma teoria científica: ela não é ainda um teoria rejeitável ou falseável no sentido dado por Popper.
Isto não significa que ela seja a única teoria corrente que começou a ser desenvolvida que oferece estas dificuldades. Muitos novos desenvolvimentos podem passar através de um estágio de incerteza antes de se tornarem conclusivamente aprovados ou rejeitados. Como assinalado por Richard Feynman em The Character of Physical Law, o teste chave da teoria científica é se suas consequências concordam com as medições que obtivemos do experimento. Isto significa que não importa quem inventou a teoria, "qual é o seu nome", ou mesmo qual apelo estético a teoria venha ter. "Se ela não está de acordo como os experimentos, ela está errada." (Certamente, haveria outras possibilidades: alguma coisa pode estar errada com os experimentos, ou talvez tenha se cometido um erro ao prever as consequências da teoria. Todas estas possibilidades devem ser verificadas, o que pode tomar um tempo considerável). Estes desenvolvimentos podem se dar na teoria em si, tais como novos métodos de realizar os cálculos e produzir previsões, ou devem ocorrer nos experimentos em si, que passam a exibir quantidades antes imensuráveis.
A humanidade não tem atualmente tecnologia para observar as cordas (que se acredita terem aproximadamente o Comprimento de Planck, em torno de 10−35 m). Em algum momento poderemos ser capazes de observar as cordas de uma forma significativa, ou ao menos obter uma percepção mais substancial pela observação de fenômenos cosmológicos que elucidem a física das cordas.
No início dos anos 2000, teóricos da teoria das cordas retomaram seu interesse em um velho conceito, a corda cósmica. Originalmente discutida nos anos 1980, cordas cósmicas são objetos diferentes em relação às entidades da teoria das supercordas. Por vários anos, cordas cósmicas eram um modelo popular para explicar vários fenômenos cosmológicos, tais como o caminho que foi seguido para a formação das galáxias no início do universo. Apesar disso, novos experimentos — em particular medições detalhadas da radiação cósmica de fundo em micro-ondas — falharam em apoiar as predições do modelo da corda cósmica e ela saiu de moda. Se tais objetos existiram, eles devem ser raros e bem esparsos. Vários anos mais tarde, foi apontado que a expansão do universo poderia ter esticado a corda fundamental (do mesmo tipo considerado pela teoria das supercordas) até que ela atingisse o tamanho intergaláctico. Tal corda esticada pode exibir muitas propriedades da variação da velha corda "cósmica", tornando os velhos cálculos úteis novamente. Além disto, as teorias modernas das supercordas oferecem outros objetos que poderiam ter uma razoável semelhança com cordas cósmicas, tais como D-branas unidimensionais altamente alongadas (conhecidas como "D-cordas"). Como o teórico Tom Kibble comenta, "cosmologistas da teoria das cordas têm descoberto cordas cósmicas observando em todos os lugares escondidos". Velhas propostas para detecção de cordas cósmicas podem agora ser usadas para investigar a teoria das supercordas. Por exemplo, astrônomos têm também detetado uns poucos casos do que podem ser lentes gravitacionais induzidas por cordas.
Super-cordas, D-cordas ou outros tipos de corda esticadas na escala intergaláctica devem irradiar ondas gravitacionais, que podem ser presumivelmente detetadas usando experimentos como o LIGO. Elas também devem causar ligeiras irregularidades na radiação de micro-ondas de fundo, muito sutis para terem sido detetadas ainda, mas na esfera das possíveis observações no futuro.
Embora intrigantes, estes propósitos cosmológicos falham em um sentido: testar uma teoria requer que o teste seja capaz de derrubar (ou provar falsa) uma teoria. Por exemplo, se a observação do Sol durante um eclipse não tivesse mostrado que a gravidade é capaz de desviar a luz, teria sido provado que a teoria da relatividade geral de Einstein era falsa (eliminando, é claro, a chance de erro experimental). Não encontrar cordas cósmicas não demonstraria que a teoria das cordas é fundamentalmente errada — meramente que a ideia particular de uma corda altamente esticada atuando "cosmicamente" é um erro. Enquanto muitas medições podem, em princípio, ser feitas para sugerir que a teoria das cordas está no caminho certo, os cientistas ainda não divisaram um "teste" confiável.
Em um nível mais matemático, outro problema é que, como a teoria quântica de campos, muito da teoria das cordas é ainda somente formulado através da técnica da perturbação (isto é, como uma série de aproximações ao invés de uma solução exata). Embora técnicas não-perturbativas tenham tido um progresso considerável — incluindo definições de conjeturas completas envolvendo tempo-espaço satisfazendo princípios assintóticos — a definição de uma teoria não-perturbativa completa é uma lacuna a ser preenchida.
Agujero Negro Supermasivo
Un agujero negro supermasivo es un agujero negro con una masa del orden de millones o decenas de miles de millones de masas solares.
Estudios científicos sugieren fuertemente que la Vía Láctea tiene un agujero negro supermasivo en el centro galáctico, llamado Sagitario A*. Se cree que muchas, si no todas las galaxias, albergan un agujero negro supermasivo en su centro. De hecho, una de las teorías más extendidas en los últimos tiempos es la de suponer que todas las galaxias elípticas y espirales poseen en su centro un agujero negro supermasivo, el cual generaría la gravedad suficiente para mantener la unidad.
Introducción
Un agujero negro supermasivo tiene algunas propiedades interesantes que lo diferencian de otros de menor masa:
La densidad media de un agujero negro supermasivo puede ser muy baja, de hecho puede ser menor que la densidad del agua, si su masa es suficientemente grande. Esto ocurre porque el radio del agujero negro se incrementa linealmente con la masa, por lo que la densidad decae con el cuadrado de la masa, mientras que el volumen es proporcional al cubo del radio de Schwarzschild de tal manera que la densidad satisface la siguiente proporcionalidad:
Donde es la masa del sol y M la masa del agujero negro supermasivo. La cantidad anterior es inferior a la densidad del agua cuando la masa supera mil millones de veces la masa solar.
Las fuerzas de marea en la vecindad del Horizonte de sucesos son sensiblemente menores. Dado que el centro de la singularidad está muy alejado del horizonte, un hipotético astronauta viajando hacia el centro del agujero negro no experimentaría fuerzas de marea significativas hasta adentrarse mucho en el agujero negro.
Los agujeros negros de este tamaño pueden formarse solo de dos formas: por una lenta absorción (acrecimiento) de materia (a partir de un tamaño estelar), o directamente por presión externa en los primeros instantes del Big Bang. El primer método requiere un largo período y grandes cantidades de materia disponibles para el crecimiento del agujero negro superamasivo.
Mediciones Doppler de la materia que rodea el núcleo de galaxias vecinas a la Vía Láctea, revelan un movimiento giratorio muy rápido, que sólo es posible por una gran concentración de materia en el centro. Actualmente, el único objeto conocido que puede contener suficiente materia en tan reducido espacio es un agujero negro.
En galaxias activas más alejadas, se piensa que el ancho de las líneas espectrales está relacionado con la masa del agujero negro que genera la actividad de la galaxia.
Se especula que agujeros negros supermasivos en el centro de muchas galaxias, actuarían como los "motores" de las mismas, provocando sus movimientos giratorios, tales como galaxias Seyfert y cuásares. Se cree que Sagitario A* es el agujero negro supermasivo central de la Vía Láctea.
Historia de la búsqueda de agujeros negros supermasivos
Donald Lynden-Bell y Martin Rees en 1971 exponen la hipótesis de que el centro de la Vía Láctea podría contener un agujero negro supermasivo. Sagitario A* fue descubierto y nombrado el 13 de febrero y 15 de 1974, por los astrónomos Bruce Balick y Robert Brown utilizando el interferómetro de línea de base del Observatorio Nacional de Radio Astronomía Se descubrió una fuente de radio que emite radiación sincrotrón.; se encontró ser denso e inmóvil debido a su gravitación. Este fue, por lo tanto, el primer indicio de que existe un agujero negro supermasivo en el centro de la Vía Láctea.
Formación
El origen de los agujeros negros supermasivos sigue siendo un campo abierto de investigación. Los astrofísicos están de acuerdo en que una vez que un agujero negro está en su lugar en el centro de una galaxia, puede crecer por la acreción de materia y mediante la fusión con otros agujeros negros. Hay, sin embargo, varias hipótesis para los mecanismos de formación y masas iniciales de los progenitores, o "semillas", de agujeros negros supermasivos.
La hipótesis más obvia es que las semillas son agujeros negros de decenas o quizás cientos de masas solares que quedan por las explosiones de estrellas masivas y aumentan por acreción de materia.
Otro modelo consiste en una gran nube de gas en el período anterior a las primeras estrellas formadas al colapsar en una "cuasi-estrella" y luego en un agujero negro en principio de sólo alrededor de ~ 20 M☉, y después, rápidamente, por acreción, convertirse con relativa rapidez en un agujero negro de masa intermedia, y posiblemente un SMBH (Agujero Negro SuperMasivo; siglas en inglés) si la tasa de acreción no decae en masas mayores.La "cuasi-estrella" inicial se vuelve inestable por perturbaciones radiales debido a la producción de pares electrón-positrón en su núcleo, y puede colapsar directamente en un agujero negro sin una explosión de supernova, que expulse la mayor parte de su masa dejando un agujero negro como remanente.
Sin embargo, otro modelo implica un cúmulo estelar denso sometido a colapso en un núcleo con disminución de la cantidad de calor del resto expulsado por dispersión a velocidades relativistas.
Por último, los agujeros negros primordiales pueden haber sido producidos directamente por la presión externa en los primeros momentos después del Big Bang. La formación de los agujeros negros por la muerte de las primeras estrellas se ha estudiado y corroborado por las observaciones ampliamente. Los otros modelos para la formación del agujero negro mencionadas anteriormente son teóricos.
La dificultad en la formación de un agujero negro supermasivo reside en la necesidad de suficiente materia para estar en un pequeño volumen. Este asunto tiene que tener muy poco momento angular para que esto suceda. Normalmente, el proceso de acreción implica el transporte de una gran dotación inicial de momento angular hacia el exterior, y este parece ser el factor limitante en el crecimiento del agujero negro. Este es un componente importante de la teoría de los discos de acreción. La acreción de gas es lo más eficiente y también la manera más visible en el que crecen los agujeros negros. La mayor parte del crecimiento de la masa de los agujeros negros supermasivos se cree que ocurre a través de episodios de la acreción rápida de gas, que son observables como núcleos galácticos activos o cuásares. Las observaciones revelan que los cuásares eran mucho más frecuentes cuando el Universo era más joven, lo que indica que los agujeros negros supermasivos se formaron y crecieron temprano. Un factor limitante importante para las teorías de la formación de un agujero negro supermasivo es la observación de cuásares distantes luminosos, que indican que los agujeros negros supermasivos de miles de millones de masas solares ya se habían formado cuando el universo tenía menos de mil millones de años. Esto sugiere que los agujeros negros supermasivos se iniciaron muy temprano en el Universo, dentro de las primeras galaxias masivas.
Actualmente, parece que hay un hueco en la distribución de la masa observada de los agujeros negros. Hay agujeros negros de masa estelar, generados a partir de estrellas que colapsan, que van hasta quizá 33 M☉. El agujero negro supermasivo mínimo es del orden de cientos de miles de masas solares. Entre estos regímenes parece haber una escasez de agujeros negros de masa intermedia. Una brecha tal sugeriría cualitativamente diferentes procesos de formación. Sin embargo, algunos modelos sugieren que las fuentes de rayos X ultraluminosas (ULXs) pueden ser agujeros negros de este grupo que falta.
Medidas del efecto Doppler
Algunas de las mejores evidencias de la presencia de agujeros negros es la que proporciona el efecto Doppler. De acuerdo con este efecto, la luz emitida por la materia objetos que se alejan de nosotros presenta corrimiento al rojo, mientras que los objetos que se acercan presentarán corrimiento al azul. Así, para la materia que se encuentra muy cerca de un agujero negro, la velocidad orbital debe ser comparable con la velocidad de la luz, por lo que la materia que se aleja aparecerá muy débil en comparación con la materia que acerque, lo que significa que los sistemas con discos intrínsecamente simétricas y anillos adquirirán un aspecto visual muy asimétrico. Este efecto, se ha dejado en el ordenador moderno imágenes generadas como el ejemplo que aquí se presenta, con base en un modelo plausible para el agujero negro supermasivo en Sgr A * en el centro de nuestra propia galaxia. Sin embargo, la resolución que proporciona la tecnología telescopio actualmente disponible es aún insuficiente para confirmar directamente tales predicciones.
Lo que ya se ha observado directamente en muchos sistemas son las velocidades no relativistas más bajas de la materia que orbita más lejos de lo que se supone que son los agujeros negros. Medidas Doppler directas de máser (siglas en inglés de Amplificación de Microondas por emisión eStimulada de Radiación) de agua de la materia que rodea los núcleos de las galaxias cercanas han revelado un movimiento kepleriano muy rápido que sólo es posible con una alta concentración de la materia en el centro. En la actualidad, los objetos sólo conocidos que pueden concentrar suficiente materia en un espacio tan pequeño son los agujeros negros, o las cosas que evolucionarán en agujeros negros dentro de plazos astrofísicamente cortos. Para galaxias activas más alejadas, la anchura de las líneas espectrales amplias se puede utilizar para sondear el gas que orbita cerca del horizonte de sucesos. La técnica de mapeo de reverberación utiliza la variabilidad de estas líneas para medir la masa y tal vez el giro del agujero negro de las galaxias activas.
La gravitación de los agujeros negros supermasivos en el centro de muchas galaxias se cree que alimentan objetos activos tales como galaxias Seyfert y cuásares .
Una correlación empírica entre el tamaño de los agujeros negros supermasivos y la velocidad de dispersión estelar σ de un bulbo galáctico se llama la relación M-sigma.
En la vía Láctea
Los astrónomos están seguros de que en nuestra propia galaxia, la Vía Láctea tiene un agujero negro supermasivo en su centro, a 26 000 años luz del Sistema Solar, en una región llamada Sagitario A* 8 debido a que:
Desde el movimiento de la estrella S2, la masa del objeto se puede estimar como 4,1 millones M☉, o alrededor de 8,2 × 1036 kg.
La estrella S2 sigue una órbita elíptica con un período de 15,2 años y un pericentro (distancia más cercana) de 17 horas de luz ( 1,8 × 1013 m ó 120 UA) desde el centro del objeto central.
El radio del objeto central debe ser menos de 17 horas luz, porque de lo contrario, S2 chocaría con él. De hecho, recientes observaciones de la estrella S14 12 indican que el radio es menor de 6,25 horas luz, comparable al diámetro de la órbita de Urano (5,31 horas luz). Por otra parte, la aplicación de la fórmula para el radio de Schwarzschild produce tan sólo unos segundos luz, lo que es consistente con que la velocidad de escape ha de ser, como mínimo, algo mayor que la velocidad de la luz; imposible que da lugar al agujero negro.
Ningún objeto astronómico conocido que no sea un agujero negro puede contener 4,1 millones M☉ en este volumen de espacio.
El Instituto Max Planck de Física Extraterrestre y UCLA Centro Galáctico Grupo han proporcionado la evidencia más fuerte hasta la fecha que Sagitario A * es el sitio de un agujero negro supermasivo, 8 sobre la base de datos de ESO Very Large Telescope y el telescopio Keck.
El 5 de enero de 2015, la NASA informó de la observación de una llamarada de rayos X 400 veces más brillante de lo habitual, un registro automático, de Sagitario A *. El evento inusual puede haber sido causado por la ruptura, aparte de un asteroide que cae en el agujero negro o por el enredo de líneas de campo magnético dentro del gas que fluye en Sagitario A *, según los astrónomos.
Agujeros negros detectados fuera de la Vía Láctea
Existe evidencia inequívoca dinámica de los agujeros negros supermasivos sólo en un puñado de galaxias; 16 estos incluyen la Vía Láctea, las galaxias del Grupo Local M31 y M32, y unas pocas galaxias más allá del Grupo Local, por ejemplo, NGC 4395. En estas galaxias, la media cuadrática (RMS o rms) de las velocidades de las estrellas o de escape de los gases cerca del centro es ~ 1 / r, lo que indica una masa puntual central. En el resto de las galaxias observadas hasta la fecha, las velocidades RMS son planas, o incluso decaen hacia el centro, por lo que es imposible afirmar con certeza que un agujero negro supermasivo está presente.Sin embargo es comúnmente aceptado que el centro de casi cada galaxia contiene un agujero negro supermasivo.La razón de esta suposición es la relación M-sigma de baja dispersión o estrecha relación entre las masas de los agujeros en las ~ 10 galaxias con detecciones seguras, y la dispersión de la velocidad las estrellas en las protuberancias de esas galaxias.Esta correlación, aunque basada en sólo un puñado de galaxias, sugiere que muchos astrónomos una fuerte conexión entre la formación del agujero negro y la propia galaxia.
La cercana galaxia de Andrómeda, a 2,5 millones de años-luz de distancia, contiene un agujero negro central con (1.1 a 2.3) x 10^8 (110-230 millones) M☉, significativamente mayor que el de la Vía Láctea.
El mayor agujero negro supermasivo en el alrededores de la Vía Láctea parece ser la de M87, con un peso de (6,4 ± 0,5) x 10^9 (~ 6400 millones) M☉ a una distancia de 53,5 millones de años luz.
El 05 de diciembre 2011 los astrónomos descubrieron el mayor agujero negro supermasivo en el universo cercano todavía encontró, la de la galaxia elíptica NGC supergigante 4889, con un peso de 2,1 × 1010 (21 000 millones) M☉ a una distancia de 336 millones de años-luz de distancia en la constelación Coma Berenices.
Mientras tanto, la galaxia elíptica supergigante en el centro del Fénix Cluster alberga un agujero negro de 2,0 × 1010 (20 000 millones) M☉ a una distancia de 5,7 millones de años luz. Los agujeros negros en los cuásares son mucho más grandes, debido a su estado activo de fase de crecimiento continuo. La APM cuásar hiperluminoso 08279 + 5255 tiene un agujero negro supermasivo con una masa de 2,3 × 1010 (23 000 millones) M☉. Existe otro S5 cuásar hiperluminoso 0014 + 81, el mayor agujero negro supermasivo aún encontrado, que pesa 4,0 × 1010 (40 000 millones) M☉, o 10.000 veces más grande que el agujero negro en la Vía Láctea Centro Galáctico. Ambos cuásares son 12100 millones de años luz de distancia.
Algunas galaxias, como la galaxia 0402 + 379, parecen tener dos agujeros negros supermasivos en su centro, formando un sistema binario. Si chocaran, el evento crearía fuertes ondas gravitacionales. Los agujeros negros supermasivos binarios se cree que son una consecuencia común de las fusiones galácticas.
El par binario en el DO 287, 3500 millones de años luz de distancia, contiene el sistema de un par de agujeros negros más enorme, con una masa estimada en 18 000 millones M☉.
Un agujero negro supermasivo fue descubierto recientemente en la galaxia enana Henize 2-10, que no tiene abultamiento. Las implicaciones precisas para este descubrimiento sobre la formación de un agujero negro son desconocidas, pero pueden indicar que los agujeros negros se formaron antes de protuberancias.
El 28 de marzo de 2011, se supo que un agujero negro supermasivo afectó a una estrella relativamente cercana. Según los astrónomos, la única explicación consistente con las observaciones de la radiación en rayos X repentina y del seguimiento en banda ancha es que la fuente fue un núcleo galáctico previamente inactivo, y del estudio de la explosión, se estima que el núcleo galáctico es un SMBH con una masa del orden de un millón de masas solares. Este raro evento se supone ser una emisión retativista de material a una fracción significativa de la velocidad de la luz desde una estrella sometida a fuerzas de marea; emisión interceptada por el SMBH. Se cree que una parte importante de la masa estelar ha acrecentado el SMBH. La posterior observación a largo plazo permitirá saber si, en este supuesto sin confirmar, la emisión del chorro aumenta en la tasa esperada la acreción de masa del SMBH.
En 2012, los astrónomos reportaron una inusualmente gran masa de aproximadamente 17 000 millones M☉ para el agujero negro supermasivo en la compacta galaxia lenticular NGC 1277, que se encuentra a 220 millones de años luz de distancia en la constelación de Perseo. El supuesto agujero negro supermasivo tiene aproximadamente el 59 por ciento de la masa del abultamiento de esta galaxia lenticular (14 por ciento de la masa estelar total de la galaxia)
Otro estudio llegó a una conclusión muy diferente:. Este agujero negro no es particularmente supermasivo. Se estima entre 2000 millones y 5000 millones M☉ con 5000 millones M☉ siendo el valor más probable.
El 28 de febrero 2013 los astrónomos informaron sobre el uso del satélite NuSTAR para medir con precisión el giro de un agujero negro supermasivo, por primera vez, en NGC 1365, informando de que el horizonte de sucesos le daba vueltas a casi la velocidad de la luz.
En septiembre de 2014, los datos de diferentes telescopios de rayos X han demostrado que la extremadamente pequeña, densa, galaxia enana ultracompacta M60-UCD1 alberga un agujero negro de 20 millones de masas solares en su centro, que representa más del 10% de la masa total de la galaxia. El descubrimiento es bastante sorprendente, ya que el agujero negro es cinco veces más masivo que el agujero negro de la Vía Láctea a pesar de que la galaxia sea menos de cinco milésimas de la masa de la Vía Láctea.
Algunas galaxias, sin embargo, carecen de agujeros negros supermasivos en sus centros. Aunque la mayoría de las galaxias con agujeros negros supermasivos son galaxias muy pequeñas, enanas, uno de cuyos descubrimientos sigue siendo un misterio: La galaxia elíptica supergigante cD A2261-BCG no se ha encontrado que contenga un agujero negro supermasivo activo, a pesar de que la galaxia es una de las mayores galaxias conocidas: diez veces el tamaño y mil veces la masa de la Vía Láctea. Un agujero negro supermasivo sólo será detectable mientras se acrecentando. Un agujero negro supermasivo puede ser casi indetectable, excepto en sus efectos sobre las órbitas estelares.
Estudios científicos sugieren fuertemente que la Vía Láctea tiene un agujero negro supermasivo en el centro galáctico, llamado Sagitario A*. Se cree que muchas, si no todas las galaxias, albergan un agujero negro supermasivo en su centro. De hecho, una de las teorías más extendidas en los últimos tiempos es la de suponer que todas las galaxias elípticas y espirales poseen en su centro un agujero negro supermasivo, el cual generaría la gravedad suficiente para mantener la unidad.
Introducción
Un agujero negro supermasivo tiene algunas propiedades interesantes que lo diferencian de otros de menor masa:
La densidad media de un agujero negro supermasivo puede ser muy baja, de hecho puede ser menor que la densidad del agua, si su masa es suficientemente grande. Esto ocurre porque el radio del agujero negro se incrementa linealmente con la masa, por lo que la densidad decae con el cuadrado de la masa, mientras que el volumen es proporcional al cubo del radio de Schwarzschild de tal manera que la densidad satisface la siguiente proporcionalidad:
Donde es la masa del sol y M la masa del agujero negro supermasivo. La cantidad anterior es inferior a la densidad del agua cuando la masa supera mil millones de veces la masa solar.
Las fuerzas de marea en la vecindad del Horizonte de sucesos son sensiblemente menores. Dado que el centro de la singularidad está muy alejado del horizonte, un hipotético astronauta viajando hacia el centro del agujero negro no experimentaría fuerzas de marea significativas hasta adentrarse mucho en el agujero negro.
Los agujeros negros de este tamaño pueden formarse solo de dos formas: por una lenta absorción (acrecimiento) de materia (a partir de un tamaño estelar), o directamente por presión externa en los primeros instantes del Big Bang. El primer método requiere un largo período y grandes cantidades de materia disponibles para el crecimiento del agujero negro superamasivo.
Arriba: Representación artística de un agujero negro supermasivo absorbiendo materia de una estrella cercana. Abajo: imágenes de un supuesto agujero negro supermasivo devorando una estrella en la galaxia RXJ 1242-11. Izq.: en rayos x; Der.: en luz visible.
Mediciones Doppler de la materia que rodea el núcleo de galaxias vecinas a la Vía Láctea, revelan un movimiento giratorio muy rápido, que sólo es posible por una gran concentración de materia en el centro. Actualmente, el único objeto conocido que puede contener suficiente materia en tan reducido espacio es un agujero negro.
En galaxias activas más alejadas, se piensa que el ancho de las líneas espectrales está relacionado con la masa del agujero negro que genera la actividad de la galaxia.
Se especula que agujeros negros supermasivos en el centro de muchas galaxias, actuarían como los "motores" de las mismas, provocando sus movimientos giratorios, tales como galaxias Seyfert y cuásares. Se cree que Sagitario A* es el agujero negro supermasivo central de la Vía Láctea.
Historia de la búsqueda de agujeros negros supermasivos
Donald Lynden-Bell y Martin Rees en 1971 exponen la hipótesis de que el centro de la Vía Láctea podría contener un agujero negro supermasivo. Sagitario A* fue descubierto y nombrado el 13 de febrero y 15 de 1974, por los astrónomos Bruce Balick y Robert Brown utilizando el interferómetro de línea de base del Observatorio Nacional de Radio Astronomía Se descubrió una fuente de radio que emite radiación sincrotrón.; se encontró ser denso e inmóvil debido a su gravitación. Este fue, por lo tanto, el primer indicio de que existe un agujero negro supermasivo en el centro de la Vía Láctea.
Formación
El origen de los agujeros negros supermasivos sigue siendo un campo abierto de investigación. Los astrofísicos están de acuerdo en que una vez que un agujero negro está en su lugar en el centro de una galaxia, puede crecer por la acreción de materia y mediante la fusión con otros agujeros negros. Hay, sin embargo, varias hipótesis para los mecanismos de formación y masas iniciales de los progenitores, o "semillas", de agujeros negros supermasivos.
La hipótesis más obvia es que las semillas son agujeros negros de decenas o quizás cientos de masas solares que quedan por las explosiones de estrellas masivas y aumentan por acreción de materia.
Otro modelo consiste en una gran nube de gas en el período anterior a las primeras estrellas formadas al colapsar en una "cuasi-estrella" y luego en un agujero negro en principio de sólo alrededor de ~ 20 M☉, y después, rápidamente, por acreción, convertirse con relativa rapidez en un agujero negro de masa intermedia, y posiblemente un SMBH (Agujero Negro SuperMasivo; siglas en inglés) si la tasa de acreción no decae en masas mayores.La "cuasi-estrella" inicial se vuelve inestable por perturbaciones radiales debido a la producción de pares electrón-positrón en su núcleo, y puede colapsar directamente en un agujero negro sin una explosión de supernova, que expulse la mayor parte de su masa dejando un agujero negro como remanente.
Sin embargo, otro modelo implica un cúmulo estelar denso sometido a colapso en un núcleo con disminución de la cantidad de calor del resto expulsado por dispersión a velocidades relativistas.
Por último, los agujeros negros primordiales pueden haber sido producidos directamente por la presión externa en los primeros momentos después del Big Bang. La formación de los agujeros negros por la muerte de las primeras estrellas se ha estudiado y corroborado por las observaciones ampliamente. Los otros modelos para la formación del agujero negro mencionadas anteriormente son teóricos.
La dificultad en la formación de un agujero negro supermasivo reside en la necesidad de suficiente materia para estar en un pequeño volumen. Este asunto tiene que tener muy poco momento angular para que esto suceda. Normalmente, el proceso de acreción implica el transporte de una gran dotación inicial de momento angular hacia el exterior, y este parece ser el factor limitante en el crecimiento del agujero negro. Este es un componente importante de la teoría de los discos de acreción. La acreción de gas es lo más eficiente y también la manera más visible en el que crecen los agujeros negros. La mayor parte del crecimiento de la masa de los agujeros negros supermasivos se cree que ocurre a través de episodios de la acreción rápida de gas, que son observables como núcleos galácticos activos o cuásares. Las observaciones revelan que los cuásares eran mucho más frecuentes cuando el Universo era más joven, lo que indica que los agujeros negros supermasivos se formaron y crecieron temprano. Un factor limitante importante para las teorías de la formación de un agujero negro supermasivo es la observación de cuásares distantes luminosos, que indican que los agujeros negros supermasivos de miles de millones de masas solares ya se habían formado cuando el universo tenía menos de mil millones de años. Esto sugiere que los agujeros negros supermasivos se iniciaron muy temprano en el Universo, dentro de las primeras galaxias masivas.
Actualmente, parece que hay un hueco en la distribución de la masa observada de los agujeros negros. Hay agujeros negros de masa estelar, generados a partir de estrellas que colapsan, que van hasta quizá 33 M☉. El agujero negro supermasivo mínimo es del orden de cientos de miles de masas solares. Entre estos regímenes parece haber una escasez de agujeros negros de masa intermedia. Una brecha tal sugeriría cualitativamente diferentes procesos de formación. Sin embargo, algunos modelos sugieren que las fuentes de rayos X ultraluminosas (ULXs) pueden ser agujeros negros de este grupo que falta.
Medidas del efecto Doppler
Algunas de las mejores evidencias de la presencia de agujeros negros es la que proporciona el efecto Doppler. De acuerdo con este efecto, la luz emitida por la materia objetos que se alejan de nosotros presenta corrimiento al rojo, mientras que los objetos que se acercan presentarán corrimiento al azul. Así, para la materia que se encuentra muy cerca de un agujero negro, la velocidad orbital debe ser comparable con la velocidad de la luz, por lo que la materia que se aleja aparecerá muy débil en comparación con la materia que acerque, lo que significa que los sistemas con discos intrínsecamente simétricas y anillos adquirirán un aspecto visual muy asimétrico. Este efecto, se ha dejado en el ordenador moderno imágenes generadas como el ejemplo que aquí se presenta, con base en un modelo plausible para el agujero negro supermasivo en Sgr A * en el centro de nuestra propia galaxia. Sin embargo, la resolución que proporciona la tecnología telescopio actualmente disponible es aún insuficiente para confirmar directamente tales predicciones.
Lo que ya se ha observado directamente en muchos sistemas son las velocidades no relativistas más bajas de la materia que orbita más lejos de lo que se supone que son los agujeros negros. Medidas Doppler directas de máser (siglas en inglés de Amplificación de Microondas por emisión eStimulada de Radiación) de agua de la materia que rodea los núcleos de las galaxias cercanas han revelado un movimiento kepleriano muy rápido que sólo es posible con una alta concentración de la materia en el centro. En la actualidad, los objetos sólo conocidos que pueden concentrar suficiente materia en un espacio tan pequeño son los agujeros negros, o las cosas que evolucionarán en agujeros negros dentro de plazos astrofísicamente cortos. Para galaxias activas más alejadas, la anchura de las líneas espectrales amplias se puede utilizar para sondear el gas que orbita cerca del horizonte de sucesos. La técnica de mapeo de reverberación utiliza la variabilidad de estas líneas para medir la masa y tal vez el giro del agujero negro de las galaxias activas.
Vista lateral del agujero negro con el anillo toroidal transparente de materia ionizada según un modelo propuesto para Sgr A *. Esta imagen muestra resultado de la flexión de la luz desde detrás del agujero negro, y también muestra la asimetría que surge por el efecto Doppler de la velocidad orbital extremadamente alta de la materia en el anillo, que gira de izquierda a derecha por delante.
La gravitación de los agujeros negros supermasivos en el centro de muchas galaxias se cree que alimentan objetos activos tales como galaxias Seyfert y cuásares .
Una correlación empírica entre el tamaño de los agujeros negros supermasivos y la velocidad de dispersión estelar σ de un bulbo galáctico se llama la relación M-sigma.
En la vía Láctea
Los astrónomos están seguros de que en nuestra propia galaxia, la Vía Láctea tiene un agujero negro supermasivo en su centro, a 26 000 años luz del Sistema Solar, en una región llamada Sagitario A* 8 debido a que:
Órbitas inferidos de 6 estrellas alrededor supermasivo agujero negro candidato Sagitario A * en el centro de la galaxia Vía Láctea.
Desde el movimiento de la estrella S2, la masa del objeto se puede estimar como 4,1 millones M☉, o alrededor de 8,2 × 1036 kg.
La estrella S2 sigue una órbita elíptica con un período de 15,2 años y un pericentro (distancia más cercana) de 17 horas de luz ( 1,8 × 1013 m ó 120 UA) desde el centro del objeto central.
El radio del objeto central debe ser menos de 17 horas luz, porque de lo contrario, S2 chocaría con él. De hecho, recientes observaciones de la estrella S14 12 indican que el radio es menor de 6,25 horas luz, comparable al diámetro de la órbita de Urano (5,31 horas luz). Por otra parte, la aplicación de la fórmula para el radio de Schwarzschild produce tan sólo unos segundos luz, lo que es consistente con que la velocidad de escape ha de ser, como mínimo, algo mayor que la velocidad de la luz; imposible que da lugar al agujero negro.
Ningún objeto astronómico conocido que no sea un agujero negro puede contener 4,1 millones M☉ en este volumen de espacio.
El Instituto Max Planck de Física Extraterrestre y UCLA Centro Galáctico Grupo han proporcionado la evidencia más fuerte hasta la fecha que Sagitario A * es el sitio de un agujero negro supermasivo, 8 sobre la base de datos de ESO Very Large Telescope y el telescopio Keck.
La detección de un brote inusualmente brillante de rayos X de Sagitario A *, un agujero negro supermasivo en el centro de la Vía Láctea.
El 5 de enero de 2015, la NASA informó de la observación de una llamarada de rayos X 400 veces más brillante de lo habitual, un registro automático, de Sagitario A *. El evento inusual puede haber sido causado por la ruptura, aparte de un asteroide que cae en el agujero negro o por el enredo de líneas de campo magnético dentro del gas que fluye en Sagitario A *, según los astrónomos.
Agujeros negros detectados fuera de la Vía Láctea
Existe evidencia inequívoca dinámica de los agujeros negros supermasivos sólo en un puñado de galaxias; 16 estos incluyen la Vía Láctea, las galaxias del Grupo Local M31 y M32, y unas pocas galaxias más allá del Grupo Local, por ejemplo, NGC 4395. En estas galaxias, la media cuadrática (RMS o rms) de las velocidades de las estrellas o de escape de los gases cerca del centro es ~ 1 / r, lo que indica una masa puntual central. En el resto de las galaxias observadas hasta la fecha, las velocidades RMS son planas, o incluso decaen hacia el centro, por lo que es imposible afirmar con certeza que un agujero negro supermasivo está presente.Sin embargo es comúnmente aceptado que el centro de casi cada galaxia contiene un agujero negro supermasivo.La razón de esta suposición es la relación M-sigma de baja dispersión o estrecha relación entre las masas de los agujeros en las ~ 10 galaxias con detecciones seguras, y la dispersión de la velocidad las estrellas en las protuberancias de esas galaxias.Esta correlación, aunque basada en sólo un puñado de galaxias, sugiere que muchos astrónomos una fuerte conexión entre la formación del agujero negro y la propia galaxia.
La cercana galaxia de Andrómeda, a 2,5 millones de años-luz de distancia, contiene un agujero negro central con (1.1 a 2.3) x 10^8 (110-230 millones) M☉, significativamente mayor que el de la Vía Láctea.
El mayor agujero negro supermasivo en el alrededores de la Vía Láctea parece ser la de M87, con un peso de (6,4 ± 0,5) x 10^9 (~ 6400 millones) M☉ a una distancia de 53,5 millones de años luz.
El 05 de diciembre 2011 los astrónomos descubrieron el mayor agujero negro supermasivo en el universo cercano todavía encontró, la de la galaxia elíptica NGC supergigante 4889, con un peso de 2,1 × 1010 (21 000 millones) M☉ a una distancia de 336 millones de años-luz de distancia en la constelación Coma Berenices.
Mientras tanto, la galaxia elíptica supergigante en el centro del Fénix Cluster alberga un agujero negro de 2,0 × 1010 (20 000 millones) M☉ a una distancia de 5,7 millones de años luz. Los agujeros negros en los cuásares son mucho más grandes, debido a su estado activo de fase de crecimiento continuo. La APM cuásar hiperluminoso 08279 + 5255 tiene un agujero negro supermasivo con una masa de 2,3 × 1010 (23 000 millones) M☉. Existe otro S5 cuásar hiperluminoso 0014 + 81, el mayor agujero negro supermasivo aún encontrado, que pesa 4,0 × 1010 (40 000 millones) M☉, o 10.000 veces más grande que el agujero negro en la Vía Láctea Centro Galáctico. Ambos cuásares son 12100 millones de años luz de distancia.
Algunas galaxias, como la galaxia 0402 + 379, parecen tener dos agujeros negros supermasivos en su centro, formando un sistema binario. Si chocaran, el evento crearía fuertes ondas gravitacionales. Los agujeros negros supermasivos binarios se cree que son una consecuencia común de las fusiones galácticas.
El par binario en el DO 287, 3500 millones de años luz de distancia, contiene el sistema de un par de agujeros negros más enorme, con una masa estimada en 18 000 millones M☉.
Un agujero negro supermasivo fue descubierto recientemente en la galaxia enana Henize 2-10, que no tiene abultamiento. Las implicaciones precisas para este descubrimiento sobre la formación de un agujero negro son desconocidas, pero pueden indicar que los agujeros negros se formaron antes de protuberancias.
El 28 de marzo de 2011, se supo que un agujero negro supermasivo afectó a una estrella relativamente cercana. Según los astrónomos, la única explicación consistente con las observaciones de la radiación en rayos X repentina y del seguimiento en banda ancha es que la fuente fue un núcleo galáctico previamente inactivo, y del estudio de la explosión, se estima que el núcleo galáctico es un SMBH con una masa del orden de un millón de masas solares. Este raro evento se supone ser una emisión retativista de material a una fracción significativa de la velocidad de la luz desde una estrella sometida a fuerzas de marea; emisión interceptada por el SMBH. Se cree que una parte importante de la masa estelar ha acrecentado el SMBH. La posterior observación a largo plazo permitirá saber si, en este supuesto sin confirmar, la emisión del chorro aumenta en la tasa esperada la acreción de masa del SMBH.
En 2012, los astrónomos reportaron una inusualmente gran masa de aproximadamente 17 000 millones M☉ para el agujero negro supermasivo en la compacta galaxia lenticular NGC 1277, que se encuentra a 220 millones de años luz de distancia en la constelación de Perseo. El supuesto agujero negro supermasivo tiene aproximadamente el 59 por ciento de la masa del abultamiento de esta galaxia lenticular (14 por ciento de la masa estelar total de la galaxia)
Otro estudio llegó a una conclusión muy diferente:. Este agujero negro no es particularmente supermasivo. Se estima entre 2000 millones y 5000 millones M☉ con 5000 millones M☉ siendo el valor más probable.
El 28 de febrero 2013 los astrónomos informaron sobre el uso del satélite NuSTAR para medir con precisión el giro de un agujero negro supermasivo, por primera vez, en NGC 1365, informando de que el horizonte de sucesos le daba vueltas a casi la velocidad de la luz.
En septiembre de 2014, los datos de diferentes telescopios de rayos X han demostrado que la extremadamente pequeña, densa, galaxia enana ultracompacta M60-UCD1 alberga un agujero negro de 20 millones de masas solares en su centro, que representa más del 10% de la masa total de la galaxia. El descubrimiento es bastante sorprendente, ya que el agujero negro es cinco veces más masivo que el agujero negro de la Vía Láctea a pesar de que la galaxia sea menos de cinco milésimas de la masa de la Vía Láctea.
Algunas galaxias, sin embargo, carecen de agujeros negros supermasivos en sus centros. Aunque la mayoría de las galaxias con agujeros negros supermasivos son galaxias muy pequeñas, enanas, uno de cuyos descubrimientos sigue siendo un misterio: La galaxia elíptica supergigante cD A2261-BCG no se ha encontrado que contenga un agujero negro supermasivo activo, a pesar de que la galaxia es una de las mayores galaxias conocidas: diez veces el tamaño y mil veces la masa de la Vía Láctea. Un agujero negro supermasivo sólo será detectable mientras se acrecentando. Un agujero negro supermasivo puede ser casi indetectable, excepto en sus efectos sobre las órbitas estelares.
Flujo Oscuro
En cosmología física, el flujo oscuro es un mecanismo hipotético propuesto para explicar algunos resultados sorprendentes en estudios recientes del movimiento a gran escala de grandes cúmulos galácticos, que parecen desplazarse hacia una zona entre las constelaciones de Vela y Centauro.
Se ha observado que la velocidad de los cúmulos es diferente de la que se podría esperar de la expansión del universo, y la velocidad no parece decrecer con la distancia, tal como seria predecible si estos cúmulos estuvieran acumulando velocidad como consecuencia de la gravedad ordinaria. Para explicarlo, los investigadores han postulado que diferentes partes del universo tienden a tener diferentes velocidades, un vestigio del Big Bang. Se sospecha que las fluctuaciones de éstos campos de velocidad sean los responsables del movimiento de cúmulos.
Predicciones
En algunos modelos de la inflación cósmica, se puede interpretar un modelo en el que la velocidad primordial fluctúa de un punto a otro como respuesta gravitacional a estructuras que por ahora permanecen fuera del universo observable; de hecho, en 2010, estudios realizados por científicos de la NASA utilizando 1000 cúmulos de galaxias situados hasta a 3000 millones de años luz, sugieren que éste fenómeno puede estar producido o bien por la atracción gravitatoria de otro universo, o bien por una región del espacio-tiempo radicalmente distinta a la nuestra, pero en cualquier caso mucho más allá del Universo observable.
El modelo predice la existencia de dos regiones, en este universo, uno de los cuales podría ser el encontrado por Alexander Kashlinsky. La otra región con tal comportamiento estaría en una posición inaccesible y no observable de nuestro universo.
En 2005, Laura Mersini-Houghton, física teórica de la Universidad de Carolina del Norte en Chapel Hill, y Richard Holman, profesor de la Universidad Carnegie Mellon, predijeron la existencia de ciertas anomalías en la radiación de fondo, debidas a la atracción gravitatoria que otros universos ejercerían sobre regiones del nuestro.
Hallazgos experimentales
Investigaciones realizadas con ayuda de supernovas de tipo Ia ponen en duda la existencia de éste fenómeno, pero la respuesta definitiva no se obtendría hasta 2012, cuando se hicieran públicos los resultados obtenidos por el satélite Planck de la Agencia Espacial Europea (ESA).
En junio de 2013, se publicó un mapa cósmico que incluye los datos de la radiación de fondo conseguidos por el telescopio Planck de la ESA. Dicho mapa muestra una fuerte concentración en la mitad sur del cielo y un 'punto frío' (‘cold spot’) que no puede ser explicado con las leyes actuales de la física, pero que concordaría con las predicciones de Mersini-Houghton y Holman. Sin embargo estudios posteriores han mostrado que en realidad parece ser una enorme zona del Universo con apenas galaxias.
Cabe destacar, sin embargo, que aunque el análisis de los datos tomados por esa misión sugieren que el flujo oscuro no existe en 2015 Kashlinsky y colaboradores, analizando dichos datos y otros procedentes de la misión WMAP, afirman tener pruebas de su existencia.
Se ha observado que la velocidad de los cúmulos es diferente de la que se podría esperar de la expansión del universo, y la velocidad no parece decrecer con la distancia, tal como seria predecible si estos cúmulos estuvieran acumulando velocidad como consecuencia de la gravedad ordinaria. Para explicarlo, los investigadores han postulado que diferentes partes del universo tienden a tener diferentes velocidades, un vestigio del Big Bang. Se sospecha que las fluctuaciones de éstos campos de velocidad sean los responsables del movimiento de cúmulos.
Predicciones
En algunos modelos de la inflación cósmica, se puede interpretar un modelo en el que la velocidad primordial fluctúa de un punto a otro como respuesta gravitacional a estructuras que por ahora permanecen fuera del universo observable; de hecho, en 2010, estudios realizados por científicos de la NASA utilizando 1000 cúmulos de galaxias situados hasta a 3000 millones de años luz, sugieren que éste fenómeno puede estar producido o bien por la atracción gravitatoria de otro universo, o bien por una región del espacio-tiempo radicalmente distinta a la nuestra, pero en cualquier caso mucho más allá del Universo observable.
El modelo predice la existencia de dos regiones, en este universo, uno de los cuales podría ser el encontrado por Alexander Kashlinsky. La otra región con tal comportamiento estaría en una posición inaccesible y no observable de nuestro universo.
En 2005, Laura Mersini-Houghton, física teórica de la Universidad de Carolina del Norte en Chapel Hill, y Richard Holman, profesor de la Universidad Carnegie Mellon, predijeron la existencia de ciertas anomalías en la radiación de fondo, debidas a la atracción gravitatoria que otros universos ejercerían sobre regiones del nuestro.
Hallazgos experimentales
Investigaciones realizadas con ayuda de supernovas de tipo Ia ponen en duda la existencia de éste fenómeno, pero la respuesta definitiva no se obtendría hasta 2012, cuando se hicieran públicos los resultados obtenidos por el satélite Planck de la Agencia Espacial Europea (ESA).
En junio de 2013, se publicó un mapa cósmico que incluye los datos de la radiación de fondo conseguidos por el telescopio Planck de la ESA. Dicho mapa muestra una fuerte concentración en la mitad sur del cielo y un 'punto frío' (‘cold spot’) que no puede ser explicado con las leyes actuales de la física, pero que concordaría con las predicciones de Mersini-Houghton y Holman. Sin embargo estudios posteriores han mostrado que en realidad parece ser una enorme zona del Universo con apenas galaxias.
Cabe destacar, sin embargo, que aunque el análisis de los datos tomados por esa misión sugieren que el flujo oscuro no existe en 2015 Kashlinsky y colaboradores, analizando dichos datos y otros procedentes de la misión WMAP, afirman tener pruebas de su existencia.
Energía oscura
En cosmología física, la energía oscura es una forma de materia oscura o energía que estaría presente en todo el espacio, produciendo una presión que tiende a acelerar la expansión del Universo, resultando en una fuerza gravitacional repulsiva.Considerar la existencia de la energía oscura es la manera más frecuente de explicar las observaciones recientes de que el Universo parece estar en expansión acelerada. En el modelo estándar de la cosmología, la energía oscura aporta casi tres cuartas partes de la masa-energía total del Universo.
Temas relacionados con la energía oscura son la constante cosmológica, una energía de densidad constante que llena el espacio en forma homogénea,la Teoría cuántica de campos y la quintaesencia, como campos dinámicos cuya densidad de energía puede variar en el tiempo y el espacio. De hecho, las contribuciones de los campos escalares que son constantes en el espacio normalmente también se incluyen en la constante cosmológica. Se piensa que la constante cosmológica se origina en la energía del vacío. Los campos escalares que cambian con el espacio son difíciles de distinguir de una constante cosmológica porque los cambios pueden ser extremadamente lentos.
Para distinguir entre ambas se necesitan mediciones muy precisas de la expansión del Universo, para ver si la velocidad de expansión cambia con el tiempo. La tasa de expansión está parametrizada por la ecuación de estado. La medición de la ecuación estado de la energía oscura es uno de los mayores retos de investigación actual de la cosmología física.
Añadir la constante cosmológica a la Métrica de Friedman-Lemaître-Robertson-Walker (FLRW) conduce al modelo Lambda-CDM, que se conoce como "modelo estándar" de cosmología debido a su coincidencia precisa con las observaciones.
No se debe confundir la energía oscura con la materia oscura, ya que, aunque ambas forman la mayor parte de la masa del Universo, la materia oscura es una forma de materia, mientras que la energía oscura se asocia a un campo que ocupa todo el espacio.
Información divulgada recientemente basada en el trabajo realizado por la nave espacial Planck sobre la distribución del universo, obtuvo una estimación más precisa de esta en 68,3% de energía oscura, un 26,8% de materia oscura y un 4,9% de materia ordinaria.
Historia
La constante cosmológica fue propuesta por primera vez por Albert Einstein como un medio para obtener una solución estable de la ecuación del campo de Einstein que llevaría a un Universo estático, utilizándola para compensar la gravedad. El mecanismo no sólo fue un ejemplo poco elegante de "ajuste fino", pues pronto se demostró que el Universo estático de Einstein sería inestable porque las heterogeneidades locales finalmente conducirían a la expansión sin control o a la contracción del Universo. El equilibrio es inestable: si el Universo se expande ligeramente, entonces la expansión libera la energía del vacío, que causa todavía más expansión. De la misma manera, un Universo que se contrae ligeramente se continuará contrayendo.
Estos tipos de perturbaciones son inevitables, debido a la distribución irregular de materia en el Universo. Las observaciones realizadas por Edwin Hubble demostraron que el Universo está expandiéndose y que no es estático en absoluto. Einstein se refirió a su fallo para predecir un Universo dinámico, en contraste a un Universo estático, como "su gran error". Después de esta declaración, la constante cosmológica fue ignorada durante mucho tiempo como una curiosidad histórica.
Alan Guth propuso en los años 1970 que un campo de presión negativa, similar en concepto a la energía oscura, podría conducir a la inflación cósmica en el Universo pre-primigenio. La inflación postula que algunas fuerzas repulsivas, cualitativamente similar a la energía oscura, da como resultado una enorme y exponencial expansión del Universo poco después del Big Bang. Tal expansión es una característica esencial de muchos modelos actuales del Big Bang. Sin embargo, la inflación tiene que haber ocurrido a una energía mucho más alta que la energía oscura que observamos hoy y se piensa que terminó completamente cuando el Universo sólo tenía una fracción de segundo. No está claro qué relación (si hay alguna), existe entre la energía oscura y la inflación. Incluso después de que los modelos inflacionarios hayan sido aceptados, la constante cosmológica se piensa que es irrelevante en el Universo actual.
El término "energía oscura" fue acuñado por Michael Turner en 1998.En ese tiempo, el problema de la masa perdida de la nucleosíntesis primordial y la estructura a gran escala del Universo fue establecida y algunos cosmólogos habían empezado a teorizar que había un componente adicional en nuestro Universo. La primera prueba directa de la energía oscura provino de las observaciones de la aceleración de la velocidad de expansión del universo mediante el estudio de supernovas tipo Ia por Adam Riess et al.8 y confirmada después en Saul Perlmutter et al.Esto dio como resultado el modelo Lambda-CDM, que hasta 2006 era consistente con una serie de observaciones cosmológicas rigurosamente crecientes, las últimas de 2005 de la Supernova Legacy Survey. Los primeros resultados de la SNLS revelaron que el comportamiento medio de la energía oscura se comporta como la constante cosmológica de Einstein con una precisión del 10%.Los resultados del Hubble Space Telescope Higher-Z Team indican que la energía oscura ha estado presente durante al menos 9.000 millones de años y durante el periodo precedente a la aceleración cósmica.
Descubrimiento de la energía oscura
En 1998 las observaciones de supernovas de tipo muy lejanas, realizadas por parte del Supernova Cosmology Project en el Laboratorio Nacional Lawrence Berkeley y el High-z Supernova Search Team, sugirieron que la expansión del Universo se estaba acelerando. Desde entonces, esta aceleración se ha confirmado por varias fuentes independientes: medidas de la radiación de fondo de microondas, las lentes gravitacionales, nucleosíntesis primigenia de elementos ligeros y la estructura a gran escala del Universo, así como una mejora en las medidas de las supernovas han sido consistentes con el modelo Lambda-CDM.
Las supernovas de tipo 1a proporcionan la principal prueba directa de la existencia de la energía oscura. Según a la Ley de Hubble, todas las galaxias lejanas se alejan aparentemente de la Vía Láctea, mostrando un desplazamiento al rojo en el espectro luminoso debido al efecto Doppler. La medición del factor de escala en el momento que la luz fue emitida desde un objeto es obtenida fácilmente midiendo el corrimiento al rojo del objeto en recesión. Este desplazamiento indica la edad de un objeto lejano de forma proporcional, pero no absoluta. Por ejemplo, estudiando el espectro de un quasar se puede saber si se formó cuando el Universo tenía un 20% o un 30% de la edad actual, pero no se puede saber la edad absoluta del Universo. Para ello es necesario medir con precisión la expansión cosmológica. El valor que representa esta expansión en la actualidad se denomina Constante de Hubble. Para calcular esta constante se utilizan en cosmología las candelas estándar, que son determinados objetos astronómicos con la misma magnitud absoluta, que es conocida, de tal manera que es posible relacionar el brillo observado, o magnitud aparente, con la distancia. Sin las candelas estándar, es imposible medir la relación corrimiento al rojo-distancia de la ley de Hubble. Las supernovas tipo 1a son una de esas candelas estándar, debido a su gran magnitud absoluta, lo que posibilita que se puedan observar incluso en las galaxias más lejanas. En 1998 varias observaciones de estas supernovas en galaxias muy lejanas (y, por lo tanto, jóvenes) demostraron que la constante de Hubble no es tal, sino que su valor varía con el tiempo. Hasta ese momento se pensaba que la expansión del Universo se estaba frenando debido a la fuerza gravitatoria; sin embargo, se descubrió que se estaba acelerando, por lo que debía existir algún tipo de fuerza que acelerase el Universo.
La consistencia en magnitud absoluta para supernovas tipo 1a se ve favorecida por el modelo de una estrella enana blanca vieja que gana masa de una estrella compañera y crece hasta alcanzar el límite de Chandrasekhar definido de manera precisa. Con esta masa, la enana blanca es inestable ante fugas termonucleares y explota como una supernova tipo 1a con un brillo característico. El brillo observado de la supernova se pinta frente a su corrimiento al rojo y esto se utiliza para medir la historia de la expansión del Universo. Estas observaciones indican que la expansión del Universo no se está desacelerando, como sería de esperar para un Universo dominado por materia, sino más bien acelerándose. Estas observaciones se explican suponiendo que existe un nuevo tipo de energía con presión negativa.
La existencia de la energía oscura, de cualquier forma, es necesaria para reconciliar la geometría medida del espacio con la suma total de materia en el Universo. Las medidas de la radiación de fondo de microondas más recientes, realizadas por el satélite WMAP, indican que el Universo está muy cerca de ser plano. Para que la forma del Universo sea plana, la densidad de masa/energía del Universo tiene que ser igual a una cierta densidad crítica. Posteriores observaciones de la radiación de fondo de microondas y de la proporción de elementos formados en el Big Bang (Gran explosión) han puesto un límite a la cantidad de materia bariónica y materia oscura que puede existir en el Universo, que cuenta sólo el 30% de la densidad crítica. Esto implica la existencia de una forma de energía adicional que cuenta el 70% de la masa energía restante.Estos estudios indican que el 73% de la masa del Universo está formado por la energía oscura, un 23% es materia oscura (materia oscura fría y materia oscura caliente) y un 4% materia bariónica. La teoría de la estructura a gran escala del Universo, que determina la formación de estructuras en el Universo (estrellas, quasars, galaxias y agrupaciones galácticas), también sugiere que la densidad de materia en el Universo es sólo el 30% de la densidad crítica.
Experimentos diseñados para probar la existencia de la energía oscura
El más conocido es el Sistema de Detección Integrado Sachs-Wolfe, ideado en 1996 por dos investigadores canadienses y utilizado por primera vez en 2003; propusieron buscar estos pequeños cambios en la energía de la luz comparando la temperatura de la radiación con mapas de galaxias en el universo local. De no existir la energía oscura, no habría correspondencia entre los dos mapas (el de fondo de microondas cósmico distante y el de la distribución de galaxias relativamente cercano). Si esta existiera, sin embargo, se podría observar un curioso fenómeno: los fotones del fondo cósmico de microondas ganarían energía —en vez de perderla— al pasar cerca de grandes masas. El experimento mejoró sus resultados gracias al equipo de Tommaso Giannantonio, quien ha probado su existencia con una certeza algo mayor a cuatro sigmas.
Naturaleza de la energía oscura
La naturaleza exacta de la energía oscura es materia de debate. Se sabe que es muy homogénea, no muy densa, pero no se conoce su interacción con ninguna de las fuerzas fundamentales más que con la gravedad. Como no es muy densa, unos 10−29 g/cm³, es difícil realizar experimentos para detectarla. La energía oscura tiene una gran influencia en el Universo, pues es el 70% de toda la energía y debido a que ocupa uniformemente el espacio interestelar. Los dos modelos principales son la quintaesencia y la constante cosmológica.
Presión negativa
La energía oscura causa la expansión del universo pues ejerce una presión negativa. Una sustancia tiene una presión positiva cuando empuja la pared del recipiente que lo contiene; este es el caso de los fluidos ordinarios (líquidos y gases de materia ordinaria). Una presión negativa tiene el efecto contrario, y un recipiente lleno de una substancia de presión negativa provocaría una presión hacia dentro del contenedor. De acuerdo con la Relatividad General, la presión de una substancia contribuye a su atracción gravitacional sobre otras cosas igual que hace su masa, de acuerdo con la ecuación de campo de Einstein:
Si la substancia es de presión negativa entonces su efecto es una repulsión gravitacional. Si el efecto gravitacional repulsivo de la presión negativa de la energía oscura es mayor que la atracción gravitacional causada por la propia energía, resulta una expansión del tipo que se ha observado. Por esa razón, se ha postulado que la expansión acelerada observada podría ser el efecto de presión negativa de una substancia exótica conocida como energía oscura. Otra posibilidad para explicar la expansión es postular una ecuación de campo con constante cosmológica positiva:
Donde ahora el tensor \scriptstyle \hat{T}_{\mu\nu} sería la parte asociada a materia con presión positiva. Para resolver la contradicción de que el empuje cause atracción o la contracción cause repulsión se considera que:
El empuje de la presión positiva y el empuje de la presión negativa son fuerzas no gravitacionales que solamente mueven substancias en torno a su espacio interior sin cambiar el espacio en sí.
Sin embargo, la atracción gravitacional (o repulsión) que causan opera sobre el propio espacio, disminuyendo (o incrementando) la cantidad de espacio entre las cosas. Esto es lo que determina el tamaño del Universo.
No hay necesidad de que estos dos efectos actúen en la misma dirección. De hecho, actúan en direcciones opuestas.
Constante cosmológica
La explicación más simple para la energía oscura es que simplemente es el "coste de tener espacio"; es decir, un volumen de espacio tiene alguna energía fundamental intrínseca. Esto es la constante cosmológica, algunas veces llamada Lambda (de ahí el modelo Lambda-CDM) por la letra griega A Lambda, el símbolo utilizado matemáticamente para representar esta cantidad. Como la energía y la masa están relacionadas por la ecuación E=mc^2, la teoría de la relatividad general predice que tendrá un efecto gravitacional. Algunas veces es llamada energía del vacío porque su densidad de energía es la misma que la del vacío. De hecho, muchas teorías de la física de partículas predicen fluctuaciones del vacío que darían al vacío exactamente este tipo de energía. Los cosmólogos estiman que la constante cosmológica es del orden de 10−29g/cm³ o unos 10−120 en unidades de Planck.
La constante cosmológica tiene una presión negativa igual a su densidad de energía, y así causa que la expansión del Universo se acelere. La razón por la que la constante cosmológica tiene una presión negativa se puede obtener a partir de la termodinámica clásica. La energía tiene que perderse desde dentro de un contenedor que se ocupe del contenedor. Un cambio en el volumen dV necesita el mismo trabajo que para un cambio de energía -pdV, donde p es la presión. Pero la suma de energía en una caja de energía de vacío realmente se incremente cuando el volumen crece (dV es positivo), porque la energía es igual a \rho V, donde \rho (rho) es la densidad de energía de la constante cosmológica. Por tanto, p es negativa y, de hecho, p=-\rho, significando que la ecuación de estado tiene la forma: , sin variación temporal.
Un gran problema pendiente es que muchas teorías cuánticas de campos predicen una gran constante cosmológica a partir de la energía del vacío cuántico, superior a 120 órdenes de magnitud. Esto casi se necesitaría cancelar, pero no exactamente, por un término igualmente grande de signo opuesto. Algunas teorías supersimétricas necesitan una constante cosmológica que sea exactamente cero, lo que no ayuda. El consenso científico actual cuenta con la extrapolación de pruebas empíricas donde son relevantes las predicciones y el ajuste fino de las teorías hasta que se encuentre una solución más elegante. Técnicamente, esto se suma a las teorías de comprobación contra observaciones macroscópicas. Lamentablemente, como el margen de error conocido en la constante predice el destino final del Universo más que su estado actual, todavía continúan sin conocerse muchas preguntas "más profundas".
Otro problema aparece con la inclusión de la constante cosmológica en el modelo estándar que es la aparición de soluciones con regiones de discontinuidades (véase clasificación de discontinuidades para ver tres ejemplos) con una baja densidad de materia.La discontinuidad también afecta al signo pasado de la energía del vacío, cambiando la actual presión negativa a presión atractiva, de la misma forma que se mira hacia atrás, hacia el Universo primigenio. Este hallazgo debería ser considerado como una deficiencia del modelo estándar, pero sólo cuando se incluye un término de vacío.
A pesar de sus problemas, la constante cosmológica es en muchos aspectos la solución más económica al problema de la aceleración de la expansión del Universo. Un número explica satisfactoriamente una multitud de observaciones. Así, el modelo estándar actual de cosmología, el modelo Lambda-CDM, incluye la constante cosmológica como una característica esencial.
Quintaesencia
La energía oscura puede convertirse en materia oscura cuando es golpeada por partículas bariónicas, conduciendo así a excitaciones como de partículas en algún tipo de campo dinámico, conocido como quintaesencia. La quintaesencia difiere de la constante cosmológica en que puede variar en el espacio y en el tiempo. Para que no se agrupen y se formen estructuras como materia, tiene que ser muy ligero de tal manera que tenga una gran longitud de onda Compton.
No se ha encontrado todavía ninguna prueba de la quintaesencia, pero tampoco ha sido descartada. Generalmente predice una aceleración ligeramente más lenta de la expansión del Universo que la constante cosmológica. Algunos científicos piensan que la mejor prueba de la quintaesencia vendría a partir de violaciones del principio de equivalencia y la variación de las constantes fundamentales de Einstein en el espacio o en el tiempo. Los campos escalares son predichos por el modelo estándar y la teoría de cuerdas, pero un problema análogo al problema de la constante cosmológica (o el problema de construir modelos de inflación cósmica) ocurre: la teoría de la renormalización predice que los campos escalares deberían adquirir grandes masas.
El problema de la coincidencia cósmica se pregunta por qué la aceleración cósmica empezó cuando lo hizo. Si la aceleración cósmica empezó antes en el Universo, las estructuras como galaxias nunca habrían tenido tiempo de formarse y permanecer, al menos como se las conoce; nunca habrían tenido una oportunidad de existir. Sin embargo, muchos modelos de quintaesencia tienen un llamado "comportamiento rastreador", que soluciona este problema. En estos modelos, el campo de la quintaesencia tiene una densidad que sigue la pista de cerca (pero es menor que) la densidad de radiación hasta la igualdad materia-radiación, que dispara la quintaesencia empiece a comportarse como energía oscura, finalmente dominando el Universo. Esto naturalmente establece una baja escala de energía de la energía oscura.
Algunos casos especiales de quintaesencia son la energía fantasma con w=+1. , en que la densidad de energía de la quintaesencia realmente se incrementa con el tiempo y la esencia-k (acrónimo de quintaesencia cinética) que tiene una forma no convencional de energía cinética. Pueden tener propiedades inusuales: la energía fantasma, por ejemplo, puede causar un Big Rip.
La nueva quintaesencia es una forma novedosa de energía inherente en el espacio vacío, que está basada en la constante de Planck. La suma fundamental de energía contenida en el espacio-tiempo, es representada por la ecuación E = hn, donde h es la constante de Planck y n es el número de quintesencias contenido en un volumen de espacio dado, por unidad de tiempo (segundos).
Ideas alternativas
Algunos teóricos piensan que la energía oscura y la aceleración cósmica son un fallo de la relatividad general en escalas muy grandes, mayores que los supercúmulos. Es una tremenda extrapolación pensar que la ley de la gravedad, que funciona tan bien en el sistema solar, debería trabajar sin corrección a escala universal. Se han realizado muchos intentos de modificar la relatividad general; sin embargo, han resultado ser equivalentes a las teorías de la quintaesencia o inconsistentes con las observaciones.
Las ideas alternativas a la energía oscura han venido desde la teoría de cuerdas, la cosmología brana y el principio holográfico, pero no han sido probadas todavía tan convincentemente como la quintaesencia y la constante cosmológica.
Sin embargo, otras proposiciones "radicalmente conservadoras" intentan explicar los datos observacionales mediante un uso más refinado de las teorías establecidas más que a través de la introducción de la energía oscura, centrándose, por ejemplo, en los efectos gravitacionales de heterogeneidades de la densidad (asumidas como insignificantes en la aproximación estándar de la métrica de Friedman-Lemaître-Robertson-Walker y confirmada como insignificante por los estudios de las anisotropías del fondo cósmico de microondas y las estadísticas de la estructura a gran escala del Universo) o en las consecuencias de la ruptura de la simetría electrodébil en el Universo primigenio.
Con perspicacia, la energía oscura puede deducirse de observaciones a la constelación de Virgo con el telescopio LIGO I (con su sensibilidad de 10-21), mediante la no detección de ondas gravitatorias, que puede interpretarse como un indicador de que la rigidez de un continuo espacio-tiempo CR pseudo-Riemanniano no es insignificante, más que la suposición de que las ondas gravitatorias se propagan a larga distancia. Estadísticamente LIGO I parece tener un volumen suficientemente grande y tamaño de muestreo para la inclusión de objetos compactos en sistemas binarios en órbitas estrechas al menos, incluso si no se capturan algunos eventos de fusión. Sin embargo, incluso las fusiones binarias de BHs,que generan ondas gravitatorias puede decaer rápidamente. Así, la resistencia a la deformación (stress normal: extensión y compresión e incluso cualquier esfuerzo cortante) puede que no sea insignificante. Tal rigidez (resistencia a deformaciones/distorsiones) puede ser considerada como una inercia de múltiples CR. Es decir, ondas gravitatorias que tienen energía no localizada, pero tal energía es asociada con múltiples deformaciones. Por lo tanto, la energía de tales ondas gravitatorias puede ser considerada como un intento de superar la resistencia a la deformación (rigidez) de múltiples CR. Así, tal inercia parecería representar una contribución al stress del tensor de momento de energía y su representación matricial no contribuiría significativamente a toda la curvatura. Así, si las ondas gravitatorias no son detectadas, entonces LIGO I puede realmente estar explorando un cálculo cualitativo (no los límites) para la rigidez de múltiples CR. Así, múltiples CR pueden ser suficientemente robustos para la perturbación. Cualquier robustez parecería consistente sin producir rupturas cercanas y para una escala de Planck Cp también consistente con ninguna cuantificación de múltiples CR. Entonces, será menos probable tener fugas de ondas gravitatorias propagándose fuera de múltiples CR a otra dimensión, p.ej., brana. También, cualquier rigidez significante de múltiples CR sería menos consistente con las deformaciones asociadas con las supercuerdas. Y si el concepto de la inercia múltiple es descriptivo, entonces cualquier consideración reciente de nuevas aceleraciones (p.ej. resultantes de una tensión o elasticidad múltiple) de varios CR parecería menos probable. También la energía asociada con la resistencia a la deformación múltiple puede representar una porción significante de energía necesaria para aproximar la monotonía. Es decir, más que una búsqueda de la llamada energía oscura, tal vez una contribución adicional significativa es en forma de energía de múltiples CR, tal rigidez de múltiples CR contribuyendo al stress del tensor de momento de energía y por tanto a la curvatura. Así tal vez, LIGO I ya ha hecho un gran descubrimiento, la inercia de múltiples CR. Así, varios CR parecen tener una rigidez significativa y por tanto contribuya a una suma significante de energía y así contribuye significantemente a la curvatura (véase16 17 18 en INFN/Torino para una lista de trabajos reciente activamente mantenida en este campo de evolución rápida).
La energía oscura y el destino del Universo
La consecuencia más directa de la existencia de la energía oscura y la aceleración del Universo es que éste es más antiguo de lo que se creía. Si se calcula la edad del Universo con base en los datos actuales de la constante de Hubble (71±4 (km/s)/Mp), se obtiene una edad de 10.000 millones de años, menor que la edad de las estrellas más viejas que es posible observar en los cúmulos globulares, lo que crea una paradoja insalvable. Los cosmólogos estiman que la aceleración empezó hace unos 9.000 millones de años. Antes de eso, se pensaba que la expansión estaba ralentizándose, debido a la influencia atractiva de la materia oscura y los bariones. La densidad de materia oscura en un Universo en expansión desaparece más rápidamente que la energía oscura y finalmente domina la energía oscura. Específicamente, cuando el volumen del Universo se dobla, la densidad de materia oscura se divide a la mitad pero la densidad de energía oscura casi permanece sin cambios (exactamente es constante en el caso de una constante cosmológica). Teniendo en cuenta la energía oscura, la edad del Universo es de unos 13.700 millones de años (de acuerdo con los datos del satélite WMAP en 2003), lo que resuelve la paradoja de la edad de las estrellas más antiguas.
Si la aceleración continúa indefinidamente, el resultado final será que las galaxias exteriores al Supercúmulo de Virgo se moverán más allá del horizonte de sucesos: no volverán a ser visibles, porque su velocidad radial será mayor que la velocidad de la luz. Esta no es una violación de la relatividad especial y el efecto no puede utilizarse para enviar una señal entre ellos. Realmente no hay ninguna manera de definir la "velocidad relativa" en un espacio-tiempo curvado. La velocidad relativa y la velocidad sólo pueden ser definidas con significado pleno en un espacio-tiempo plano o en regiones suficientemente pequeñas (infinitesimales) de espacio-tiempo curvado. A su vez, previene cualquier comunicación entre ellos y el objeto pase sin contactar. La Tierra, la Vía Láctea y el Supercúmulo de Virgo, sin embargo, permanecería virtualmente sin perturbaciones mientras el resto del Universo retrocede. En este escenario, el supercúmulo local finalmente sufriría la muerte caliente, justo como se pensaba para un Universo plano y dominado por la materia, antes de las medidas de la aceleración cósmica.
El fondo de microondas indica que la geometría del Universo es plana, es decir, el Universo tiene la masa justa para que la expansión continúe indeterminadamente. Si el Universo, en vez de plano fuese cerrado, significaría que la atracción gravitatoria de la masa que forma el Universo es mayor que la expansión del Universo, por lo que éste se volvería a contraer (Big Crunch). Sin embargo, al estudiar la masa del Universo se detectó muy pronto que faltaba materia para que el Universo fuese plano. Esta "materia perdida" se denominó materia oscura. Con el descubrimiento de la energía oscura hoy se sabe que el destino del Universo ya no depende de la geometría del mismo, es decir, de la cantidad de masa que hay en él. En un principio la expansión del Universo se frenó debido a la gravedad, pero hace unos 4.000 millones de años la energía oscura sobrepasó al efecto de la fuerza gravitatoria de la materia y comenzó la aceleración de la expansión.
El futuro último del Universo depende de la naturaleza exacta de la energía oscura. Si ésta es una constante cosmológica, el futuro del Universo será muy parecido al de un Universo plano. Sin embargo, en algunos modelos de quintaesencia, denominados energía fantasma, la densidad de la energía oscura aumenta con el tiempo, provocando una aceleración exponencial. En algunos modelos extremos la aceleración sería tan rápida que superaría las fuerzas de atracción nucleares y destruiría el Universo en unos 20.000 millones de años, en el llamado Gran Desgarro (Big Rip).
Hay algunas ideas muy especulativas sobre el futuro del Universo. Una sugiere que la energía fantasma causa una expansión divergente, que implicaría que la fuerza efectiva de la energía oscura continúa creciendo hasta que domine al resto de las fuerzas del Universo. Bajo este escenario, la energía oscura finalmente destrozaría todas las estructuras gravitacionalmente acotadas, incluyendo galaxias y sistemas solares y finalmente superaría a las fuerzas eléctrica y nuclear para destrozar a los propios átomos, terminando el Universo en un Big Rip. Por otro lado, la energía oscura puede disiparse con el tiempo o incluso llegar a ser atractiva. Tales incertidumbres abren la posibilidad de que la gravedad todavía pueda conducir al Universo que se contrae a sí mismo en un "Big Crunch". Algunos escenarios, como el modelo cíclico, sugieren que este podía ser el caso. Mientras que estas ideas no están soportadas por las observaciones, no pueden ser excluidas. Las medidas de aceleración son cruciales para determinar el destino final del Universo en la Teoría del Big Bang.
Temas relacionados con la energía oscura son la constante cosmológica, una energía de densidad constante que llena el espacio en forma homogénea,la Teoría cuántica de campos y la quintaesencia, como campos dinámicos cuya densidad de energía puede variar en el tiempo y el espacio. De hecho, las contribuciones de los campos escalares que son constantes en el espacio normalmente también se incluyen en la constante cosmológica. Se piensa que la constante cosmológica se origina en la energía del vacío. Los campos escalares que cambian con el espacio son difíciles de distinguir de una constante cosmológica porque los cambios pueden ser extremadamente lentos.
Según estimaciones, resumidas en este gráfico de la NASA, alrededor del 70% del contenido energético del Universo consiste en energía oscura, cuya presencia se infiere en su efecto sobre la expansión del Universo pero sobre cuya naturaleza última se desconoce casi todo.
Para distinguir entre ambas se necesitan mediciones muy precisas de la expansión del Universo, para ver si la velocidad de expansión cambia con el tiempo. La tasa de expansión está parametrizada por la ecuación de estado. La medición de la ecuación estado de la energía oscura es uno de los mayores retos de investigación actual de la cosmología física.
Añadir la constante cosmológica a la Métrica de Friedman-Lemaître-Robertson-Walker (FLRW) conduce al modelo Lambda-CDM, que se conoce como "modelo estándar" de cosmología debido a su coincidencia precisa con las observaciones.
No se debe confundir la energía oscura con la materia oscura, ya que, aunque ambas forman la mayor parte de la masa del Universo, la materia oscura es una forma de materia, mientras que la energía oscura se asocia a un campo que ocupa todo el espacio.
Información divulgada recientemente basada en el trabajo realizado por la nave espacial Planck sobre la distribución del universo, obtuvo una estimación más precisa de esta en 68,3% de energía oscura, un 26,8% de materia oscura y un 4,9% de materia ordinaria.
Historia
La constante cosmológica fue propuesta por primera vez por Albert Einstein como un medio para obtener una solución estable de la ecuación del campo de Einstein que llevaría a un Universo estático, utilizándola para compensar la gravedad. El mecanismo no sólo fue un ejemplo poco elegante de "ajuste fino", pues pronto se demostró que el Universo estático de Einstein sería inestable porque las heterogeneidades locales finalmente conducirían a la expansión sin control o a la contracción del Universo. El equilibrio es inestable: si el Universo se expande ligeramente, entonces la expansión libera la energía del vacío, que causa todavía más expansión. De la misma manera, un Universo que se contrae ligeramente se continuará contrayendo.
Estos tipos de perturbaciones son inevitables, debido a la distribución irregular de materia en el Universo. Las observaciones realizadas por Edwin Hubble demostraron que el Universo está expandiéndose y que no es estático en absoluto. Einstein se refirió a su fallo para predecir un Universo dinámico, en contraste a un Universo estático, como "su gran error". Después de esta declaración, la constante cosmológica fue ignorada durante mucho tiempo como una curiosidad histórica.
Evolución espacio-temporal del Universo.
Alan Guth propuso en los años 1970 que un campo de presión negativa, similar en concepto a la energía oscura, podría conducir a la inflación cósmica en el Universo pre-primigenio. La inflación postula que algunas fuerzas repulsivas, cualitativamente similar a la energía oscura, da como resultado una enorme y exponencial expansión del Universo poco después del Big Bang. Tal expansión es una característica esencial de muchos modelos actuales del Big Bang. Sin embargo, la inflación tiene que haber ocurrido a una energía mucho más alta que la energía oscura que observamos hoy y se piensa que terminó completamente cuando el Universo sólo tenía una fracción de segundo. No está claro qué relación (si hay alguna), existe entre la energía oscura y la inflación. Incluso después de que los modelos inflacionarios hayan sido aceptados, la constante cosmológica se piensa que es irrelevante en el Universo actual.
El término "energía oscura" fue acuñado por Michael Turner en 1998.En ese tiempo, el problema de la masa perdida de la nucleosíntesis primordial y la estructura a gran escala del Universo fue establecida y algunos cosmólogos habían empezado a teorizar que había un componente adicional en nuestro Universo. La primera prueba directa de la energía oscura provino de las observaciones de la aceleración de la velocidad de expansión del universo mediante el estudio de supernovas tipo Ia por Adam Riess et al.8 y confirmada después en Saul Perlmutter et al.Esto dio como resultado el modelo Lambda-CDM, que hasta 2006 era consistente con una serie de observaciones cosmológicas rigurosamente crecientes, las últimas de 2005 de la Supernova Legacy Survey. Los primeros resultados de la SNLS revelaron que el comportamiento medio de la energía oscura se comporta como la constante cosmológica de Einstein con una precisión del 10%.Los resultados del Hubble Space Telescope Higher-Z Team indican que la energía oscura ha estado presente durante al menos 9.000 millones de años y durante el periodo precedente a la aceleración cósmica.
Descubrimiento de la energía oscura
En 1998 las observaciones de supernovas de tipo muy lejanas, realizadas por parte del Supernova Cosmology Project en el Laboratorio Nacional Lawrence Berkeley y el High-z Supernova Search Team, sugirieron que la expansión del Universo se estaba acelerando. Desde entonces, esta aceleración se ha confirmado por varias fuentes independientes: medidas de la radiación de fondo de microondas, las lentes gravitacionales, nucleosíntesis primigenia de elementos ligeros y la estructura a gran escala del Universo, así como una mejora en las medidas de las supernovas han sido consistentes con el modelo Lambda-CDM.
Las supernovas de tipo 1a proporcionan la principal prueba directa de la existencia de la energía oscura. Según a la Ley de Hubble, todas las galaxias lejanas se alejan aparentemente de la Vía Láctea, mostrando un desplazamiento al rojo en el espectro luminoso debido al efecto Doppler. La medición del factor de escala en el momento que la luz fue emitida desde un objeto es obtenida fácilmente midiendo el corrimiento al rojo del objeto en recesión. Este desplazamiento indica la edad de un objeto lejano de forma proporcional, pero no absoluta. Por ejemplo, estudiando el espectro de un quasar se puede saber si se formó cuando el Universo tenía un 20% o un 30% de la edad actual, pero no se puede saber la edad absoluta del Universo. Para ello es necesario medir con precisión la expansión cosmológica. El valor que representa esta expansión en la actualidad se denomina Constante de Hubble. Para calcular esta constante se utilizan en cosmología las candelas estándar, que son determinados objetos astronómicos con la misma magnitud absoluta, que es conocida, de tal manera que es posible relacionar el brillo observado, o magnitud aparente, con la distancia. Sin las candelas estándar, es imposible medir la relación corrimiento al rojo-distancia de la ley de Hubble. Las supernovas tipo 1a son una de esas candelas estándar, debido a su gran magnitud absoluta, lo que posibilita que se puedan observar incluso en las galaxias más lejanas. En 1998 varias observaciones de estas supernovas en galaxias muy lejanas (y, por lo tanto, jóvenes) demostraron que la constante de Hubble no es tal, sino que su valor varía con el tiempo. Hasta ese momento se pensaba que la expansión del Universo se estaba frenando debido a la fuerza gravitatoria; sin embargo, se descubrió que se estaba acelerando, por lo que debía existir algún tipo de fuerza que acelerase el Universo.
La consistencia en magnitud absoluta para supernovas tipo 1a se ve favorecida por el modelo de una estrella enana blanca vieja que gana masa de una estrella compañera y crece hasta alcanzar el límite de Chandrasekhar definido de manera precisa. Con esta masa, la enana blanca es inestable ante fugas termonucleares y explota como una supernova tipo 1a con un brillo característico. El brillo observado de la supernova se pinta frente a su corrimiento al rojo y esto se utiliza para medir la historia de la expansión del Universo. Estas observaciones indican que la expansión del Universo no se está desacelerando, como sería de esperar para un Universo dominado por materia, sino más bien acelerándose. Estas observaciones se explican suponiendo que existe un nuevo tipo de energía con presión negativa.
La existencia de la energía oscura, de cualquier forma, es necesaria para reconciliar la geometría medida del espacio con la suma total de materia en el Universo. Las medidas de la radiación de fondo de microondas más recientes, realizadas por el satélite WMAP, indican que el Universo está muy cerca de ser plano. Para que la forma del Universo sea plana, la densidad de masa/energía del Universo tiene que ser igual a una cierta densidad crítica. Posteriores observaciones de la radiación de fondo de microondas y de la proporción de elementos formados en el Big Bang (Gran explosión) han puesto un límite a la cantidad de materia bariónica y materia oscura que puede existir en el Universo, que cuenta sólo el 30% de la densidad crítica. Esto implica la existencia de una forma de energía adicional que cuenta el 70% de la masa energía restante.Estos estudios indican que el 73% de la masa del Universo está formado por la energía oscura, un 23% es materia oscura (materia oscura fría y materia oscura caliente) y un 4% materia bariónica. La teoría de la estructura a gran escala del Universo, que determina la formación de estructuras en el Universo (estrellas, quasars, galaxias y agrupaciones galácticas), también sugiere que la densidad de materia en el Universo es sólo el 30% de la densidad crítica.
Experimentos diseñados para probar la existencia de la energía oscura
El más conocido es el Sistema de Detección Integrado Sachs-Wolfe, ideado en 1996 por dos investigadores canadienses y utilizado por primera vez en 2003; propusieron buscar estos pequeños cambios en la energía de la luz comparando la temperatura de la radiación con mapas de galaxias en el universo local. De no existir la energía oscura, no habría correspondencia entre los dos mapas (el de fondo de microondas cósmico distante y el de la distribución de galaxias relativamente cercano). Si esta existiera, sin embargo, se podría observar un curioso fenómeno: los fotones del fondo cósmico de microondas ganarían energía —en vez de perderla— al pasar cerca de grandes masas. El experimento mejoró sus resultados gracias al equipo de Tommaso Giannantonio, quien ha probado su existencia con una certeza algo mayor a cuatro sigmas.
Naturaleza de la energía oscura
La naturaleza exacta de la energía oscura es materia de debate. Se sabe que es muy homogénea, no muy densa, pero no se conoce su interacción con ninguna de las fuerzas fundamentales más que con la gravedad. Como no es muy densa, unos 10−29 g/cm³, es difícil realizar experimentos para detectarla. La energía oscura tiene una gran influencia en el Universo, pues es el 70% de toda la energía y debido a que ocupa uniformemente el espacio interestelar. Los dos modelos principales son la quintaesencia y la constante cosmológica.
Presión negativa
La energía oscura causa la expansión del universo pues ejerce una presión negativa. Una sustancia tiene una presión positiva cuando empuja la pared del recipiente que lo contiene; este es el caso de los fluidos ordinarios (líquidos y gases de materia ordinaria). Una presión negativa tiene el efecto contrario, y un recipiente lleno de una substancia de presión negativa provocaría una presión hacia dentro del contenedor. De acuerdo con la Relatividad General, la presión de una substancia contribuye a su atracción gravitacional sobre otras cosas igual que hace su masa, de acuerdo con la ecuación de campo de Einstein:
Si la substancia es de presión negativa entonces su efecto es una repulsión gravitacional. Si el efecto gravitacional repulsivo de la presión negativa de la energía oscura es mayor que la atracción gravitacional causada por la propia energía, resulta una expansión del tipo que se ha observado. Por esa razón, se ha postulado que la expansión acelerada observada podría ser el efecto de presión negativa de una substancia exótica conocida como energía oscura. Otra posibilidad para explicar la expansión es postular una ecuación de campo con constante cosmológica positiva:
Donde ahora el tensor \scriptstyle \hat{T}_{\mu\nu} sería la parte asociada a materia con presión positiva. Para resolver la contradicción de que el empuje cause atracción o la contracción cause repulsión se considera que:
El empuje de la presión positiva y el empuje de la presión negativa son fuerzas no gravitacionales que solamente mueven substancias en torno a su espacio interior sin cambiar el espacio en sí.
Sin embargo, la atracción gravitacional (o repulsión) que causan opera sobre el propio espacio, disminuyendo (o incrementando) la cantidad de espacio entre las cosas. Esto es lo que determina el tamaño del Universo.
No hay necesidad de que estos dos efectos actúen en la misma dirección. De hecho, actúan en direcciones opuestas.
Constante cosmológica
La explicación más simple para la energía oscura es que simplemente es el "coste de tener espacio"; es decir, un volumen de espacio tiene alguna energía fundamental intrínseca. Esto es la constante cosmológica, algunas veces llamada Lambda (de ahí el modelo Lambda-CDM) por la letra griega A Lambda, el símbolo utilizado matemáticamente para representar esta cantidad. Como la energía y la masa están relacionadas por la ecuación E=mc^2, la teoría de la relatividad general predice que tendrá un efecto gravitacional. Algunas veces es llamada energía del vacío porque su densidad de energía es la misma que la del vacío. De hecho, muchas teorías de la física de partículas predicen fluctuaciones del vacío que darían al vacío exactamente este tipo de energía. Los cosmólogos estiman que la constante cosmológica es del orden de 10−29g/cm³ o unos 10−120 en unidades de Planck.
La constante cosmológica tiene una presión negativa igual a su densidad de energía, y así causa que la expansión del Universo se acelere. La razón por la que la constante cosmológica tiene una presión negativa se puede obtener a partir de la termodinámica clásica. La energía tiene que perderse desde dentro de un contenedor que se ocupe del contenedor. Un cambio en el volumen dV necesita el mismo trabajo que para un cambio de energía -pdV, donde p es la presión. Pero la suma de energía en una caja de energía de vacío realmente se incremente cuando el volumen crece (dV es positivo), porque la energía es igual a \rho V, donde \rho (rho) es la densidad de energía de la constante cosmológica. Por tanto, p es negativa y, de hecho, p=-\rho, significando que la ecuación de estado tiene la forma: , sin variación temporal.
Un gran problema pendiente es que muchas teorías cuánticas de campos predicen una gran constante cosmológica a partir de la energía del vacío cuántico, superior a 120 órdenes de magnitud. Esto casi se necesitaría cancelar, pero no exactamente, por un término igualmente grande de signo opuesto. Algunas teorías supersimétricas necesitan una constante cosmológica que sea exactamente cero, lo que no ayuda. El consenso científico actual cuenta con la extrapolación de pruebas empíricas donde son relevantes las predicciones y el ajuste fino de las teorías hasta que se encuentre una solución más elegante. Técnicamente, esto se suma a las teorías de comprobación contra observaciones macroscópicas. Lamentablemente, como el margen de error conocido en la constante predice el destino final del Universo más que su estado actual, todavía continúan sin conocerse muchas preguntas "más profundas".
Otro problema aparece con la inclusión de la constante cosmológica en el modelo estándar que es la aparición de soluciones con regiones de discontinuidades (véase clasificación de discontinuidades para ver tres ejemplos) con una baja densidad de materia.La discontinuidad también afecta al signo pasado de la energía del vacío, cambiando la actual presión negativa a presión atractiva, de la misma forma que se mira hacia atrás, hacia el Universo primigenio. Este hallazgo debería ser considerado como una deficiencia del modelo estándar, pero sólo cuando se incluye un término de vacío.
A pesar de sus problemas, la constante cosmológica es en muchos aspectos la solución más económica al problema de la aceleración de la expansión del Universo. Un número explica satisfactoriamente una multitud de observaciones. Así, el modelo estándar actual de cosmología, el modelo Lambda-CDM, incluye la constante cosmológica como una característica esencial.
Quintaesencia
La energía oscura puede convertirse en materia oscura cuando es golpeada por partículas bariónicas, conduciendo así a excitaciones como de partículas en algún tipo de campo dinámico, conocido como quintaesencia. La quintaesencia difiere de la constante cosmológica en que puede variar en el espacio y en el tiempo. Para que no se agrupen y se formen estructuras como materia, tiene que ser muy ligero de tal manera que tenga una gran longitud de onda Compton.
No se ha encontrado todavía ninguna prueba de la quintaesencia, pero tampoco ha sido descartada. Generalmente predice una aceleración ligeramente más lenta de la expansión del Universo que la constante cosmológica. Algunos científicos piensan que la mejor prueba de la quintaesencia vendría a partir de violaciones del principio de equivalencia y la variación de las constantes fundamentales de Einstein en el espacio o en el tiempo. Los campos escalares son predichos por el modelo estándar y la teoría de cuerdas, pero un problema análogo al problema de la constante cosmológica (o el problema de construir modelos de inflación cósmica) ocurre: la teoría de la renormalización predice que los campos escalares deberían adquirir grandes masas.
El problema de la coincidencia cósmica se pregunta por qué la aceleración cósmica empezó cuando lo hizo. Si la aceleración cósmica empezó antes en el Universo, las estructuras como galaxias nunca habrían tenido tiempo de formarse y permanecer, al menos como se las conoce; nunca habrían tenido una oportunidad de existir. Sin embargo, muchos modelos de quintaesencia tienen un llamado "comportamiento rastreador", que soluciona este problema. En estos modelos, el campo de la quintaesencia tiene una densidad que sigue la pista de cerca (pero es menor que) la densidad de radiación hasta la igualdad materia-radiación, que dispara la quintaesencia empiece a comportarse como energía oscura, finalmente dominando el Universo. Esto naturalmente establece una baja escala de energía de la energía oscura.
Algunos casos especiales de quintaesencia son la energía fantasma con w=+1. , en que la densidad de energía de la quintaesencia realmente se incrementa con el tiempo y la esencia-k (acrónimo de quintaesencia cinética) que tiene una forma no convencional de energía cinética. Pueden tener propiedades inusuales: la energía fantasma, por ejemplo, puede causar un Big Rip.
La nueva quintaesencia es una forma novedosa de energía inherente en el espacio vacío, que está basada en la constante de Planck. La suma fundamental de energía contenida en el espacio-tiempo, es representada por la ecuación E = hn, donde h es la constante de Planck y n es el número de quintesencias contenido en un volumen de espacio dado, por unidad de tiempo (segundos).
Ideas alternativas
Algunos teóricos piensan que la energía oscura y la aceleración cósmica son un fallo de la relatividad general en escalas muy grandes, mayores que los supercúmulos. Es una tremenda extrapolación pensar que la ley de la gravedad, que funciona tan bien en el sistema solar, debería trabajar sin corrección a escala universal. Se han realizado muchos intentos de modificar la relatividad general; sin embargo, han resultado ser equivalentes a las teorías de la quintaesencia o inconsistentes con las observaciones.
Las ideas alternativas a la energía oscura han venido desde la teoría de cuerdas, la cosmología brana y el principio holográfico, pero no han sido probadas todavía tan convincentemente como la quintaesencia y la constante cosmológica.
Sin embargo, otras proposiciones "radicalmente conservadoras" intentan explicar los datos observacionales mediante un uso más refinado de las teorías establecidas más que a través de la introducción de la energía oscura, centrándose, por ejemplo, en los efectos gravitacionales de heterogeneidades de la densidad (asumidas como insignificantes en la aproximación estándar de la métrica de Friedman-Lemaître-Robertson-Walker y confirmada como insignificante por los estudios de las anisotropías del fondo cósmico de microondas y las estadísticas de la estructura a gran escala del Universo) o en las consecuencias de la ruptura de la simetría electrodébil en el Universo primigenio.
Con perspicacia, la energía oscura puede deducirse de observaciones a la constelación de Virgo con el telescopio LIGO I (con su sensibilidad de 10-21), mediante la no detección de ondas gravitatorias, que puede interpretarse como un indicador de que la rigidez de un continuo espacio-tiempo CR pseudo-Riemanniano no es insignificante, más que la suposición de que las ondas gravitatorias se propagan a larga distancia. Estadísticamente LIGO I parece tener un volumen suficientemente grande y tamaño de muestreo para la inclusión de objetos compactos en sistemas binarios en órbitas estrechas al menos, incluso si no se capturan algunos eventos de fusión. Sin embargo, incluso las fusiones binarias de BHs,que generan ondas gravitatorias puede decaer rápidamente. Así, la resistencia a la deformación (stress normal: extensión y compresión e incluso cualquier esfuerzo cortante) puede que no sea insignificante. Tal rigidez (resistencia a deformaciones/distorsiones) puede ser considerada como una inercia de múltiples CR. Es decir, ondas gravitatorias que tienen energía no localizada, pero tal energía es asociada con múltiples deformaciones. Por lo tanto, la energía de tales ondas gravitatorias puede ser considerada como un intento de superar la resistencia a la deformación (rigidez) de múltiples CR. Así, tal inercia parecería representar una contribución al stress del tensor de momento de energía y su representación matricial no contribuiría significativamente a toda la curvatura. Así, si las ondas gravitatorias no son detectadas, entonces LIGO I puede realmente estar explorando un cálculo cualitativo (no los límites) para la rigidez de múltiples CR. Así, múltiples CR pueden ser suficientemente robustos para la perturbación. Cualquier robustez parecería consistente sin producir rupturas cercanas y para una escala de Planck Cp también consistente con ninguna cuantificación de múltiples CR. Entonces, será menos probable tener fugas de ondas gravitatorias propagándose fuera de múltiples CR a otra dimensión, p.ej., brana. También, cualquier rigidez significante de múltiples CR sería menos consistente con las deformaciones asociadas con las supercuerdas. Y si el concepto de la inercia múltiple es descriptivo, entonces cualquier consideración reciente de nuevas aceleraciones (p.ej. resultantes de una tensión o elasticidad múltiple) de varios CR parecería menos probable. También la energía asociada con la resistencia a la deformación múltiple puede representar una porción significante de energía necesaria para aproximar la monotonía. Es decir, más que una búsqueda de la llamada energía oscura, tal vez una contribución adicional significativa es en forma de energía de múltiples CR, tal rigidez de múltiples CR contribuyendo al stress del tensor de momento de energía y por tanto a la curvatura. Así tal vez, LIGO I ya ha hecho un gran descubrimiento, la inercia de múltiples CR. Así, varios CR parecen tener una rigidez significativa y por tanto contribuya a una suma significante de energía y así contribuye significantemente a la curvatura (véase16 17 18 en INFN/Torino para una lista de trabajos reciente activamente mantenida en este campo de evolución rápida).
La energía oscura y el destino del Universo
La consecuencia más directa de la existencia de la energía oscura y la aceleración del Universo es que éste es más antiguo de lo que se creía. Si se calcula la edad del Universo con base en los datos actuales de la constante de Hubble (71±4 (km/s)/Mp), se obtiene una edad de 10.000 millones de años, menor que la edad de las estrellas más viejas que es posible observar en los cúmulos globulares, lo que crea una paradoja insalvable. Los cosmólogos estiman que la aceleración empezó hace unos 9.000 millones de años. Antes de eso, se pensaba que la expansión estaba ralentizándose, debido a la influencia atractiva de la materia oscura y los bariones. La densidad de materia oscura en un Universo en expansión desaparece más rápidamente que la energía oscura y finalmente domina la energía oscura. Específicamente, cuando el volumen del Universo se dobla, la densidad de materia oscura se divide a la mitad pero la densidad de energía oscura casi permanece sin cambios (exactamente es constante en el caso de una constante cosmológica). Teniendo en cuenta la energía oscura, la edad del Universo es de unos 13.700 millones de años (de acuerdo con los datos del satélite WMAP en 2003), lo que resuelve la paradoja de la edad de las estrellas más antiguas.
Si la aceleración continúa indefinidamente, el resultado final será que las galaxias exteriores al Supercúmulo de Virgo se moverán más allá del horizonte de sucesos: no volverán a ser visibles, porque su velocidad radial será mayor que la velocidad de la luz. Esta no es una violación de la relatividad especial y el efecto no puede utilizarse para enviar una señal entre ellos. Realmente no hay ninguna manera de definir la "velocidad relativa" en un espacio-tiempo curvado. La velocidad relativa y la velocidad sólo pueden ser definidas con significado pleno en un espacio-tiempo plano o en regiones suficientemente pequeñas (infinitesimales) de espacio-tiempo curvado. A su vez, previene cualquier comunicación entre ellos y el objeto pase sin contactar. La Tierra, la Vía Láctea y el Supercúmulo de Virgo, sin embargo, permanecería virtualmente sin perturbaciones mientras el resto del Universo retrocede. En este escenario, el supercúmulo local finalmente sufriría la muerte caliente, justo como se pensaba para un Universo plano y dominado por la materia, antes de las medidas de la aceleración cósmica.
El fondo de microondas indica que la geometría del Universo es plana, es decir, el Universo tiene la masa justa para que la expansión continúe indeterminadamente. Si el Universo, en vez de plano fuese cerrado, significaría que la atracción gravitatoria de la masa que forma el Universo es mayor que la expansión del Universo, por lo que éste se volvería a contraer (Big Crunch). Sin embargo, al estudiar la masa del Universo se detectó muy pronto que faltaba materia para que el Universo fuese plano. Esta "materia perdida" se denominó materia oscura. Con el descubrimiento de la energía oscura hoy se sabe que el destino del Universo ya no depende de la geometría del mismo, es decir, de la cantidad de masa que hay en él. En un principio la expansión del Universo se frenó debido a la gravedad, pero hace unos 4.000 millones de años la energía oscura sobrepasó al efecto de la fuerza gravitatoria de la materia y comenzó la aceleración de la expansión.
El futuro último del Universo depende de la naturaleza exacta de la energía oscura. Si ésta es una constante cosmológica, el futuro del Universo será muy parecido al de un Universo plano. Sin embargo, en algunos modelos de quintaesencia, denominados energía fantasma, la densidad de la energía oscura aumenta con el tiempo, provocando una aceleración exponencial. En algunos modelos extremos la aceleración sería tan rápida que superaría las fuerzas de atracción nucleares y destruiría el Universo en unos 20.000 millones de años, en el llamado Gran Desgarro (Big Rip).
Hay algunas ideas muy especulativas sobre el futuro del Universo. Una sugiere que la energía fantasma causa una expansión divergente, que implicaría que la fuerza efectiva de la energía oscura continúa creciendo hasta que domine al resto de las fuerzas del Universo. Bajo este escenario, la energía oscura finalmente destrozaría todas las estructuras gravitacionalmente acotadas, incluyendo galaxias y sistemas solares y finalmente superaría a las fuerzas eléctrica y nuclear para destrozar a los propios átomos, terminando el Universo en un Big Rip. Por otro lado, la energía oscura puede disiparse con el tiempo o incluso llegar a ser atractiva. Tales incertidumbres abren la posibilidad de que la gravedad todavía pueda conducir al Universo que se contrae a sí mismo en un "Big Crunch". Algunos escenarios, como el modelo cíclico, sugieren que este podía ser el caso. Mientras que estas ideas no están soportadas por las observaciones, no pueden ser excluidas. Las medidas de aceleración son cruciales para determinar el destino final del Universo en la Teoría del Big Bang.
Assinar:
Postagens (Atom)
Jacques Bergier - Melquisedeque
Melquisedeque aparece pela primeira vez no livro Gênese, na Bíblia. Lá está escrito: “E Melquisedeque, rei de Salem, trouxe pão e vinho. E...