sábado, 9 de abril de 2016

Causalidad (física)

En física, el término causalidad describe la relación entre causas y efectos, es fundamental en todas las ciencias naturales, especialmente en física. En términos generales, la causalidad puede ser estudiada desde varias perspectivas: la filosófica, la de la computación y la estadística.

Introducción

En física clásica se asumía que todos los eventos están causados por otros anteriores y que dicha causalidad es expresable en términos de leyes de la naturaleza. Dicha pretensión llegó a su punto más alto en la afirmación de Pierre Simon Laplace. Laplace afirmó que si se conoce el estado actual del mundo con total precisión, uno puede predecir cualquier evento en el futuro. Esta perspectiva se conoce como determinismo o más precisamente determinismo causal.

Aunque el determinismo de Laplace parece correcto respecto a las ecuaciones aproximadas de la física clásica, la teoría del caos ha añadido pequeñas complicaciones. Muchos sistemas presentan una fuerte sensibilidad a las condiciones iniciales, lo que significa que condiciones iniciales muy similares en ciertos sistemas pueden conducir a comportamientos a largo plazo muy diferentes. Eso sucede por ejemplo en el tiempo atmosférico. Hacia 1987 era habitual usar superordenadores en la predicción del tiempo, por ejemplo el Cray X-MP del Centro Europeo para el Pronóstico del Tiempo a Medio Plazo, que operaba con una capacidad máxima de 800 megaflops, podía calcular en apenas media hora un pronóstico aceptable del tiempo para el día siguiente en todo el hemisferio. Y aunque cada día se realizaban pronósticos de los siguientes diez días, los resultados del pronóstico a partir del cuarto o quinto día diferían sensiblemente de lo previsto por el ordenador.

Sin embargo, por encima de la impredictibilidad práctica causada por el comportamiento estocástico o caótico de los sistemas clásicos, está el hecho de que la mecánica cuántica presenta junto con una evolución determinista recogida en la ecuación de Schrödinger, una evolución no-determinista recogida en el postulado del colapso de la función de onda.

Mecánica relativista

De acuerdo con los postulados comunes de la física newtoniana, la causa precede al efecto en el tiempo. Sin embargo, en la física moderna, el concepto más simple de causalidad ha necesitado ser clarificado. Por ejemplo, en la teoría de la relatividad especial, el concepto de causalidad se mantiene, aunque el tiempo sea relativo y el concepto de simultaneidad de la mecánica clásica no sea aplicable.

A pesar de los problemas causados por la ausencia de un tiempo absoluto independiente del observador, el significado de "precedendecia causal" sigue siendo absoluto y no depende del observador (aunque no pasa igual con el concepto de simultaneidad de conceptos no relacionados causalmente, que ahora sí pasan a depender del observador). Consecuentemente, el principio relativista de causalidad dice que la causa precede a su efecto para observadores inerciales.

Esto implica que, en términos de la teoría de la relatividad especial, una condición necesaria para que A sea causa de B, es que B sea un evento que pertenece al cono de luz de A (en términos de distancias espacio-temporales se dice que A y B están separados por intervalo temporaloide). A pesar de algunas obras de ciencia ficción, en los supuestos bajo los cuales la teoría de la relatividad especial es adecuada para describir el mundo, resulta imposible, no sólo influir en el pasado, sino también en objetos distantes mediante señales que se muevan más rápidas que la velocidad de la luz.

En la teoría general de la relatividad, el concepto de causalidad se generaliza de la manera más directa posible: el efecto debe pertenecer al cono de luz futuro de su causa, aún en espacio-tiempos curvos; aunque pueden aparecer ciertas complicaciones, como cuando uno trata soluciones exactas de las ecuaciones de Einstein, como el Universo de Gödel, donde existen curvas temporales cerradas, y un observador puede verse a sí mismo en el pasado, y otra serie de peculiaridades que, no obstante, no incurren en ninguna paradoja.

Mecánica cuántica

Nuevas sutilezas se toman en cuenta cuando se investiga la causalidad en mecánica cuántica no relativista y teoría cuántica de campos (mecánica cuántica relativista). En la teoría cuántica de campos, la causalidad está estrechamente relacionada con el principio de localidad. El análisis de ese principio es delicado, y muchas veces ese análisis pasa por el uso del teorema de Bell. De todas maneras, el resultado de dicho análisis parece depender, en parte, de desde qué interpretación de la mecánica cuántica se interpreten los resultados.

Sin embargo, se sospecha que, aún con todas estas sutilezas, el principio de causalidad sigue siendo un concepto válido de toda teoría física realista. Así, parece que la noción de que los eventos pueden ser ordenados en causas y efectos es necesaria para prevenir ciertas paradojas del mundo que conocemos.

Causalidad y mecánica cuántica

El principio de causalidad en su forma original postula que todo efecto -todo evento- debe tener siempre una causa (que, en idénticas circunstancias, una causa tenga siempre un mismo efecto se conoce como "principio de uniformidad"). Se usa para la búsqueda de leyes definidas, que asignan a cada causa su correspondiente efecto.

Este principio refleja un comportamiento mecánico de la naturaleza, que hasta el siglo XX se había aceptado e interpretado en un sentido determinista. No obstante, a principios de este siglo Heisenberg y Born introdujeron el principio de incertidumbre y las probabilidades como ingrediente esencial de la mecánica cuántica. Entre los principios o postulados de la mecánica cuántica está el colapso de la función de onda que claramente no satisface el principio de causalidad clásico.

Teoría atómica

Heisenberg, Schrödigner y otros pioneros de la mecánica cuántica introdujeron un modelo de átomo que renunciaba a la visión clásica de un compuesto de partículas y ondas. En este y otros modelos cuánticos exitosos se apreció que cualquier intento de establecer analogías entre la estructura atómica y nuestra intuición sobre objetos macroscópicos estaba condenado al fracaso . La formulación matemática de la teoría de Heisenberg se llamó inicialmente mecánica matricial, porque requería del uso de las matrices del álgebra lineal clásica. Esta formulación resultó complementaria de la mecánica ondulatoria, del físico austriaco Erwin Schrödinger.

Usando esta mecánica, los niveles de energía u órbitas de electrones se describen en términos probabilísticos: en general, de una misma causa no se deriva siempre un mismo efecto, sino que existe una variedad de posibles efectos. Sólo se puede predecir (aunque, en principio, con una fiabilidad determinista total) la probabilidad de que, cuando la causa se produzca, ocurra cada uno de los efectos. Este comportamiento resulta extraño para nuestra experiencia ordinaria. Su explicación la podemos resumir en los siguientes puntos, que deben aceptarse como postulados avalados por miles de observaciones experimentales:

Existen propiedades de la materia (observables) que no se pueden medir simultáneamente (observables que no conmutan). Por ejemplo, la posición y la velocidad de una misma partícula sería un par de propiedades de este tipo. Para ilustrar esa situación con un análogo clásico burdo, piénsese que, si un microscopio es lo suficientemente sensible como para hacer visible un electrón, deberá enviar una cantidad mínima de luz u otra radiación apropiada sobre él, que lo haga visible. Pero el electrón es tan pequeño que este mínimo de radiación (digamos, un fotón) es suficiente para hacerle cambiar de posición apenas lo tocara, de modo que en el preciso instante de medir su posición, alteraríamos ésta.
Supongamos que hemos medido una de estas propiedades observables, de modo que conocemos con precisión su valor. Cuando un instante después midamos la segunda propiedad, obtendremos uno de los posibles valores de esta segunda propiedad, pero no podemos predecir antes cuál: sólo se puede predecir la probabilidad con la que cada uno de los valores posibles serán obtenidos.

Interpretación de Copenhague

Para algunos autores, desde el punto de vista filosófico, esto supone renunciar al principio de causalidad: podemos hallar dos sistemas físicos que han sido preparados exactamente del mismo modo, pero tales que, al medir una misma propiedad de ambos, obtenemos un resultado distinto en cada caso. No existe ninguna causa por la que hayamos obtenido los resultados diferentes: la naturaleza no es determinista. Sin embargo, sí se pueden determinar con precisión las probabilidades de obtener las posibles medidas. Y como los objetos macroscópicos están formados por números gigantescos de partículas, las predicciones probabilísticas cuánticas acaban siendo, estadísticamente hablando, totalmente precisas, lo que hace de la Mecánica Cuántica una teoría extraordinariamente exacta.

La interpretación descrita de la mecánica cuántica que se ha impuesto con el tiempo, se le llama Interpretación de Copenhague en honor de la escuela del físico danés Niels Bohr. Inicialmente, la renuncia al principio de causalidad en esta interpretación no fue aceptada por muchos físicos, incluyendo a Einstein, quien afirmó: “Dios no juega a los dados”. De hecho, el propio Einstein, en colaboración con Podolski y Rosen, ideó un experimento conocido como Argumento EPR (mal llamado Paradoja EPR), por las siglas de sus autores, presentando cinco ingredientes que son: la lógica clásica, el formulismo de la mecánica cuántica, una postura filosófica realista que podría ser aceptada incluso por un positivista moderado, la completitud del formalismo de la mecánica cuántica y la separabilidad (los ingredientes de lógica clásica y separabilidad están implícitos, pero no se los menciona, pues se los consideraba tan obvios y evidentes que no era necesario presentarlos). El argumento fue enfocado a demostrar la no completitud del formalismo de la mecánica cuántica. Bohr publicó otro trabajo con el mismo título, en el que se opuso a la conclusión del mismo, donde optó por negar la postura filosófica realista (débil) adoptada por la EPR, al proponer que la misma no es compatible con el formalismo de la mecánica cuántica, pues éste requiere una interpretación basada en la complementariedad.

Paradoja EPR y desigualdades de Bell

Alain Aspect dirigió diversos experimentos que buscaban comprobar si se satisfacían las llamadas desigualdades de Bell, sobre teorías locales de variables ocultas. Las desigualdades de Bell se deducen matemáticamente de varios principios: realismo y separabilidad del argumento EPR, además de introducir las variables ocultas de la Interpretación de Bohm. Análisis posteriores mostraron que también es posible deducir la desigualdad de Bell sin suponer la existencia de variables ocultas, o sea solamente requiriendo realismo y separabilidad. De aquí quedan dos opciones: abandonar el realismo como base filosófica o aceptar que la realidad tiene la característica de ser no-separable en ciertos casos.

Ni Bohr ni Einstein consideraron esta opción, porque en el momento histórico en que ellos actuaron nadie concebía la posibilidad de que la separabilidad no fuese válida. Hoy, a la luz de la violación experimental de las desigualdades de Bell, posiblemente ambos titanes se unirían para adoptar la no-separabilidad como la alternativa adecuada entre las planteadas por el argumento de EPR. Habría sido maravilloso ver a estos dos oponentes al fin reunidos: Bohr rechazando el positivismo. Einstein reconociendo la completitud, y ambos aceptando la no-separabilidad en la realidad física.

A pesar de la importancia del argumento EPR y de que, por haber sido publicado en 1935, anterior a la edición de casi todos los libros de texto, éstos, con raras excepciones, no mencionan dicho argumento. Su ausencia resalta aún más sorprendente si se tiene en cuenta que es extremadamente fácil de presentar, incluso en obras de divulgación, sin simplificaciones que lo desvirtúen. Todo esto hace pensar que el silencio en torno del argumento es intencional y que está motivado por una decisión de ignorar las dificultades de interpretación que aquejan a la mecánica cuántica. Tal intento por callar el problema no es neutro, sino que favorece a la interpretación "ortodoxa" de la teoría que se adoptó en sus principios, sustentada por la enorme autoridad, bien merecida, de Bohr, Heisenberg y otros de sus fundadores. Hoy, la mayoría de los físicos que investigan temas fundamentales de esta teoría no se adhieren a dicha interpretación y encuentran necesaria una actitud más crítica en la didáctica de la física cuántica.

La interpretación de Copenhague se enfrenta todavía a la llamada paradoja del gato de Schrödinger (remarquemos que Schrödinger, como Einstein, fue uno de los padres de la Mecánica Cuántica). Esta paradoja, que afecta a la definición de lo que es un proceso de medida (la distinción entre la materia observada y la mente del observador), no ha podido ser aún explicada de forma satisfactoria.

Existen multitud de efectos que se derivan del principio de incertidumbre. Uno de ellos, que afecta al ejemplo de incertidumbre posición-velocidad anterior, es la imposibilidad de la ausencia completa de energía cinética o, digamos, velocidad, para una partícula (ni siquiera en el cero absoluto). Si la energía cinética alcanzara el punto cero y las partículas quedaran totalmente inmóviles, sería posible confinarlas y determinar su posición con precisión arbitraria, a la vez que conoceríamos su velocidad (que sería cero). Por tanto, debe existir alguna “energía residual del punto cero”, incluso en el cero absoluto, para mantener las partículas en movimiento, y también, por así decirlo, nuestra incertidumbre. Esa energía “punto cero” se puede calcular, y resulta suficiente para evitar que el helio líquido se solidifique, incluso a temperaturas tan próximas como se quiera del cero absoluto (el cero en sí resulta inaccesible).

Las consecuencias del principio de incertidumbre se constatan en todas las partes de la microfísica, y acaban resultando asombrosas cuando se extrapolan al Universo en su conjunto. Así:

Desde los tiempos de Einstein, en 1930, se sabía que el principio de incertidumbre también llevaba a la imposibilidad de reducir el error en la medición de energía sin acrecentar la incertidumbre del tiempo durante el cual se toma la medida. (De hecho, al principio, Einstein creyó poder utilizar esta tesis como trampolín para refutar el principio de incertidumbre, pero también Bohr mostró que la tentativa de Einstein era errónea).
De esta versión de la incertidumbre se seguía que en un proceso subatómico se podía violar durante breves lapsos la ley de la conservación de la energía (siempre y cuando todo volviese al estado de conservación cuando concluyese ese lapso). En general, cuanto mayor sea la desviación de la conservación, tanto más breve será el intervalo de tiempo en que ésta es tolerable. El físico japonés Hideki Yukawa aprovechó esta noción para elaborar su teoría de los piones, confirmada experimentalmente.
Más aún, posibilitó la elucidación de ciertos fenómenos subatómicos presuponiendo que las partículas nacían de la nada como un reto a la energía de conservación, pero se extinguían antes del tiempo asignado a su detección, por lo cual eran sólo “partículas virtuales”. Hacia fines de la década 1940-1950, tres investigadores (premios Nobel de Física en 1965) elaboraron la teoría sobre esas partículas virtuales: los físicos norteamericanos Julian Schwinger y Richard Phillips Feynman, y el físico japonés Shin'ichirō Tomonaga. Los diagramas de Feynman son usados corrientemente en la física de partículas, donde llevan a predicciones extremadamente exactas.
A partir de 1976 se han producido especulaciones acerca de que el Universo comenzó como una pequeña pero muy masiva partícula virtual que se expandió con extrema rapidez y que aún sigue expandiéndose. Según este punto de vista, el Universo se formó de la Nada y podemos preguntarnos acerca de la posibilidad de que haya un número infinito de Universos que se formen (y, llegado el momento, acaben) en esta Nada.
En resumen, el principio de incertidumbre afectó profundamente al pensamiento de físicos y filósofos. Ejerció una influencia directa sobre la cuestión filosófica de causalidad, la relación entre causa y efecto. Pero sus implicaciones para la ciencia no son las que se suponen popularmente a menudo. Se puede leer que el principio de incertidumbre anula toda certeza acerca de la naturaleza, y muestra que, al fin y al cabo, la ciencia no sabe ni sabrá nunca hacia dónde se dirige, que el conocimiento científico está a merced de los caprichos imprevisibles de un Universo donde el efecto no sigue necesariamente a la causa. Pero tanto si esta interpretación es válida desde el ángulo filosófico como si no, el principio de incertidumbre no ha modificado un ápice la actitud del científico ante la investigación. Y esto por varios motivos:

La incertidumbre también existe a un nivel clásico. Por ejemplo, incluso si nos olvidamos de posibles efectos cuánticos, no se puede predecir con certeza el comportamiento de las moléculas individuales en un gas. Sin embargo, estas moléculas acatan ciertas leyes termodinámicas, y su conducta es previsible sobre una base estadística. Estas predicciones son infinitamente más precisas que las de las compañías aseguradoras, que planifican su actividad (y obtienen beneficios) calculando con índices de mortalidad fiables, aunque les sea imposible predecir cuándo morirá un individuo determinado.
Ciertamente, en muchas observaciones científicas, la incertidumbre es tan insignificante comparada con la escala correspondiente de medidas, que se la puede descartar para todos los propósitos prácticos. Uno puede determinar simultáneamente la posición y el movimiento de una estrella, o un planeta, o una bola de billar, o incluso un grano de arena con exactitud absolutamente satisfactoria.
La incertidumbre entre las propias partículas subatómicas no representa un obstáculo, sino una verdadera ayuda para los físicos. Se la ha empleado para entender el modelo atómico (que resultaba inestable desde el punto de vista no cuántico), esclarecer hechos sobre la radiactividad, sobre la absorción de partículas subatómicas por los núcleos, y otros muchos acontecimientos subatómicos. En ello se emplea una economía lógica y razonabilidad muy superior de lo que hubiera sido esperable sin él.
Es cierto que el principio de incertidumbre o, en general, la física cuántica, se enfrenta a la paradoja no resuelta del problema de la medición (el gato de Schrödinger). Pero ésta tiene sus orígenes en la distinción entre mente y materia, determinismo y libre albedrío, y profundiza en ella como nunca antes habían imaginado los filósofos. El principio de incertidumbre significa que el Universo es más complejo de lo que se suponía, pero no irracional.

Gravastar


En astrofísica, una estrella gravitacional de vacío o gravastar es una propuesta teórica de Pawel Mazur y Emil Mottola, para reemplazar a la de los agujeros negros. Los gravastars son una de las consecuencias de conjeturar que existen ciertas limitaciones físicas que impiden la formación de agujeros negros. La propuesta de Mazur y Mottola sugiere que el propio espacio llega a una transición de fase que evita el colapso y la formación de una singularidad interna.

La propuesta ha suscitado escaso interés entre los astrofísicos, porque aunque fue el título de una conferencia, sus autores no llegaron a publicar ningún artículo científico. La falta de interés viene del hecho de que el concepto requiere que uno acepte una teoría muy especulativa acerca de la cuantización de la gravedad, y, sin embargo, no tiene ninguna mejora real sobre la de los agujeros negros. Además, no hay una razón teórica en la cuantización de la gravedad que explique por qué el espacio debería comportarse de la manera que Mottola y Mazur indican.

Mazur y Mottola han sugerido que los gravastares podrían ser la solución a la paradoja de la información en los agujeros negros y que el gravastar podría ser una fuente de brotes de rayos gamma (BRG), añadiendo una más a las docenas, si no cientos de ideas que han sido propuesta como causa de los BRG. De todas formas, el consenso entre los astrofísicos es que hay maneras mucho menos radicales y especulativas para resolver los dos problemas mencionados.

Externamente, un gravastar parece similar a un agujero negro: es visible sólo por las emisiones de alta energía que crea al consumir materia. Los astrónomos observan el cielo buscando rayos X emitidos por la materia que absorben para detectar los agujeros negros, y un gravastar produciría una señal idéntica.

Dentro de un gravastar, el espacio-tiempo estaría totalmente detenido por las condiciones extremas existentes allí, produciendo una fuerza hacia el exterior. Alrededor de este vacío habría una "burbuja" en la cual el espacio en sí se comportaría como un bloque de materia. La idea de un comportamiento tal del espacio puede compararse con una forma extrema del condensado de Bose-Einstein en el cual toda la materia (protones, neutrones, electrones, etc.) se convierte en lo que se llama un estado cuántico creando un "súper-átomo".

Púlsar


Un púlsar (del acrónimo en inglés de pulsating star, que significa «estrella que emite radiación muy intensa a intervalos cortos y regulares») es una estrella de neutrones que emite radiación periódica. Los púlsares poseen un intenso campo magnético que induce la emisión de estos pulsos de radiación electromagnética a intervalos regulares relacionados con el periodo de rotación del objeto.

Las estrellas de neutrones pueden girar sobre sí mismas hasta varios cientos de veces por segundo; un punto de su superficie puede estar moviéndose a velocidades de hasta 70 000 km/s. De hecho, las estrellas de neutrones que giran tan rápidamente se expanden en su ecuador debido a esta velocidad vertiginosa. Esto también implica que estas estrellas tengan un tamaño de unos pocos miles de metros, entre 10 y 20 kilómetros, ya que la fuerza centrífuga generada a esta velocidad es enorme y sólo el potente campo gravitatorio de una de estas estrellas (dada su enorme densidad) es capaz de evitar que se despedace.

El efecto combinado de la enorme densidad de estas estrellas con su intensísimo campo magnético (generado por los protones y electrones de la superficie girando alrededor del centro a semejantes velocidades) causa que las partículas que se acercan a la estrella desde el exterior (como, por ejemplo, moléculas de gas o polvo interestelar), se aceleren a velocidades extremas y realicen espirales cerradísimas hacia los polos magnéticos de la estrella. Por ello, los polos magnéticos de una estrella de neutrones son lugares de actividad muy intensa. Emiten chorros de radiación en el rango del radio, rayos X o rayos gamma, como si fueran cañones de radiación electromagnética muy intensa y muy colimada.

Por razones aún no muy bien entendidas, los polos magnéticos de muchas estrellas de neutrones no están sobre el eje de rotación. El resultado es que los «cañones de radiación» de los polos magnéticos no apuntan siempre en la misma dirección, sino que rotan con la estrella.

Es posible entonces que, mirando hacia un punto determinado del firmamento, recibamos un «chorro» de rayos X durante un instante. El chorro aparece cuando el polo magnético de la estrella mira hacia la Tierra, deja de apuntarnos una milésima de segundo después debido a la rotación, y aparece de nuevo cuando el mismo polo vuelve a apuntar hacia la Tierra. Lo que percibimos entonces desde ese punto del cielo son pulsos de radiación con un periodo muy exacto, que se repiten una y otra vez (lo que se conoce como «efecto faro») cuando el chorro se orienta hacia nuestro planeta. Por eso, este tipo de estrellas de neutrones «pulsantes» se denominan púlsares (del inglés pulsating star, «estrella pulsante», aunque esta denominación se aplica con más propiedad a otro grupo de estrellas variables). Si la estrella está orientada de manera adecuada, podemos detectarla y analizar su velocidad de rotación. El periodo de la pulsación de estos objetos lógicamente aumenta cuando disminuye su velocidad de rotación. A pesar de ello, algunos púlsares con periodos extremadamente constantes han sido utilizados para calibrar relojes de precisión.

Descubrimiento del primer púlsar

La señal del primer púlsar detectado, PSR B1919+21, tenía un periodo de 1,33730113 s. Este tipo de señales únicamente se puede detectar con un radiotelescopio. De hecho, cuando en julio de 1967 Jocelyn Bell y Antony Hewish detectaron estas señales de radio de corta duración y extremadamente regulares, pensaron que podrían haber establecido contacto con una civilización extraterrestre, por lo que llamaron tentativamente a su fuente LGM (Little Green Men u Hombrecitos verdes). Tras una rápida búsqueda se descubrieron 3 nuevos púlsares que emitían en radio a diferentes frecuencias, por lo que pronto se concluyó que estos objetos debían ser producto de fenómenos naturales. Anthony Hewish recibió en 1974 el Premio Nobel de Física por este descubrimiento y por el desarrollo de su modelo teórico. Jocelyn Bell no recibió condecoración porque sólo era una estudiante de doctorado, aunque fuera ella quien advirtió la primera señal de radio.

Hoy en día se conocen más de 600 púlsares con periodos de rotación que van desde el milisegundo a unos pocos segundos, con un promedio de 0,65 s. La precisión con que se ha medido el periodo de estos objetos es de una parte en 100 millones. El más famoso de todos los púlsares es quizás el que se encuentra en el centro de la Nebulosa del Cangrejo, denominado PSR0531+121, con un periodo de 0,033 s. Este púlsar se encuentra en el mismo punto en el que astrónomos chinos registraron una brillante supernova en el año 1054 y permite establecer la relación entre supernova y estrella de neutrones, a saber, que ésta es remanente de la explosión de aquélla.

Planetas púlsar

En el primer grupo de planetas extrasolares descubiertos que orbitan un púlsar, el PSR B1257+12, cuyo periodo es de 6,22 ms (milisegundos). Las pequeñas variaciones de su periodo de emisión en el radio sirvieron para detectar una ligerísima oscilación periódica con una amplitud máxima en torno a 0,7 ms. Los radioastrónomos Aleksander Wolszczan y Dale A. Frail interpretaron estas observaciones como causadas por un grupo de tres planetas en órbitas casi circulares a 0,2, 0,36 y 0,47 ua del púlsar central y con masas de 0,02, 4,3 y 3,9 masas terrestres respectivamente. Este descubrimiento, muy inesperado, causó un gran impacto en la comunidad científica.

Púlsares de rayos X

Los púlsares de rayos x son sistemas de estrellas binarias que se componen de un púlsar y de una estrella normalmente joven de tipo O o B. La estrella primaria emite viento estelar de su superficie y radiación, y éstos son atrapados por la estrella compañera que produce rayos x. El primer púlsar de rayos X conocido es la estrella compacta situada en el sistema Cen X-3.

Estrella De Neutrones



Una estrella de neutrones es un tipo de remanente estelar resultante del colapso gravitacional de una estrella supergigante masiva después de agotar el combustible nuclear en su núcleo y explotar como una supernova tipo II, tipo Ib o tipo Ic. Como su nombre lo indica, estas estrellas están compuestas principalmente de neutrones, más otro tipo de partículas tanto en su corteza sólida de hierro, como en su interior, que puede contener tanto protones y electrones, como piones y kaones. Las estrellas de neutrones son muy calientes y se apoyan en contra de un mayor colapso mediante presión de degeneración cuántica, debido al fenómeno descrito por el principio de exclusión de Pauli. Este principio establece que dos neutrones (o cualquier otra partícula fermiónica) no pueden ocupar el mismo espacio y estado cuántico simultáneamente.

Una estrella de neutrones típica tiene una masa entre 1,35 y 2,1 masas solares,1 2 3 a con un radio correspondiente aproximado de 12 km.4 b En cambio, el radio del sol es de unas 60 000 veces esa cifra. Las estrellas de neutrones tienen densidades totales de 3,7×1017 a 5,9×1017 kg/m3 (de 2,6×1014 a 4,1×1014 veces la densidad del sol),c lo que se compara con la densidad aproximada de un núcleo atómico de 3×1017 kg/m3.5 La densidad de una estrella de neutrones varía desde menos de 1×109 kg/m3 en la corteza, aumentando con la profundidad a más de 6×1017 u 8×1017 kg/m3 aún más adentro (más denso que un núcleo atómico).6 Esta densidad equivale aproximadamente a la masa de un Boeing 747 comprimido en el tamaño de un pequeño grano de arena.

En general, estrellas compactas de menos de 1,44 masas solares —el límite de Chandrasekhar— son enanas blancas, y por encima de 2 a 3 masas solares —el límite de Tolman-Oppenheimer-Volkoff— puede crearse una estrella de quarks; no obstante, esto es incierto. El colapso gravitatorio generalmente ocurre en cualquier estrella compacta de entre 10 a 25 masas solares, y producirá un agujero negro.Algunas estrellas de neutrones giran rápidamente y emiten rayos de radiación electromagnética como púlsares.

Formación

Cualquier estrella de la secuencia principal con una masa inicial de más de 8 masas solares puede convertirse en una estrella de Neutrones. Así, este tipo de estrellas, al finalizar la fase primaria de fusión de hidrógeno con su consecuente separación de la secuencia principal, se produce un calentamiento del núcleo, lo que posibilita otros tipos de fusiones, debido a las cuales se produce un núcleo rico en hierro. Cuando todo el combustible nuclear ha sido utilizado, el núcleo se vuelve inestable, al tener que soportar la presión de degeneración en solitario. A la vez, se siguen depositando materiales pesados en núcleo, haciendo que se exceda el límite de Chandrasekhar. La presión degenerada de los electrones aumenta y el núcleo se colapsa más rápidamente, aumentando la temperatura hasta 3 x 109 K. A estas temperaturas, se produce la fotodesintegración(ruptura del núcleo de hierro en partículas alfa debido a rayos gamma de alta energía). De esta forma, las partículas alfa, al tener menos carga, absorben con mayor facilidad los electrones que se meten en el interior de los núcleos, combinándose con los protones. También el helio resultante es susceptible de ser fotodesintegrado, por lo que se generarán ingentes cantidades de protones libres.

Esto produce un aumento aún mayor de la temperatura, ocasionando la formación de neutrones de la unión de protones y electrones, mediante un proceso conocido como captura electrónica, emitiendo neutrinos. En principio, la densidad necesaria para que se dé la neutronización (recombinación de electrones con protones para dar neutrones) es de 2,4 × 107 g/cm³. Como en las estrellas degeneradas no hay protones libres, la densidad necesaria es, en realidad, más elevada, dado que los electrones han de superar una barrera coulombiana bastante mayor, necesitándose aproximadamente unos 109 g/cm³.8 .

Fotodesintegración del hierro: 


Fotodesintegración del helio: 


Este ciclo sigue su efecto hasta llegar a densidades nucleares de 4 x 1017 kg/m3;K, cuando la presión degenerada nuclear detiene la contracción. La atmósfera exterior de la estrella se expulsa creando una Supernova de tipo II o Ib, mientras que el resto se convierte en una estrella de neutrones, cuya masa será mayor de 5 Masas solares (si su masa fuera mayor se acabaría convirtiendo en un agujero negro al ser la presión de degeneración de los neutrones insuficiente para estabilizar el proceso). También pueden producirse estrellas de neutrones a partir de sistemas binarios. Su núcleo quedará formado por hierro hiperdenso, junto con otros metales pesados, y seguirá compactándose, al ser su masa demasiado grande y los electrones degenerados no son capaces de detener el colapso.

La fotodesintegración enfría la estrella compacta, ya que es una reacción endotérmica que absorbe parte del calor interno de la misma. Por otra parte, la concentración de electrones disminuye al ser absorbidos por los núcleos, provocando una caída en picado de la presión de degeneración, acelerando aún más el colapso. Los núcleos sobrecargados de neutrones los pierden, dejándolos libres, donde pasan a formar parte de una masa compacta de neutrones llamada neutronio.

El proceso continúa hasta alcanzar la densidad de degeneración de los neutrones, aproximadamente en torno a 1014 g/cm³, momento en el que casi toda la masa de la estrella se habrá transformado en neutrones. El núcleo de neutrones degenerados deberá tener una masa inferior a unas tres masas solares, denominado límite de Tolman-Oppenheimer-Volkoff. En caso de que tenga una masa superior, el colapso de la estrella de neutrones no puede detenerse sino que, se cree, llega a formar un agujero negro. Algunos científicos especulan sobre la posible existencia de un estado intermedio entre estrella de neutrones y agujero negro; se trataría de la estrella de quarks, pero tal objeto no ha sido observado aún. Sin embargo, existen varios candidatos a estrella de quarks, como RJX J185635-375.

Características

La principal característica de las estrellas de neutrones es que resisten el colapso gravitatorio mediante la presión de degeneración de los neutrones, sumado a la presión generada por la parte repulsiva de la interacción nuclear fuerte entre bariones. Esto contrasta con las estrellas de secuencia principal, que equilibran la fuerza de gravedad con la presión térmica originada en las reacciones termonucleares en su interior.

Actualmente no se sabe si el núcleo de una estrella de neutrones tiene la misma estructura que sus capas externas o si, por el contrario, está formado por plasma de quarks-gluones. Lo cierto es que las altísimas densidades que se dan en la zona central de estos objetos son tan elevadas que no permiten hacer predicciones válidas con modelos informáticos ni con observaciones experimentales.

Historia del descubrimiento

Propuestas originalmente por los astrónomos Walter Baade y Fritz Zwicky en 1934 (un año después del descubrimiento del neutrón) como posibles subproductos de una supernova, no recibieron mucha atención por parte de los astrofísicos teóricos, ya que no existían entonces objetos conocidos a los cuales se pudiera asociar una estrella de neutrones.

Sin embargo, en 1967 el equipo de radioastrónomos liderados por Antony Hewish descubrió los púlsares, trabajo que le valió el Premio Nobel en 1974, los que fueron asociados rápidamente a estrellas de neutrones por T. Gold en 1968. La explicación se basó en que los intensos campos magnéticos estimados para las estrellas de neutrones (del orden de 1012 G) podían dar cuenta de la estabilidad de los pulsos recibidos, y predijo que la frecuencia de los pulsos emitidos debía decaer lentamente en el tiempo, debido a la pérdida de energía rotacional: esto fue luego comprobado al descubrirse la disminución de la frecuencia de los pulsos del púlsar de la Nebulosa del Cangrejo. Este argumento fue puesto sobre firmes bases teóricas por J. Ostrikcers y J. Gunns en 1971 con el modelo de frenado por dipolo magnético.

Magnetar


Un magnetar o magnetoestrella es una estrella de neutrones alimentada con un campo magnético extremadamente fuerte. Se trata de una variedad de púlsar cuya característica principal es la expulsión, en un breve período (equivalente a la duración de un relámpago), de enormes cantidades de alta energía en forma de rayos X y rayos gamma.

Los rayos Gamma están formados por fotones pertenecientes al extremo más energético del espectro electromagnético, seguidos de los rayos X y, a continuación, de los rayos ultravioleta. Si los rayos X expulsados por el magnetar son de alta intensidad recibe entonces el nombre de púlsar anómalo de rayos X, (en inglés anomalous X-ray pulsars, o su acrónimo AXPs). Si los rayos expulsados pertenecen al espectro Gamma de más alta intensidad, reciben el nombre de repetidores de gamma suave, SGRs del inglés soft gamma repeater.

Los rayos Gamma ordinarios conocidos como GRBs brotes de rayos gamma, del inglés gamma-ray bursts, ya eran conocidos en las postrimerías de los años 1960. El descubrimiento de estos rayos tremendamente energéticos provenientes del espacio, se efectuó en plena guerra fría, cuando las dos superpotencias, EE. UU. y la URSS, se espiaban mutuamente tratando de controlar su arsenal nuclear. Con el fin de verificar el tratado de no proliferación de armas nucleares, EEUU lanzó una flota de satélites conocidos como Proyecto Vela. Con estos satélites, dotados especialmente para la captación de rayos X y rayos gamma, se descubrieron en 1967 aleatorias explosiones de estos últimos que, a modo de flashes, parecían venir desde distintas direcciones del Universo. El hallazgo se mantuvo en secreto hasta que, en 1973, fue dado a conocer a la opinión pública por Ray Klebesabel y su equipo del Laboratorio Nacional de Los Álamos.

Descripción

Poco se conoce acerca de la estructura física de los magnetares, ya que ninguno de ellos se halla lo suficientemente próximo a la Tierra para ser estudiado correctamente. Al igual que otras de estrellas de neutrones, los magnetares poseen un diámetro aproximado de 20 kilómetros. Concretamente el SGR 1806-20, del diámetro mencionado tiene una masa de casi 4x1025 kg, lo cual le da una densidad media que se acerca a 10 billones de kg/m3, lo que quiere decir que es casi 10 billones de veces más denso que el agua. (Aun así, la masa del Sol es unas 50.000 veces mayor que la del magnetar mencionado). La sustancia que forma el magnetar, en ocasiones es referida como neutronio (teóricamente formada sólo por neutrones). Los magnetares son diferenciados del resto de estrellas de neutrones por tener campos magnéticos más fuertes, y por rotar comparativamente más despacio, con la mayoría de los magnetares tardando entre uno y diez segundos para realizar una rotación completa, mientras a una estrella de neutrones promedio le toma menos de un segundo. La vida activa de un magnetar es corta, sus potentes campos magnéticos se desmoronan pasados los 10.000 años, perdiendo consecuentemente su vigorosa emisión de rayos X. Dado el número de magnetares observables hoy en día, un cálculo eleva el número de magnetares inactivos en la Vía Láctea a unos treinta millones.

Los sismos producidos en la superficie de un magnetar causan gran volatilidad en la estrella y en el campo magnético que le rodea, lo que generalmente acarrea emisiones extremadamente poderosas de rayos gamma, las cuales han sido registradas en la Tierra en los años 1979, 1998 y 2004.

Formación y evolución

La teoría acerca de estos objetos fue formulada en 1992 por Robert C. Duncan de la Universidad de Texas en Austin y Christopher Thompson del Instituto Canadiense de Física Teórica. Posteriormente, esta teoría ha sido ampliamente aceptada por el resto de la comunidad científica como una explicación física que satisface hasta el momento las observaciones realizadas sobre estos objetos.

Actualmente, se considera que de cada diez explosiones de supernovas, solamente una da origen al nacimiento de un magnetar. Si la supernova posee entre 6 y 12 masas solares, se convierte en una estrella de neutrones de no más de 10 a 20 km de diámetro. Según la hipótesis de los científicos mencionados anteriormente, los requisitos previos para convertirse en magnetar son una rotación rápida y un campo magnético intenso antes de la explosión. Este campo magnético sería creado por un generador eléctrico (efecto dinamo) que utiliza la convección de materia nuclear que dura los diez primeros segundos alrededor de la vida de una estrella de neutrones. Si esta última gira lo suficientemente rápido, las corrientes de convección se vuelven globales y transfieren su energía al campo magnético. Cuando la rotación es demasiado lenta, las corrientes de convección sólo se forman en regiones locales. Un púlsar sería, pues, una estrella de neutrones que, en su nacimiento, no habría girado lo suficientemente deprisa durante un corto lapso de tiempo para generar este efecto dinamo. El magnetar posee un campo lo suficientemente poderoso como para aspirar la materia de los alrededores de la estrella hacia su interior y comprimirla; esto conlleva que se disipe una cantidad significativa de energía magnética durante un periodo aproximado de unos 10.000 años.

Con el tiempo, el poder magnético decae tras expulsar ingentes cantidades de energía en forma de rayos X y gamma. Las tensiones que causan el colapso se producen a veces en las capas externas de los magnetares, constituidos por plasma de elementos pesados (principalmente de hierro). Estas vibraciones intermitentes muy energéticas producen vientos de rayos X y gamma, de ahí el nombre de repetidoras de rayos gamma suaves.

El 27 de diciembre de 2004, se registró un estallido de rayos gamma proveniente del magnetar denominado SGR 1806-20 situado en la Vía Láctea. El origen estaba situado a unos 50.000 años luz. En la opinión de eminentes astrónomos, si se hubiera producido a tan solo 10 años luz de la Tierra, —distancia que nos separa de alguna de las estrellas más cercanas—, hubiera peligrado seriamente la vida en nuestro planeta al destruir la capa de ozono, alterando el clima global y destruyendo la atmósfera. Esta explosión resultó ser unas cien veces más potente que cualquier otro estallido registrado hasta ahora. La energía liberada en dos centésimas de segundo fue superior a la producida por el Sol en 250.000 años.

A continuación se puede ver una pequeña comparación entre distintas intensidades de campos magnéticos:

Brújula movida por el campo magnético de la Tierra: 0,6 Gauss;
Pequeño imán, como los sujetapapeles de los frigoríficos: 100 Gauss;
Campo generado en la Tierra por los electroimanes más potentes: 4,5×105 Gauss (450.000 Gauss);
Campo máximo atribuido a una de las denominadas estrellas blancas: 1×108 Gauss (100 millones de Gauss);
Magnetares (SGRs y AXPs): 1014 ~ 1015 Gauss.

Agujero Blanco

Agujero blanco es el término propuesto para definir una solución de las ecuaciones del campo gravitatorio de Einstein, cuya existencia se cree imposible, debido a las condiciones tan especiales que requiere.

Se trata de una región finita del espacio-tiempo, visible como objeto celeste con una densidad tal que deforma el espacio pero que, a diferencia del agujero negro, deja escapar materia y energía en lugar de absorberla. De hecho ningún objeto puede permanecer en el interior de dicha región durante un tiempo infinito. Por ello se define un agujero blanco como el reverso temporal de un agujero negro: el agujero negro absorbe a su interior a la materia en cambio el agujero blanco la expulsa.

Los más importantes avances en esta teoría son debidos a los trabajos independientes de los matemáticos Ígor Nóvikov y Yuval Ne'eman en la década de 1960, basados en la solución de Kruskal-Schwarzschild de las ecuaciones de la relatividad general.

El agujero negro de Schwarzschild es descrito como una singularidad en la cual una geodésica puede sólo ingresar, tal tipo de agujero negro incluye dos tipos de horizonte: un horizonte "futuro" (es decir, una región de la cual no se puede salir una vez que se ha ingresado en ella, y en la cual el tiempo -con el espacio- son curvados hacia el futuro), y un horizonte "pasado", el horizonte pasado tiene por definición la de una región donde es imposible la estancia y de la cual sólo se puede salir; el horizonte futuro entonces ya correspondería a un agujero blanco

En el caso de un agujero negro de Reißner-Nordstrøm el agujero blanco pasa a ser -por ahora siempre hipotéticamente- la "salida" de un agujero negro en otro "universo", es decir, otra región asintóticamente plana similar a la región de la que procede un objeto emergente por ese otro tipo de agujero. La carga eléctrica del agujero del Reissner-Nordstrøm proporciona un mecanismo físico más razonable para construir posibles agujeros blancos.

Hipótesis varias

A diferencia de los agujeros negros para los cuales existe un proceso físico bien estudiado, el colapso gravitatorio (que da lugar a agujeros negros cuando una estrella algo más masiva que el sol agota su "combustible" nuclear), no hay un proceso análogo claro que lleve con seguridad a producir agujeros blancos. Aunque se han apuntado algunas hipótesis:

En principio se ha supuesto a los agujeros blancos como una especie de "salida" de los agujeros negros, ambos tipos de singularidades probablemente estarían conectadas por un agujero de gusano (notar que, como los agujeros blancos, los agujeros de gusano aún no han sido encontrados hasta ahora); cuando se descubrieron los cuásares se supuso que estos eran los buscados agujeros blancos pero en la actualidad tal supuesto ha sido descartado.
Otra idea generalizada en la actualidad es que los agujeros blancos serían muy inestables, durarían muy poco tiempo e incluso tras formarse podrían colapsar y transformarse en agujeros negros.
También se ha llegado a conjeturar que la singularidad inicial del big bang pudo haber sido una especie de agujero blanco en sus momentos iniciales.

Agujero Negro


Un agujero negro u hoyo negro  es una región finita del espacio en cuyo interior existe una concentración de masa lo suficientemente elevada como para generar un campo gravitatorio tal que ninguna partícula material, ni siquiera la luz, puede escapar de ella. Sin embargo, los agujeros negros pueden ser capaces de emitir radiación, lo cual fue conjeturado por Stephen Hawking en los años 70. La radiación emitida por agujeros negros como Cygnus X-1 no procede del propio agujero negro sino de su disco de acreción.

La gravedad de un agujero negro, o «curvatura del espacio-tiempo», provoca una singularidad envuelta por una superficie cerrada, llamada horizonte de sucesos. Esto es previsto por las ecuaciones del campo de Einstein. El horizonte de sucesos separa la región del agujero negro del resto del universo y es la superficie límite del espacio a partir de la cual ninguna partícula puede salir, incluyendo los fotones. Dicha curvatura es estudiada por la relatividad general, la que predijo la existencia de los agujeros negros y fue su primer indicio. En los años 70, Hawking, Ellis y Penrose demostraron varios teoremas importantes sobre la ocurrencia y geometría de los agujeros negros.Previamente, en 1963, Roy Kerr había demostrado que en un espacio-tiempo de cuatro dimensiones todos los agujeros negros debían tener una geometría cuasi-esférica determinada por tres parámetros: su masa M, su carga eléctrica total e y su momento angular L.

Se conjetura que en el centro de la mayoría de las galaxias, entre ellas la Vía Láctea, hay agujeros negros supermasivos.

El 11 de febrero de 2016, las colaboraciones LIGO, Virgo y GEO600 anunciaron la primera detección de ondas gravitacionales, producidas por la fusión de dos agujeros negros a unos 410 millones de pársecs, megapársecs o Mpc, es decir, a unos 1337 millones de años luz, mega-años luz o Mal de la Tierra.Las observaciones demostraron la existencia de un sistema binario de agujeros negros de masa estelar y la primera observación de una fusión de un agujero negro binario. Anteriormente, la existencia de agujeros negros estaba apoyada en observaciones astronómicas de forma indirecta, a través de la emisión de rayos X por estrellas binarias y galaxias activas.

La gravedad de un agujero negro puede atraer al gas que se encuentra a su alrededor, que se arremolina y calienta a temperaturas de hasta 12 millones de grados Celsius, esto es, 2000 veces mayor temperatura que la superficie del Sol.

Proceso de formación

Los agujeros negros proceden de un proceso de colapso gravitatorio que fue ampliamente estudiado a mediados de siglo XX por diversos científicos, particularmente Robert Oppenheimer, Roger Penrose y Stephen Hawking entre otros. Hawking, en su libro divulgativo Historia del tiempo: del Big Bang a los agujeros negros (1988), repasa algunos de los hechos bien establecidos sobre la formación de agujeros negros.

Este proceso comienza después de la muerte de una gigante roja (estrella de 30 o más veces la masa del Sol), entendiéndose por muerte la extinción total de su energía. Tras varios miles de millones de años de vida, la fuerza gravitatoria de dicha estrella comienza a ejercer fuerza sobre sí misma originando una masa concentrada en un pequeño volumen, convirtiéndose en una enana blanca. En este punto, dicho proceso puede proseguir hasta el colapso de dicho astro por la auto atracción gravitatoria que termina por convertir a esta enana blanca en un agujero negro. Este proceso acaba por reunir una fuerza de atracción tan fuerte que atrapa hasta la luz en éste.

En palabras más simples, un agujero negro es el resultado final de la acción de la gravedad extrema llevada hasta el límite posible. La misma gravedad que mantiene a la estrella estable, la empieza a comprimir hasta el punto que los átomos comienzan a aplastarse. Los electrones en órbita se acercan cada vez más al núcleo atómico y acaban fusionándose con los protones, formando más neutrones mediante el proceso:

Por lo que este proceso comportaría la emisión de un número elevado de neutrinos. El resultado final, una estrella de neutrones. En este punto, dependiendo de la masa de la estrella, el plasma de neutrones dispara una reacción en cadena irreversible, la gravedad aumenta enormemente al disminuirse la distancia que había originalmente entre los átomos. Las partículas de neutrones implosionan, aplastándose más, logrando como resultado un agujero negro, que es una región del espacio-tiempo limitada por el llamado horizonte de sucesos. Los detalles de qué sucede con la materia que cae más allá de este horizonte dentro de un agujero negro no se conocen porque para escalas pequeñas sólo una teoría cuántica de la gravedad podría explicarlos adecuadamente, pero no existe una formulación completamente consistente con dicha teoría.

Historia

El concepto de un cuerpo tan denso que ni siquiera la luz puede escapar de él, fue descrito en un artículo enviado en 1783 a la Royal Society por un geólogo inglés llamado John Michell. Por aquel entonces la teoría de Newton de gravitación y el concepto de velocidad de escape eran muy conocidas. Michell calculó que un cuerpo con un radio 500 veces el del Sol y la misma densidad, tendría, en su superficie, una velocidad de escape igual a la de la luz y sería invisible. En 1796, el matemático francés Pierre-Simon Laplace explicó en las dos primeras ediciones de su libro Exposition du Systeme du Monde la misma idea aunque, al ganar terreno la idea de que la luz era una onda sin masa, en el siglo XIX fue descartada en ediciones posteriores.

En 1915, Einstein desarrolló la relatividad general y demostró que la luz era influida por la interacción gravitatoria. Unos meses después, Karl Schwarzschild encontró una solución a las ecuaciones de Einstein, donde un cuerpo pesado absorbería la luz. Se sabe ahora que el radio de Schwarzschild es el radio del horizonte de sucesos de un agujero negro que no gira, pero esto no era bien entendido en aquel entonces. El propio Schwarzschild pensó que no era más que una solución matemática, no física. En 1930, Subrahmanyan Chandrasekhar demostró que un cuerpo con una masa crítica, (ahora conocida como límite de Chandrasekhar) y que no emitiese radiación, colapsaría por su propia gravedad porque no había nada que se conociera que pudiera frenarla (para dicha masa la fuerza de atracción gravitatoria sería mayor que la proporcionada por el principio de exclusión de Pauli). Sin embargo, Eddington se opuso a la idea de que la estrella alcanzaría un tamaño nulo, lo que implicaría una singularidad desnuda de materia, y que debería haber algo que inevitablemente pusiera freno al colapso, línea adoptada por la mayoría de los científicos.

En 1939, Robert Oppenheimer predijo que una estrella masiva podría sufrir un colapso gravitatorio y, por tanto, los agujeros negros podrían ser formados en la naturaleza. Esta teoría no fue objeto de mucha atención hasta los años 60 porque, después de la Segunda Guerra Mundial, se tenía más interés en lo que sucedía a escala atómica.

En 1967, Stephen Hawking y Roger Penrose probaron que los agujeros negros son soluciones a las ecuaciones de Einstein y que en determinados casos no se podía impedir que se crease un agujero negro a partir de un colapso. La idea de agujero negro tomó fuerza con los avances científicos y experimentales que llevaron al descubrimiento de los púlsares. Poco después, en 1969, John Wheeler8 acuñó el término "agujero negro" durante una reunión de cosmólogos en Nueva York, para designar lo que anteriormente se llamó "estrella en colapso gravitatorio completo".

Los agujeros negros en la física actual

Se explican los fenómenos físicos mediante dos teorías en cierto modo contrapuestas y basadas en principios incompatibles: la mecánica cuántica, que explica la naturaleza de «lo muy pequeño», donde predomina el caos y la estadística y admite casos de evolución temporal no determinista, y la relatividad general, que explica la naturaleza de «lo muy pesado» y que afirma que en todo momento se puede saber con exactitud dónde está un cuerpo, siendo esta teoría totalmente determinista. Ambas teorías están experimentalmente confirmadas pero, al intentar explicar la naturaleza de un agujero negro, es necesario discernir si se aplica la cuántica por ser algo muy pequeño o la relatividad por ser algo tan pesado. Está claro que hasta que no se disponga de una física más avanzada no se conseguirá explicar realmente la naturaleza de este fenómeno.

Descubrimientos recientes

En 1995 un equipo de investigadores de la UCLA dirigido por Andrea Ghez demostró mediante simulación por ordenadores la posibilidad de la existencia de agujeros negros supermasivos en el núcleo de las galaxias. Tras estos cálculos mediante el sistema de óptica adaptativa se verificó que algo deformaba los rayos de luz emitidos desde el centro de nuestra galaxia (la Vía Láctea). Tal deformación se debe a un invisible agujero negro supermasivo que ha sido denominado Sgr.A (o Sagittarius A). En 2007-2008 se iniciaron una serie de experimentos de interferometría a partir de medidas de radiotelescopios para medir el tamaño del agujero negro supermasivo en el centro de la Vía Láctea, al que se le calcula una masa 4.5 millones de veces mayor que la del Sol y una distancia de 26 000 años luz (unos 255 000 billones de km respecto de la Tierra).El agujero negro supermasivo del centro de nuestra galaxia actualmente sería poco activo ya que ha consumido gran parte de la materia bariónica, que se encuentra en la zona de su inmediato campo gravitatorio y emite grandes cantidades de radiación.

Por su parte, la astrofísica Feryal Özel ha explicado algunas características probables en torno a un agujero negro: cualquier cosa, incluido el espacio vacío, que entre en la fuerza de marea provocada por un agujero negro se aceleraría a extremada velocidad como en un vórtice y todo el tiempo dentro del área de atracción de un agujero negro se dirigiría hacia el mismo agujero negro.

En el presente se considera que, pese a la perspectiva destructiva que se tiene de los agujeros negros, éstos al condensar en torno a sí materia sirven en parte a la constitución de las galaxias y a la formación de nuevas estrellas.

En junio de 2004 astrónomos descubrieron un agujero negro súper masivo, el Q0906+6930, en el centro de una galaxia distante a unos 12 700 millones de años luz. Esta observación indicó una rápida creación de agujeros negros súper masivos en el Universo joven.

La formación de micro agujeros negros en los aceleradores de partículas ha sido informada,13 pero no confirmada. Por ahora, no hay candidatos observados para ser agujeros negros primordiales.

El 11 de febrero de 2016, la colaboración LIGO anunció la primera de observación directa de ondas gravitatorias, generadas por la fusión de dos agujeros negros de masa estelar. Lo que supuso, además, la primera observación directa de dos agujeros negros fusionándose.

El mayor

Dejando a un lado los agujeros negros supermasivos que suelen estar en el núcleo de las galaxias y cuya masa son de millones de veces nuestro Sol, el mayor agujero negro de masa estelar conocido hasta la fecha, se descubrió el año 2007 y fue denominado IC 10 X-1. Está en la galaxia enana IC 10 situada en la constelación de Casiopea, a una distancia de 1,8 millones de años luz (17 trillones de kilómetros) de la Tierra, con una masa de entre 24 y 33 veces la de nuestro Sol.

Posteriormente, en abril de 2008, la revista Nature publicó un estudio realizado en la Universidad de Turku (Finlandia). Según dicho estudio, un equipo de científicos dirigido por Mauri Valtonen descubrió un sistema binario, un blazar, llamado OJ 287, en la constelación de Cáncer. Tal sistema parece estar constituido por un agujero negro menor que orbita en torno a otro mayor, siendo la masa del mayor de 18 000 millones de veces la de nuestro Sol, lo que lo convierte en el mayor agujero negro conocido. Se supone que en cada intervalo de rotación el agujero negro menor, que tiene una masa de 100 millones de soles, golpea la ergosfera del mayor dos veces, generándose un cuásar. Situado a 3500 millones de años luz de la Tierra,está relativamente cerca de la Tierra para ser un cuásar.

El menor

Sin contar los posibles microagujeros negros que casi siempre son efímeros al producirse a escalas subatómicas; macroscópicamente en abril de 2008 el equipo coordinado por Nikolai Saposhnikov y Lev Titarchuk ha identificado el más pequeño de los agujeros negros conocidos hasta la fecha; ha sido denominado J 1650, se ubica en la constelación Ara (o Altar) de la Vía Láctea (la misma galaxia de la cual forma parte la Tierra). J 1650 tiene una masa equivalente a 3,8 soles y tan solo 24 km de diámetro se habría formado por el colapso de una estrella; tales dimensiones estaban previstas por las ecuaciones de Einstein. Se considera que son prácticamente las dimensiones mínimas que puede tener un agujero negro ya que una estrella que colapsara y produjera un fenómeno de menor masa se transformaría en una estrella de neutrones. Se considera que pueden existir muchos más agujeros negros de dimensiones semejantes.

Chorros de plasma

En abril de 2008 la revista Nature publicó un estudio realizado en la Universidad de Boston dirigido por Alan Marscher donde explica que chorros de plasma colimados parten de campos magnéticos ubicados cerca del borde de los agujeros negros. En zonas puntuales de tales campos magnéticos los chorros de plasma son orientados y acelerados a velocidades cercanas a c (velocidad de la luz), tal proceso es comparable a la aceleración de partículas para crear una corriente de chorro (jet) en un reactor. Cuando los chorros de plasma originados por un agujero negro son observables desde la Tierra tal tipo de agujero negro entra en la categoría de blazar.

Que un agujero negro "emita" radiaciones parece una contradicción, sin embargo esto se explica: todo objeto (supóngase una estrella) que es atrapado por la gravitación de un agujero negro, antes de ser completamente "engullido", antes de pasar tras el horizonte de sucesos, se encuentra tan fuertemente presionado por las fuerzas de marea del agujero negro en la zona de la ergosfera que una pequeña parte de su materia sale disparada a velocidades próximas a la de la luz (como cuando se aprieta fuertemente una naranja: parte del material de la naranja sale eyectado en forma de chorros de jugo, en el caso de los objetos atrapados por un agujero negro, parte de su masa sale disparada centrífugamente en forma de radiación fuera del campo gravitatorio de la singularidad).

Formación de estrellas por el influjo de agujeros negros

Nuevas estrellas podrían formarse a partir de los discos elípticos en torno a agujeros negros; tales discos elípticos se producen por antiguas nubes de gas desintegradas previamente por los mismos agujeros negros; las estrellas producidas por condensación o acreción de tales discos elípticos al parecer tienen órbitas muy elípticas en torno a los agujeros negros supermasivos.

Radiación de Hawking

Hasta principios de 1970 se pensaba que los agujeros negros no emitían directamente ningún tipo de materia, y su destino último era seguir creciendo por la acreción de más y más materia. Sin embargo, una consideración de los efectos cuánticos en el horizonte de sucesos de un agujero llevó a Hawking a descubrir un proceso físico por el cual el agujero podría emitir radiación. De acuerdo con el principio de incertidumbre de la mecánica cuántica existe la posibilidad de que en el horizonte se formen pares de partícula-antipartícula de corta duración, dado que la probabilidad de que uno de los elementos del par caiga dentro del agujero de manera irreversible y el otro miembro del par escape, el principio de conservación requiere que el agujero disminuya su masa para compensar la energía que se lleva el par que escapa de los aledaños del horizonte de sucesos. Nótese que en este proceso el par se forma estrictamente en el exterior del agujero negro, por lo que no contradice el hecho de que ninguna partícula material puede abandonar el interior. Sin embargo, sí existe un efecto neto de transferencia de energía del agujero negro a sus aledaños, que es la radiación Hawking, cuya producción no viola ningún principio físico.

Jacques Bergier - Melquisedeque

  Melquisedeque aparece pela primeira vez no livro Gênese, na Bíblia. Lá está escrito: “E Melquisedeque, rei de Salem, trouxe pão e vinho. E...