Nadie
sabe cómo comenzó el universo y, probablemente, tampoco la forma en que
terminará, si es que tal suceso llega a suceder alguna vez. A pesar de todo el
avance que han experimentado la ciencia y el saber que actualmente poseemos, lo
cierto es que ninguna de las dos grandes teorías científicas más completas de
las que disponemos en la actualidad, la relatividad general y la mecánica
cuántica, tiene la respuesta. ¿De qué manera surgió todo lo que conocemos?
¿Realmente el principio de todo fue el evento que conocemos como Big Bang? ¿O
es que hubo algo, fuese lo que fuese, antes de él? ¿Y si, ciertamente, existió
ese algo, qué fue?
En la actualidad, los científicos están bastante de acuerdo en que la física actual adolece de la falta de una gran teoría unificada capaz de explicar de forma completamente satisfactoria los fenómenos que tuvieron lugar durante el nacimiento del universo, tal y como lo concebimos. La mecánica cuántica y la relatividad general antes aludidas no se muestran conciliadoras a la escala de los instantes primordiales. Es cierto que los teóricos llevan décadas desarrollando formulaciones alternativas a estos dos grandes modelos, como pueden ser la teoría de cuerdas o la gravedad cuántica de bucles, pero hasta ahora el nivel alcanzado resulta claramente insuficiente.
Sin el conocimiento teórico ni experimental de muchos fenómenos gobernados por las fuerzas de la naturaleza -léase interacción gravitatoria, nuclear (fuerte y débil) o electromagnética- se hace prácticamente imposible predecir con un cierto nivel de seguridad o fiabilidad qué pudo deparar el pasado o qué podría esperar en el futuro a nuestro planeta, nuestro sistema solar, galaxia e, incluso, a todo el universo en conjunto. Este artículo está dedicado a la descripción de un puñado de escenarios apocalípticos que, potencialmente, tendrían como consecuencia la aniquilación, total o parcial, de todo o parte de cuanto conocemos desde que surgimos como especie pensante.
Dejando deliberadamente a un lado la serie de acontecimientos que pueda haber tenido lugar o no antes del Big Bang (el modelo que cuenta con un consenso más amplio entre la comunidad científica en la actualidad), podríamos plantearnos la cuestión de si éste surgió a partir de lo que los cosmólogos denominan “decaimiento del vacío”.
Antes de nada quizá sea conveniente introducir una breve definición de vacío. En física cuántica el vacío es aquel estado en el que un sistema posee una energía mínima. A nivel de experiencias cotidianas esto se puede entender bastante fácilmente (siempre que estemos dispuestos a asumir, sin demasiadas pejiguerías, un nivel de rigor no excesivamente exigente). Imaginemos estar sentados en el carrito de una montaña rusa típica. Todos sabemos que el viaje comienza desde el punto más bajo de la sinuosa trayectoria, a nivel del suelo. Comenzamos a subir, poco a poco, hasta el punto más alto y, una vez allí, comienza el desenfreno y la diversión. Si imaginamos que la forma geométrica del camino que sigue el cochecito representa la energía de éste, el punto más alto del mismo posee la máxima energía y el punto de llegada (equivalentemente, el de partida) la mínima. Pero lo interesante está en el viaje. A medida que nos deslizamos frenéticamente por rizos, tramos rectos y curvas más o menos cerradas, vamos también pasando por otros puntos que no son totalmente estables, a diferencia del de llegada. Es precisamente este punto el que conocemos como mínimo absoluto y a los otros como mínimos relativos. Pues bien, cuando un físico habla de vacío se refiere al mínimo absoluto de la energía de un sistema; los otros mínimos se conocen con la denominación de “falsos vacíos”. ¿Y por qué? Pues porque, al igual que al cochecito le basta con un pequeño empujón o impulso para seguir avanzando desde uno de esos mínimos relativos hasta la meta final, lo mismo le puede llegar a suceder a un sistema físico que se encuentre previamente en un estado de falso vacío y que “algo” provoque que se precipite cuesta abajo hasta el vacío verdadero.
Lo anterior es lo que algunos cosmólogos piensan que pudo suceder en el origen de nuestro universo, como Alan Guth (la primera persona en proponer el modelo inflacionario del universo). Guth piensa que la inflación, un proceso de expansión hiperacelerada que tuvo lugar justo tras el Big Bang, no fue más que el decaimiento o el paso de un estado de falso vacío a otro con una energía más baja, lo que generó una especie de burbuja que se expandió exponencialmente a la velocidad de la luz y que se convirtió en el universo en el que vivimos actualmente.
Ahora bien, la pregunta que uno se puede hacer es si, tras el Big Bang, el decaimiento del que habla Guth terminó en el vacío verdadero o si, por el contrario, nos hallamos en uno de esos mínimos relativos aludidos más arriba, es decir, nos encontramos en otro falso vacío y una perturbación suficientemente intensa, sea de la naturaleza que sea, podría provocar un nuevo decaimiento. Si esto llegara a suceder, dentro de nuestro universo “nacería” otro que, al expandirse a una velocidad superior a la de la luz terminaría con “todo” lo que encontrase a su paso (y aquí la palabra “todo” adquiere su significado más completo). Nuestro universo desaparecería y sería reemplazado por uno nuevo, incluso con leyes físicas completamente distintas.
En años recientes, sobre todo a raíz de la construcción de los grandes aceleradores de partículas, como el RHIC en Estados Unidos o el LHC en Suiza, se han difundido rumores consistentes en afirmar que los experimentos llevados a cabo en estos centros, donde se hacen colisionar partículas elementales o núcleos pesados a velocidades muy próximas a la de la luz, traerían como resultado, de formas más o menos exóticas, el fin del mundo. La paranoia llegó a alcanzar niveles tan preocupantes que científicos de enorme prestigio (incluso laureados con el premio Nobel de física) se vieron obligados a elaborar informes en los que se daba a conocer al público, tanto al iniciado como al lego en la materia, que el hecho de acumular una enorme cantidad de energía (procedente de las partículas que colisionan) en una región muy pequeña del espacio no tendría como consecuencia jamás un evento del tipo “decaimiento del vacío”.
Un segundo escenario hipotético que se contempló tenía que ver con la denominada materia extraña o, más concretamente, los strangelets. En física, un strangelet es una partícula que contiene, en igual número, quarks de tipo up, down y strange (tres de las seis clases que existen; las otras tres son top, bottom y charm). La materia “ordinaria” o bariónica que conocemos está compuesta por protones y neutrones, que constituyen los núcleos atómicos. Un protón contiene dos quarks de tipo up y uno de tipo down, mientras que un neutrón contiene dos quarks de tipo down y uno solo de tipo up. Es decir, en la materia que conocemos no suelen estar presentes, en condiciones normales, las otras cuatro clases de quarks. Sin embargo, cuando se utiliza un gran acelerador de partículas, la cosa puede ser muy diferente. A medida que se incrementa la energía de las colisiones entre partículas, como protones o núcleos enormemente pesados tales como el plomo o el oro, el resto de quarks comienza a hacer acto de presencia, entre ellos el quark strange (extraño, en español).
Si resultase ser correcta la hipótesis de la materia extraña formulada por Ed Witten en 1984, es decir, si se diese el caso de que la materia nuclear ordinaria (formada por quarks up y down) que conocemos fuese menos estable que la constituida por quarks de tipo strange, entonces no sería descartable que en algunas colisiones se formasen estados ligados de partículas con igual número de quarks up, down y strange, es decir, strangelets. Hay que decir que todas las partículas extrañas que se han creado hasta hoy en nuestros aceleradores solamente poseen un quark de tipo strange y, con todo, han decaído en cuestión de nanosegundos en materia ordinaria, nuevamente. Pero ¿qué sucedería si uno de estos strangelets colisionara con otro núcleo ordinario? ¿No podría darse el caso de que el primero indujese una conversión del segundo, transformándolo, a su vez, en otro strangelet? ¿Y por qué no iba a seguir perpetuándose el mismo proceso hasta que todos los núcleos ordinarios se tornasen en strangelets? Al final del proceso y, dado que éste conlleva una liberación de energía, todo el planeta acabaría sus días en forma de una masa informe y caliente de materia extraña.
El fatídico acontecimiento sería, más o menos, como sigue: imaginemos, por improbable que pudiera parecer, que en uno de nuestros aceleradores de partículas se ha formado un strangelet con una carga eléctrica negativa y que ha sobrevivido el tiempo suficiente como para ser capturado por un núcleo atómico ordinario. Lo que sucedería a continuación sería que el strangelet absorbería los nucleones (protones y neutrones) de aquél, haciéndose cada vez mayor y adquiriendo una carga eléctrica positiva. Acto seguido, el strangelet, si es que aún sobreviviese, podría capturar electrones, volviendo a cargarse negativamente y repitiendo el proceso de nuevo.
La respuesta a las cuestiones anteriores, aunque no absolutamente definitiva, la proporcionó Jes Madsen en un artículo publicado el año 2000 por la prestigiosa revista Physical Review Letters. Como ya podíamos intuir a partir de los párrafos previos, Madsen demostró que para que un strangelet capturase un núcleo de materia ordinaria, debería darse una atracción eléctrica entre ambos que incrementase las posibilidades de la unión antes de que el strangelet tuviese tiempo de desintegrarse. Sin embargo, lo que encontró fue todo lo contrario, es decir, la carga eléctrica de un strangelet era siempre de signo positivo y, por tanto, la interacción entre el strangelet y el núcleo resultaría repulsiva (recordemos que un núcleo atómico ordinario presenta siempre carga eléctrica positiva a causa de la presencia de protones en él; los neutrones, como su propio nombre indica, son eléctricamente neutros). Aunque el escenario apocalíptico de una Tierra convertida en materia extraña resultaba posible, no era menos cierto que las probabilidades favorables se mostraban extraordinariamente esquivas.
Hasta hoy jamás se ha encontrado materia extraña estable en lugar alguno del universo conocido. Se sabe que colisiones entre núcleos atómicos pesados, como el hierro, por ejemplo, suceden continuamente gracias a los rayos cósmicos que inciden sobre la Tierra o en la superficie de la Luna. En concreto, estimaciones razonables arrojan una cifra de diez mil cuatrillones de colisiones en toda la historia de nuestro satélite. Sin embargo, ahí permanece, a casi 400000 km de distancia, sin haberse transformado en un engendro de materia extraña. Sin embargo y, a pesar de todas las evidencias que parecen apuntar en la dirección de una altísima improbabilidad de un evento catastrófico como éste, conviene tener en cuenta que la cromodinámica cuántica, el modelo teórico más preciso que tenemos a la hora de explicar la interacción fuerte no se conoce hasta el punto de poder ser capaces de utilizarla para predecir fenómenos tan complejos como los que estamos tratando aquí, esto es, la formación y comportamiento de un strangelet.
A pesar de todo, en la actualidad, algunos astrofísicos siguen pensando que la materia extraña podría existir como tal en las regiones más internas de algunas estrellas conocidas precisamente como estrellas extrañas o estrellas de quarks, donde condiciones físicas como la presión y la temperatura favorecerían el proceso de conversión de la materia nuclear ordinaria en materia extraña estable. Dichas estrellas extrañas podrían haberse creado como resultado de la muerte de estrellas masivas, pero que no han alcanzado el umbral (alrededor de una decena de veces la masa de nuestro Sol) para acabar su vida en forma de agujero negro. Los astrofísicos sospechan, aunque nunca se han observado, que las estrellas de materia extraña podrían ser considerablemente más pequeñas que las estrellas de neutrones y han sugerido que podrían detectarse en forma de púlsares con períodos de rotación del orden de los milisegundos o inferiores.
Precisamente un agujero negro podría constituir otra de las incontables megacatástrofes susceptibles de terminar con el mundo que conocemos. Los agujeros negros estelares, que son a los que nos referiremos a continuación, constituyen el estado final en la vida de las estrellas suficientemente masivas. Cuando la fusión nuclear ya no es capaz de contrarrestar la inmensa gravedad de la estrella, tiene lugar un proceso de contracción irreversible que concluye con la formación de un agujero negro, un ente tan exótico que aún hoy, un siglo después de su predicción teórica, nadie ha logrado observar directamente. Y nadie lo ha hecho porque, entre otras cosas, un agujero negro siempre aparece rodeado de un horizonte de sucesos, una región alrededor del propio agujero de la que no puede escapar absolutamente nada, ni tan siquiera la luz, tal es la inimaginable intensidad del campo gravitatorio (o, más rigurosamente, la curvatura del espaciotiempo en sus inmediaciones).
En la actualidad, los científicos están bastante de acuerdo en que la física actual adolece de la falta de una gran teoría unificada capaz de explicar de forma completamente satisfactoria los fenómenos que tuvieron lugar durante el nacimiento del universo, tal y como lo concebimos. La mecánica cuántica y la relatividad general antes aludidas no se muestran conciliadoras a la escala de los instantes primordiales. Es cierto que los teóricos llevan décadas desarrollando formulaciones alternativas a estos dos grandes modelos, como pueden ser la teoría de cuerdas o la gravedad cuántica de bucles, pero hasta ahora el nivel alcanzado resulta claramente insuficiente.
Sin el conocimiento teórico ni experimental de muchos fenómenos gobernados por las fuerzas de la naturaleza -léase interacción gravitatoria, nuclear (fuerte y débil) o electromagnética- se hace prácticamente imposible predecir con un cierto nivel de seguridad o fiabilidad qué pudo deparar el pasado o qué podría esperar en el futuro a nuestro planeta, nuestro sistema solar, galaxia e, incluso, a todo el universo en conjunto. Este artículo está dedicado a la descripción de un puñado de escenarios apocalípticos que, potencialmente, tendrían como consecuencia la aniquilación, total o parcial, de todo o parte de cuanto conocemos desde que surgimos como especie pensante.
Dejando deliberadamente a un lado la serie de acontecimientos que pueda haber tenido lugar o no antes del Big Bang (el modelo que cuenta con un consenso más amplio entre la comunidad científica en la actualidad), podríamos plantearnos la cuestión de si éste surgió a partir de lo que los cosmólogos denominan “decaimiento del vacío”.
Antes de nada quizá sea conveniente introducir una breve definición de vacío. En física cuántica el vacío es aquel estado en el que un sistema posee una energía mínima. A nivel de experiencias cotidianas esto se puede entender bastante fácilmente (siempre que estemos dispuestos a asumir, sin demasiadas pejiguerías, un nivel de rigor no excesivamente exigente). Imaginemos estar sentados en el carrito de una montaña rusa típica. Todos sabemos que el viaje comienza desde el punto más bajo de la sinuosa trayectoria, a nivel del suelo. Comenzamos a subir, poco a poco, hasta el punto más alto y, una vez allí, comienza el desenfreno y la diversión. Si imaginamos que la forma geométrica del camino que sigue el cochecito representa la energía de éste, el punto más alto del mismo posee la máxima energía y el punto de llegada (equivalentemente, el de partida) la mínima. Pero lo interesante está en el viaje. A medida que nos deslizamos frenéticamente por rizos, tramos rectos y curvas más o menos cerradas, vamos también pasando por otros puntos que no son totalmente estables, a diferencia del de llegada. Es precisamente este punto el que conocemos como mínimo absoluto y a los otros como mínimos relativos. Pues bien, cuando un físico habla de vacío se refiere al mínimo absoluto de la energía de un sistema; los otros mínimos se conocen con la denominación de “falsos vacíos”. ¿Y por qué? Pues porque, al igual que al cochecito le basta con un pequeño empujón o impulso para seguir avanzando desde uno de esos mínimos relativos hasta la meta final, lo mismo le puede llegar a suceder a un sistema físico que se encuentre previamente en un estado de falso vacío y que “algo” provoque que se precipite cuesta abajo hasta el vacío verdadero.
Lo anterior es lo que algunos cosmólogos piensan que pudo suceder en el origen de nuestro universo, como Alan Guth (la primera persona en proponer el modelo inflacionario del universo). Guth piensa que la inflación, un proceso de expansión hiperacelerada que tuvo lugar justo tras el Big Bang, no fue más que el decaimiento o el paso de un estado de falso vacío a otro con una energía más baja, lo que generó una especie de burbuja que se expandió exponencialmente a la velocidad de la luz y que se convirtió en el universo en el que vivimos actualmente.
Ahora bien, la pregunta que uno se puede hacer es si, tras el Big Bang, el decaimiento del que habla Guth terminó en el vacío verdadero o si, por el contrario, nos hallamos en uno de esos mínimos relativos aludidos más arriba, es decir, nos encontramos en otro falso vacío y una perturbación suficientemente intensa, sea de la naturaleza que sea, podría provocar un nuevo decaimiento. Si esto llegara a suceder, dentro de nuestro universo “nacería” otro que, al expandirse a una velocidad superior a la de la luz terminaría con “todo” lo que encontrase a su paso (y aquí la palabra “todo” adquiere su significado más completo). Nuestro universo desaparecería y sería reemplazado por uno nuevo, incluso con leyes físicas completamente distintas.
En años recientes, sobre todo a raíz de la construcción de los grandes aceleradores de partículas, como el RHIC en Estados Unidos o el LHC en Suiza, se han difundido rumores consistentes en afirmar que los experimentos llevados a cabo en estos centros, donde se hacen colisionar partículas elementales o núcleos pesados a velocidades muy próximas a la de la luz, traerían como resultado, de formas más o menos exóticas, el fin del mundo. La paranoia llegó a alcanzar niveles tan preocupantes que científicos de enorme prestigio (incluso laureados con el premio Nobel de física) se vieron obligados a elaborar informes en los que se daba a conocer al público, tanto al iniciado como al lego en la materia, que el hecho de acumular una enorme cantidad de energía (procedente de las partículas que colisionan) en una región muy pequeña del espacio no tendría como consecuencia jamás un evento del tipo “decaimiento del vacío”.
Un segundo escenario hipotético que se contempló tenía que ver con la denominada materia extraña o, más concretamente, los strangelets. En física, un strangelet es una partícula que contiene, en igual número, quarks de tipo up, down y strange (tres de las seis clases que existen; las otras tres son top, bottom y charm). La materia “ordinaria” o bariónica que conocemos está compuesta por protones y neutrones, que constituyen los núcleos atómicos. Un protón contiene dos quarks de tipo up y uno de tipo down, mientras que un neutrón contiene dos quarks de tipo down y uno solo de tipo up. Es decir, en la materia que conocemos no suelen estar presentes, en condiciones normales, las otras cuatro clases de quarks. Sin embargo, cuando se utiliza un gran acelerador de partículas, la cosa puede ser muy diferente. A medida que se incrementa la energía de las colisiones entre partículas, como protones o núcleos enormemente pesados tales como el plomo o el oro, el resto de quarks comienza a hacer acto de presencia, entre ellos el quark strange (extraño, en español).
Si resultase ser correcta la hipótesis de la materia extraña formulada por Ed Witten en 1984, es decir, si se diese el caso de que la materia nuclear ordinaria (formada por quarks up y down) que conocemos fuese menos estable que la constituida por quarks de tipo strange, entonces no sería descartable que en algunas colisiones se formasen estados ligados de partículas con igual número de quarks up, down y strange, es decir, strangelets. Hay que decir que todas las partículas extrañas que se han creado hasta hoy en nuestros aceleradores solamente poseen un quark de tipo strange y, con todo, han decaído en cuestión de nanosegundos en materia ordinaria, nuevamente. Pero ¿qué sucedería si uno de estos strangelets colisionara con otro núcleo ordinario? ¿No podría darse el caso de que el primero indujese una conversión del segundo, transformándolo, a su vez, en otro strangelet? ¿Y por qué no iba a seguir perpetuándose el mismo proceso hasta que todos los núcleos ordinarios se tornasen en strangelets? Al final del proceso y, dado que éste conlleva una liberación de energía, todo el planeta acabaría sus días en forma de una masa informe y caliente de materia extraña.
El fatídico acontecimiento sería, más o menos, como sigue: imaginemos, por improbable que pudiera parecer, que en uno de nuestros aceleradores de partículas se ha formado un strangelet con una carga eléctrica negativa y que ha sobrevivido el tiempo suficiente como para ser capturado por un núcleo atómico ordinario. Lo que sucedería a continuación sería que el strangelet absorbería los nucleones (protones y neutrones) de aquél, haciéndose cada vez mayor y adquiriendo una carga eléctrica positiva. Acto seguido, el strangelet, si es que aún sobreviviese, podría capturar electrones, volviendo a cargarse negativamente y repitiendo el proceso de nuevo.
La respuesta a las cuestiones anteriores, aunque no absolutamente definitiva, la proporcionó Jes Madsen en un artículo publicado el año 2000 por la prestigiosa revista Physical Review Letters. Como ya podíamos intuir a partir de los párrafos previos, Madsen demostró que para que un strangelet capturase un núcleo de materia ordinaria, debería darse una atracción eléctrica entre ambos que incrementase las posibilidades de la unión antes de que el strangelet tuviese tiempo de desintegrarse. Sin embargo, lo que encontró fue todo lo contrario, es decir, la carga eléctrica de un strangelet era siempre de signo positivo y, por tanto, la interacción entre el strangelet y el núcleo resultaría repulsiva (recordemos que un núcleo atómico ordinario presenta siempre carga eléctrica positiva a causa de la presencia de protones en él; los neutrones, como su propio nombre indica, son eléctricamente neutros). Aunque el escenario apocalíptico de una Tierra convertida en materia extraña resultaba posible, no era menos cierto que las probabilidades favorables se mostraban extraordinariamente esquivas.
Hasta hoy jamás se ha encontrado materia extraña estable en lugar alguno del universo conocido. Se sabe que colisiones entre núcleos atómicos pesados, como el hierro, por ejemplo, suceden continuamente gracias a los rayos cósmicos que inciden sobre la Tierra o en la superficie de la Luna. En concreto, estimaciones razonables arrojan una cifra de diez mil cuatrillones de colisiones en toda la historia de nuestro satélite. Sin embargo, ahí permanece, a casi 400000 km de distancia, sin haberse transformado en un engendro de materia extraña. Sin embargo y, a pesar de todas las evidencias que parecen apuntar en la dirección de una altísima improbabilidad de un evento catastrófico como éste, conviene tener en cuenta que la cromodinámica cuántica, el modelo teórico más preciso que tenemos a la hora de explicar la interacción fuerte no se conoce hasta el punto de poder ser capaces de utilizarla para predecir fenómenos tan complejos como los que estamos tratando aquí, esto es, la formación y comportamiento de un strangelet.
A pesar de todo, en la actualidad, algunos astrofísicos siguen pensando que la materia extraña podría existir como tal en las regiones más internas de algunas estrellas conocidas precisamente como estrellas extrañas o estrellas de quarks, donde condiciones físicas como la presión y la temperatura favorecerían el proceso de conversión de la materia nuclear ordinaria en materia extraña estable. Dichas estrellas extrañas podrían haberse creado como resultado de la muerte de estrellas masivas, pero que no han alcanzado el umbral (alrededor de una decena de veces la masa de nuestro Sol) para acabar su vida en forma de agujero negro. Los astrofísicos sospechan, aunque nunca se han observado, que las estrellas de materia extraña podrían ser considerablemente más pequeñas que las estrellas de neutrones y han sugerido que podrían detectarse en forma de púlsares con períodos de rotación del orden de los milisegundos o inferiores.
Precisamente un agujero negro podría constituir otra de las incontables megacatástrofes susceptibles de terminar con el mundo que conocemos. Los agujeros negros estelares, que son a los que nos referiremos a continuación, constituyen el estado final en la vida de las estrellas suficientemente masivas. Cuando la fusión nuclear ya no es capaz de contrarrestar la inmensa gravedad de la estrella, tiene lugar un proceso de contracción irreversible que concluye con la formación de un agujero negro, un ente tan exótico que aún hoy, un siglo después de su predicción teórica, nadie ha logrado observar directamente. Y nadie lo ha hecho porque, entre otras cosas, un agujero negro siempre aparece rodeado de un horizonte de sucesos, una región alrededor del propio agujero de la que no puede escapar absolutamente nada, ni tan siquiera la luz, tal es la inimaginable intensidad del campo gravitatorio (o, más rigurosamente, la curvatura del espaciotiempo en sus inmediaciones).
No se
conoce con precisión el dato pero los astrofísicos piensan que solamente en la
Vía Láctea, una de cada diez mil estrellas podría ser un agujero negro.
Teniendo en cuenta que nuestra galaxia alberga entre cien mil y doscientos mil
millones de estrellas, la cifra de agujeros negros rondaría los 10-20 millones.
Y esta estimación probablemente se quede corta. Lo que sí es cierto es que,
hasta la fecha, todos los agujeros negros estelares que hemos logrado detectar
(18 confirmados en nuestra propia galaxia y otros 32 aún en proceso de estudio)
forman parte de sistemas binarios, es decir, siempre están ligados gravitatoriamente
a una estrella compañera.
Las galaxias que pueblan el universo no son objetos estáticos e inmóviles, como podría parecernos. Muy al contrario, aparte de su movimiento cosmológico, el debido a la expansión de Hubble, también poseen velocidades propias y por esta razón no todas las galaxias se están alejando de la nuestra, por ejemplo, sino que algunas incluso se están aproximando a la Vía Láctea o a otras. Es más, las mismas estrellas que constituyen una galaxia, están animadas de velocidades propias y no existe ninguna razón por la que los agujeros negros estelares no puedan hacer lo mismo. ¿Qué sucedería si, a lo largo de su periplo por el espacio interestelar, uno de estos agujeros negros se aproximase en exceso a nuestro sistema solar? Y aún peor, si la luz no puede abandonar el horizonte de sucesos, ¿cómo podríamos saber que se dirige hacia nosotros? Puede que para cuando fuésemos capaces de detectar sus efectos gravitatorios no tuviésemos tiempo de hacer nada útil al respecto como no fuese disponer de una tecnología suficientemente avanzada que posibilitase abandonar el planeta o hasta el mismísimo sistema solar, en caso de absoluta necesidad.
Las simulaciones numéricas llevadas a cabo con ordenadores parecen demostrar que bastaría con que un agujero negro de masa típica (unas cuantas masas solares) se aproximase a una distancia de unos mil millones de kilómetros (siete veces la distancia entre la Tierra y el Sol) para que la órbita de nuestro planeta se viese perturbada de tal forma que su elipticidad aumentara lo suficiente como para que se produjesen diferencias de temperatura de cientos de grados, dependiendo de las situaciones exactas de los nuevos afelio y perihelio, algo que haría del todo inviable la vida sobre la Tierra. Obvia decir que un agujero negro más masivo o que pasase aún más cerca sería perfectamente capaz de expulsar a la Tierra del mismísimo sistema solar o incluso destruirla por completo.
Uno de los indicios que hipotéticamente nos podría hacer sospechar la presencia relativamente cercana de un agujero negro errante sería la aparición de intensos destellos de rayos X emitidos a medida que el agujero negro fuese capturando otros cuerpos estelares que se fuesen cruzando en su camino. Otra posibilidad no despreciable sería la perturbación de la órbita de una estrella desafortunadamente cercana y que terminase por ser despedida en rumbo de colisión directamente hacia nuestro Sol.
Que las colisiones entre estrellas pueden llegar a ser una realidad es algo que se sospechaba desde hace mucho tiempo pero fue a raíz de un hallazgo sorprendente en 1953 cuando se confirmó tal posibilidad. En aquel año se descubrieron una clase muy peculiar de estrellas denominadas “rezagadas azules”, pertenecientes a agrupaciones estelares conocidas como cúmulos globulares, donde la densidad de estrellas es mucho mayor que en otras regiones del espacio galáctico. La peculiaridad que caracterizaba estas estrellas era un brillo inusualmente elevado, en comparación con el resto de la población del cúmulo, cuando se sabía que todas las estrellas pertenecientes a los cúmulos globulares deberían presentar las mismas edades, aproximadamente, y, por tanto, luminosidades parecidas. ¿Por qué las rezagadas azules parecían, pues, más jóvenes?
Se barajan dos hipótesis alternativas que ofrecen una explicación de las observaciones: la primera es que todas ellas formen parte de sistemas binarios y se dé una transferencia de masa entre ambos miembros del sistema, es decir, que una de las componentes capture materia procedente de la otra, lo que provoca que se induzca una nueva ignición del proceso de fusión nuclear y la estrella captora aumente inusualmente de brillo, haciéndose más azulada y, aparentemente, más joven; la segunda opción es que la estrella rezagada azul se haya formado a consecuencia de la colisión con otra estrella, fusionándose ambas en un cuerpo mucho más masivo y, en consecuencia, más brillante y azul. De hecho, observaciones y datos recientes relativos a ciertos cúmulos globulares, como NGC 188, parecen corroborar que aproximadamente el 80% de las estrellas rezagadas azules tiene su origen en transferencias de masa dentro de sistemas binarios. Si los resultados fueran extrapolables al resto de cúmulos estelares, tan sólo un 20% de colisiones estelares serían responsables de las rezagadas azules que observamos, lo que hace de estos cataclismos, ya raros de por sí, fenómenos extraordinariamente improbables.
Obviamente, cuando no consideramos los cúmulos globulares, la densidad de las poblaciones estelares se hace aún mucho más baja. Baste tener en cuenta que la estrella más cercana al Sol se encuentra a una distancia ligeramente superior a los 4 años luz (1,3 parsecs). En un entorno de unos 5 parsecs de radio alrededor del Sol tan sólo existen 49 sistemas estelares.
Las posibilidades de que una estrella fugitiva pase por las cercanías del sistema solar y se dirija directamente hacia el Sol son en verdad escasas, pero también es cierto que no resultan nulas. La probabilidad de un hipotético impacto aumenta cuanto más cerca pase la estrella, cuanto mayor sea su masa y más reducida sea su velocidad propia.
En 2010, V. V. Bobylev, publicó en la revista Astronomy Letters algunas de las conclusiones a las que había llegado a partir de datos procedentes del satélite Hipparcos, así como de valores actualizados de las velocidades radiales de cientos de estrellas que han pasado en los últimos dos millones de años o pasarán por las cercanías de nuestro sistema solar dentro de los próximos dos millones de años, a una distancia inferior a los tres parsecs. De entre todos los casos analizados, destacaba el de la estrella conocida como Gliese 710. Actualmente, ésta se encuentra a unos 63 años luz (20 parsecs), pero las simulaciones numéricas de su órbita indicaban que en el futuro, en un millón y medio de años, alcanzaría la máxima aproximación a nosotros, nada menos que 1,1 años luz (0,3 parsecs), con una probabilidad nada despreciable del 86%.
Si nos basamos exclusivamente en la densidad de estrellas que hay en las proximidades del sistema solar, más o menos de 0,1 estrellas por pársec cúbico, el tiempo promedio estimado para que una estrella errante se acerque hasta una distancia comparable a la que se encuentra Próxima Centauri (la más cercana al Sol) ronda los 75000 años. Si la distancia de aproximación se reduce a 0,02 parsecs (unas cinco mil veces la distancia media Tierra-Sol) el lapso de tiempo se incrementa hasta los 200 millones de años, mientras que un evento tan devastador como sería el acercamiento de una estrella hasta situarse a una distancia tan escasa como a la que se halla el planeta Júpiter únicamente sucedería cada 200 billones de años, un tiempo 14000 veces superior a la edad del universo.
Pero vayamos un poco más allá. Aun admitiendo que la colisión entre una estrella vagabunda y el Sol es enormemente improbable, por no decir prácticamente imposible, al menos en una escala de tiempo humana, lo cierto es que algunos astrofísicos se han preguntado cómo sería un evento tal. Como cualquier colisión entre dos objetos, el resultado final depende, esencialmente, de tres parámetros: la masa particular de cada objeto, las velocidades relativas entre ambos y la dirección en que tiene lugar el impacto. Desde hace décadas varios grupos de investigadores han dedicado enormes esfuerzos de computación a la simulación numérica de toda una serie de variedades de colisiones entre objetos estelares de distinta naturaleza. Si se consideran, por ejemplo, siete clases de estos objetos en orden creciente de densidad, a saber: estrellas súper-gigantes, gigantes rojas, estrellas de secuencia principal como el Sol, enanas marrones, enanas blancas, estrellas de neutrones y agujeros negros, aparecen hasta 28 combinaciones distintas. De entre todas, las que nos afectarían directamente serían los choques entre una estrella de la secuencia principal (el Sol) con cualquiera de los otros seis tipos. Quizá las más “benignas”, por calificarlas de alguna manera, serían las que tuviesen lugar entre nuestra estrella y una de las dos clases de gigantes. En ambos casos, el resultado final sería un sistema binario compuesto por una estrella de la secuencia principal y una enana blanca. Las consecuencias que acarrearía todo lo anterior para la vida sobre nuestro planeta no resultan difícilmente imaginables.
Las galaxias que pueblan el universo no son objetos estáticos e inmóviles, como podría parecernos. Muy al contrario, aparte de su movimiento cosmológico, el debido a la expansión de Hubble, también poseen velocidades propias y por esta razón no todas las galaxias se están alejando de la nuestra, por ejemplo, sino que algunas incluso se están aproximando a la Vía Láctea o a otras. Es más, las mismas estrellas que constituyen una galaxia, están animadas de velocidades propias y no existe ninguna razón por la que los agujeros negros estelares no puedan hacer lo mismo. ¿Qué sucedería si, a lo largo de su periplo por el espacio interestelar, uno de estos agujeros negros se aproximase en exceso a nuestro sistema solar? Y aún peor, si la luz no puede abandonar el horizonte de sucesos, ¿cómo podríamos saber que se dirige hacia nosotros? Puede que para cuando fuésemos capaces de detectar sus efectos gravitatorios no tuviésemos tiempo de hacer nada útil al respecto como no fuese disponer de una tecnología suficientemente avanzada que posibilitase abandonar el planeta o hasta el mismísimo sistema solar, en caso de absoluta necesidad.
Las simulaciones numéricas llevadas a cabo con ordenadores parecen demostrar que bastaría con que un agujero negro de masa típica (unas cuantas masas solares) se aproximase a una distancia de unos mil millones de kilómetros (siete veces la distancia entre la Tierra y el Sol) para que la órbita de nuestro planeta se viese perturbada de tal forma que su elipticidad aumentara lo suficiente como para que se produjesen diferencias de temperatura de cientos de grados, dependiendo de las situaciones exactas de los nuevos afelio y perihelio, algo que haría del todo inviable la vida sobre la Tierra. Obvia decir que un agujero negro más masivo o que pasase aún más cerca sería perfectamente capaz de expulsar a la Tierra del mismísimo sistema solar o incluso destruirla por completo.
Uno de los indicios que hipotéticamente nos podría hacer sospechar la presencia relativamente cercana de un agujero negro errante sería la aparición de intensos destellos de rayos X emitidos a medida que el agujero negro fuese capturando otros cuerpos estelares que se fuesen cruzando en su camino. Otra posibilidad no despreciable sería la perturbación de la órbita de una estrella desafortunadamente cercana y que terminase por ser despedida en rumbo de colisión directamente hacia nuestro Sol.
Que las colisiones entre estrellas pueden llegar a ser una realidad es algo que se sospechaba desde hace mucho tiempo pero fue a raíz de un hallazgo sorprendente en 1953 cuando se confirmó tal posibilidad. En aquel año se descubrieron una clase muy peculiar de estrellas denominadas “rezagadas azules”, pertenecientes a agrupaciones estelares conocidas como cúmulos globulares, donde la densidad de estrellas es mucho mayor que en otras regiones del espacio galáctico. La peculiaridad que caracterizaba estas estrellas era un brillo inusualmente elevado, en comparación con el resto de la población del cúmulo, cuando se sabía que todas las estrellas pertenecientes a los cúmulos globulares deberían presentar las mismas edades, aproximadamente, y, por tanto, luminosidades parecidas. ¿Por qué las rezagadas azules parecían, pues, más jóvenes?
Se barajan dos hipótesis alternativas que ofrecen una explicación de las observaciones: la primera es que todas ellas formen parte de sistemas binarios y se dé una transferencia de masa entre ambos miembros del sistema, es decir, que una de las componentes capture materia procedente de la otra, lo que provoca que se induzca una nueva ignición del proceso de fusión nuclear y la estrella captora aumente inusualmente de brillo, haciéndose más azulada y, aparentemente, más joven; la segunda opción es que la estrella rezagada azul se haya formado a consecuencia de la colisión con otra estrella, fusionándose ambas en un cuerpo mucho más masivo y, en consecuencia, más brillante y azul. De hecho, observaciones y datos recientes relativos a ciertos cúmulos globulares, como NGC 188, parecen corroborar que aproximadamente el 80% de las estrellas rezagadas azules tiene su origen en transferencias de masa dentro de sistemas binarios. Si los resultados fueran extrapolables al resto de cúmulos estelares, tan sólo un 20% de colisiones estelares serían responsables de las rezagadas azules que observamos, lo que hace de estos cataclismos, ya raros de por sí, fenómenos extraordinariamente improbables.
Obviamente, cuando no consideramos los cúmulos globulares, la densidad de las poblaciones estelares se hace aún mucho más baja. Baste tener en cuenta que la estrella más cercana al Sol se encuentra a una distancia ligeramente superior a los 4 años luz (1,3 parsecs). En un entorno de unos 5 parsecs de radio alrededor del Sol tan sólo existen 49 sistemas estelares.
Las posibilidades de que una estrella fugitiva pase por las cercanías del sistema solar y se dirija directamente hacia el Sol son en verdad escasas, pero también es cierto que no resultan nulas. La probabilidad de un hipotético impacto aumenta cuanto más cerca pase la estrella, cuanto mayor sea su masa y más reducida sea su velocidad propia.
En 2010, V. V. Bobylev, publicó en la revista Astronomy Letters algunas de las conclusiones a las que había llegado a partir de datos procedentes del satélite Hipparcos, así como de valores actualizados de las velocidades radiales de cientos de estrellas que han pasado en los últimos dos millones de años o pasarán por las cercanías de nuestro sistema solar dentro de los próximos dos millones de años, a una distancia inferior a los tres parsecs. De entre todos los casos analizados, destacaba el de la estrella conocida como Gliese 710. Actualmente, ésta se encuentra a unos 63 años luz (20 parsecs), pero las simulaciones numéricas de su órbita indicaban que en el futuro, en un millón y medio de años, alcanzaría la máxima aproximación a nosotros, nada menos que 1,1 años luz (0,3 parsecs), con una probabilidad nada despreciable del 86%.
Si nos basamos exclusivamente en la densidad de estrellas que hay en las proximidades del sistema solar, más o menos de 0,1 estrellas por pársec cúbico, el tiempo promedio estimado para que una estrella errante se acerque hasta una distancia comparable a la que se encuentra Próxima Centauri (la más cercana al Sol) ronda los 75000 años. Si la distancia de aproximación se reduce a 0,02 parsecs (unas cinco mil veces la distancia media Tierra-Sol) el lapso de tiempo se incrementa hasta los 200 millones de años, mientras que un evento tan devastador como sería el acercamiento de una estrella hasta situarse a una distancia tan escasa como a la que se halla el planeta Júpiter únicamente sucedería cada 200 billones de años, un tiempo 14000 veces superior a la edad del universo.
Pero vayamos un poco más allá. Aun admitiendo que la colisión entre una estrella vagabunda y el Sol es enormemente improbable, por no decir prácticamente imposible, al menos en una escala de tiempo humana, lo cierto es que algunos astrofísicos se han preguntado cómo sería un evento tal. Como cualquier colisión entre dos objetos, el resultado final depende, esencialmente, de tres parámetros: la masa particular de cada objeto, las velocidades relativas entre ambos y la dirección en que tiene lugar el impacto. Desde hace décadas varios grupos de investigadores han dedicado enormes esfuerzos de computación a la simulación numérica de toda una serie de variedades de colisiones entre objetos estelares de distinta naturaleza. Si se consideran, por ejemplo, siete clases de estos objetos en orden creciente de densidad, a saber: estrellas súper-gigantes, gigantes rojas, estrellas de secuencia principal como el Sol, enanas marrones, enanas blancas, estrellas de neutrones y agujeros negros, aparecen hasta 28 combinaciones distintas. De entre todas, las que nos afectarían directamente serían los choques entre una estrella de la secuencia principal (el Sol) con cualquiera de los otros seis tipos. Quizá las más “benignas”, por calificarlas de alguna manera, serían las que tuviesen lugar entre nuestra estrella y una de las dos clases de gigantes. En ambos casos, el resultado final sería un sistema binario compuesto por una estrella de la secuencia principal y una enana blanca. Las consecuencias que acarrearía todo lo anterior para la vida sobre nuestro planeta no resultan difícilmente imaginables.
En
el hipotético caso de que una enana blanca se encontrase en el camino de
nuestra estrella, debido a que la primera tiene una masa muy parecida a la
segunda (una enana blanca no puede existir por encima de una masa umbral
denominada límite de Chandrasekhar y que es de 1,4 masas solares) pero al mismo
tiempo un tamaño similar al de la Tierra, es decir, cien veces menor y diez
millones de veces más densa, produciría la destrucción completa del Sol,
desgajándolo y expulsando al espacio enormes cantidades de plasma. El proceso
tendría lugar de una forma extraordinariamente rápida (en cuestión de unas
pocas horas) y el objeto más compacto, en este caso la enana blanca,
prácticamente resultaría inalterado. En cambio, los planetas del sistema solar
quedarían libres del campo gravitatorio que los mantiene en sus órbitas y
serían expulsados y condenados a vagar por la galaxia, y esto solamente en el
caso de que fuesen lo suficientemente afortunados como para no haber sucumbido entre
las llamaradas de gas súper-caliente emitidas por la aniquilación del Sol.
Si el encuentro tuviese lugar con un objeto aún más denso y extraordinariamente compacto como puede ser una estrella de neutrones de tan sólo unos pocos kilómetros de diámetro, el producto final de la interacción, dependiendo de las condiciones particulares, se reduciría a dos posibilidades: o bien se generaría una sola estrella de neutrones o bien un agujero negro rodeado de un disco de acreción.
Cuando las estrellas que colisionan son semejantes, tanto en tamaño como en densidad y naturaleza lo que sucede es una especie de solapamiento de sus plasmas respectivos, comprimiéndose y distorsionándose hasta adquirir formas que distan bastante de ser esféricas. Porciones importantes de sus masas se desprenden y ambas estrellas terminan por fusionarse en una sola en cuestión de minutos.
Siendo conscientes de las escasísimas posibilidades que tenemos de asistir u observar directamente un encuentro entre dos estrellas debido a lo improbable del suceso, caben, sin embargo, otras opciones como pueden ser, por ejemplo, la detección de las colisiones más violentas, cuando ambos objetos son estrellas de neutrones y, en consecuencia, la generación de energía resulta mucho mayor. Según la teoría de la relatividad general, cuando tienen lugar distorsiones del espaciotiempo, como es el caso considerado, éstas van siempre acompañadas de la emisión de ondas gravitatorias. Debido a lo débiles que son estas oscilaciones, únicamente seríamos capaces de detectar aquellas que fuesen extraordinariamente potentes, al menos con la tecnología que poseemos en la actualidad. Hasta ahora nunca se ha demostrado experimentalmente la existencia de estas ondas gravitatorias; tan sólo se cree poseer evidencia indirecta, a través de otras observaciones y/o cálculos, de que, en efecto, son reales.
Si la colisión directa de una estrella o un objeto tan compacto como un agujero negro contra el Sol resulta ya de por sí más que suficiente para provocar el fin de nuestro sistema solar como tal y la consiguiente aniquilación de la vida sobre la Tierra, lo cierto es que tampoco es necesario que el suceso megacatastrófico resulte tan extremo ni que la estrella asesina se acerque a nosotros a una distancia tan corta. En realidad bastaría con que dicha estrella o cuerpo suficientemente masivo nos visitase a distancias relativamente grandes pero que provocasen perturbaciones en la nube de Oort, un esferoide imaginario con unas cien mil UA (Unidad Astronómica, distancia media entre la Tierra y el Sol, equivalente a unos 150 millones de kilómetros) de semieje mayor y ochenta mil UA de semieje menor que rodea nuestro sistema solar, o incluso en el cinturón de Kuiper, que se extiende hasta una distancia de unas 50 UA.
Suponiendo que una estrella vagabunda penetrase en una región situada a menos de 1000 UA del Sol sus efectos perturbadores sobre los cometas y asteroides que allí se encuentran podrían muy bien hacer que muchos de ellos se precipitasen hacia el interior del sistema solar, incrementando las posibilidades de un potencial impacto contra la Tierra, en un fenómeno conocido como “lluvia de cometas”. Se estima que la escala temporal para una de estas lluvias de cometas de la nube de Oort rondaría el millón de años.
En el interior de estas regiones, como son el cinturón de Kuiper y la nube de Oort, existen tanto cometas de corto período como de largo período. Estos últimos, con órbitas muy excéntricas, representarían un peligro mucho mayor debido a sus enormes tamaños. Una clase especial de estos son los conocidos asteroides damocloides, núcleos ya inactivos de cometas, y que pueden llegar a alcanzar diámetros de casi 200 kilómetros. La cantidad de luz que reflejan del Sol es muy baja, encontrándose entre los objetos más oscuros de todo el sistema solar, lo que dificulta enormemente su detección y observación. A principios de 2010, el telescopio WISE de observación en el rango infrarrojo del espectro electromagnético, encontró más de una docena de asteroides especialmente oscuros, de los cuales más de la mitad presentaban albedos inferiores a 0,1 (el albedo es la relación entre la cantidad de luz que refleja un cuerpo y la que incide sobre el mismo).
En la actualidad tan sólo existen en el mundo un puñado de programas especiales dedicados a la detección y observación de objetos cercanos a la Tierra (asteroides y cometas). Han logrado identificar más de 7000 de los primeros y prácticamente un centenar de los segundos. Aproximadamente, entre 500 y 1000 de estos asteroides presentan unos diámetros superiores al kilómetro, llegando algunos a superar los 30 km.
La frecuencia con la que estos cuerpos celestes se cruzan con la órbita de la Tierra varía, obviamente, con sus tamaños. Así, se estima que los más pequeños penetran en nuestra atmósfera hasta una vez al año, aunque prácticamente todos ellos se desintegran antes de llegar al suelo y dejar una huella en forma de meteorito. Los de diámetros comprendidos entre varias decenas y algunos cientos de metros caen cada 100-1000 años; los de hasta 5-6 km impactan, aproximadamente, cada millón de años; y los de tamaños aún mayores colisionan con la Tierra cada 100 millones de años o más.
En el hipotético caso de que uno solo de estos objetos se dirigiese hacia nosotros, la suerte de la raza humana estaría echada. El núcleo de un cometa de 200 km de diámetro provocaría un evento de extinción global, cuando no unos daños inimaginables a cualquier planeta contra el que se precipitase. En este sentido, cabe recordar las imágenes que pudimos contemplar a través del televisor en julio de 1994, cuando los fragmentos del cometa Shoemaker-Levy 9 impactaron contra Júpiter, dejando huellas en su atmósfera de tamaños superiores a la misma Tierra. También, hace unos 780000 años, un asteroide de tan sólo 10 km se estrelló en el continente antártico. Debido a que coincidió con una Edad de Hielo en nuestro planeta, sus efectos devastadores se vieron considerablemente amortiguados y la aún escasa población humana de la época pudo sobrevivir al catastrófico evento. ¿Y quién no conoce la teoría acerca de la desaparición de los dinosaurios a causa de otro impacto similar hace 65 millones de años?
En aquella época, y como es sabido, los dinosaurios dominaban el planeta. Entonces, aunque no se puede afirmar con certeza absoluta ya que pudieron coincidir otros factores que jugaron un papel simultáneo, se piensa que un asteroide de entre 10 y 15 km de diámetro colisionó contra la Tierra, en el lugar que ocupa la actual península de Yucatán. Una buena parte de la roca asesina seguramente se debió vaporizar a causa de la inmensa fricción sufrida con la atmósfera. Ingentes cantidades de sedimentos y vapor de agua fueron arrojados a varias decenas de kilómetros de altura, lo que sin duda provocó el bloqueo de la luz solar. Desde el mismo punto de impacto del asteroide se generaron ondas de choque acústicas capaces de inducir cientos de miles de los más intensos terremotos, se liberaron gases y lava procedentes del manto terrestre, lo que dio lugar a incendios de proporciones épicas. Multitud de volcanes entrarían en erupción, repartidos por toda la corteza del planeta, lo que conllevó a su vez a la emisión de enormes cantidades de cenizas, dióxido de carbono, cloro y dióxido de azufre. En particular, este último reacciona con avidez con las moléculas de agua para formar ácido sulfúrico que tiende a permanecer durante mucho tiempo en la estratosfera en forma de aerosol. El espectáculo debió de ser desolador.
La ausencia de luz solar hizo que las plantas sucumbieran tras no demasiado tiempo después de la colisión. Como es lógico, los animales herbívoros se vieron privados de alimento y fueron los siguientes en la cadena de extinciones masivas. A su vez, al desaparecer aquéllos, los carnívoros también debieron claudicar sin remedio.
La temperatura no sólo experimentó un incremento insoportable en tierra y en la atmósfera (seguramente, cientos de grados); análogamente, en los océanos, aunque en menor medida debido a que el agua es una sustancia con una elevada capacidad calorífica que la hace absorber enormes cantidades de calor modificando tan sólo ligeramente su temperatura, el calentamiento súbito terminó con la práctica totalidad del plancton marino que puebla los primeros metros bajo la superficie. No resulta difícil imaginar el destino de todas las especies animales que dependen de él.
Si tenemos en cuenta las frecuencias con las que puede suceder el impacto de un objeto cercano a la Tierra, podríamos estar tentados de creernos con todo el derecho a sentirnos tranquilos, a salvo de un acontecimiento aparentemente catastrófico. De hecho, esta actitud de despreocupación, como poco insensata, es la que parecen adoptar prácticamente la totalidad de los políticos del mundo desarrollado. Todos los expertos y muchos que no siéndolo muestran una cierta sensatez están de acuerdo en que, tarde o temprano, una roca de un tamaño capaz de provocar un evento de extinción, se precipitará sobre nuestro planeta, quién sabe si provocando nuestra total desaparición de la faz de este mundo. Más aún, quizá no sea necesario siquiera que la colisión se produzca directamente contra la Tierra. Puestos a imaginar, por qué no iba a darse la posibilidad de que el asteroide o cometa asesino se encaminase directamente a la Luna. De hecho, la masa de ésta es ochenta veces menor que la de nuestro planeta y el impacto directo, sin duda, produciría un daño mucho mayor. Si, hipotéticamente, nuestro satélite saliera despedido de su órbita, una de las consecuencias más serias que sufriría la Tierra sería la que tiene que ver con la estabilidad del eje de rotación. En efecto, el eje alrededor del que gira nuestro planeta sobre sí mismo forma un cierto ángulo con la línea perpendicular a la eclíptica (el plano en el que se encuentran contenidas las órbitas de la Tierra y el Sol) denominado oblicuidad. Esta inclinación oscila, con un período de unos 40000 años, entre los 22° y los 24,5°. Gracias a la oblicuidad de la eclíptica, los habitantes de la Tierra disfrutamos de cuatro estaciones denominadas primavera, verano, otoño e invierno, lo que no pueden decir en otros planetas como Júpiter, cuya oblicuidad es de poco más de 3°, o en Urano, donde alcanza los casi 98°.
La Luna es el astro que mantiene la inclinación del eje de rotación terrestre comprendida entre unos valores intermedios, ni demasiado grande ni demasiado pequeña. Si un cataclismo nos privase de nuestro único satélite natural, el eje de rotación de la Tierra oscilaría de manera caótica (como parece que tiene lugar en Marte, precisamente debido a la ausencia de un gran satélite como el nuestro). Si la oblicuidad de la eclíptica superase, aproximadamente, los 54° las temperaturas en la superficie de la Tierra aumentarían hasta superar los 80 °C, incluso más. La vida, tal y como la conocemos, resultaría inviable.
En años recientes, no han sido pocas las propuestas aparecidas en las revistas científicas con las que se sugieren proyectos, técnicas y procedimientos a seguir con el fin de mitigar o evitar los posibles impactos de objetos cercanos a la Tierra. Desde la detonación de un artefacto nuclear sobre la misma superficie o a una cierta distancia próxima al asteroide o cometa hasta la puesta en órbita alrededor del mismo de una sonda suficientemente masiva como para que su campo gravitatorio ejerza una influencia suficiente como para desviar de su rumbo a la amenaza, pasando por el impacto directo de una nave con el cuerpo rocoso que produjese cráteres en su superficie por los que escaparían gases que harían de propulsores, alterando así su trayectoria de colisión, o hasta pintar alternativamente de colores claros y oscuros porciones distintas del asteroide que aprovechasen tanto la rotación propia de éste como la distinta reflexión de la luz solar incidente hasta lograr, igualmente, que la órbita se modificase.
Sin embargo, todas las ideas anteriores siempre adolecen de una o varias dificultades, además de requerir en todos los casos un conocimiento preciso de la órbita del objeto impactor, sus características físicas y químicas (composición, densidad, porosidad, etc.) y, más importante quizá, la fecha del acontecimiento. Los procedimientos propuestos exigen, inevitablemente, años si no décadas de antelación para que la actuación pueda ser eficaz.
Si la limitada capacidad tecnológica de que disponemos en la actualidad para conocer con suficiente antelación el acercamiento de un cuerpo celeste tan pequeño y poco luminoso como un asteroide o cometa juega un papel decisivo y crucial a la hora de mitigar el posible impacto, ya sea con nuestro planeta o con la Luna, lo cierto es que existe un acontecimiento donde el tiempo de detección es completamente irrelevante: la emisión de un GRB (iniciales de Gamma Ray Burst, o estallido de rayos gamma, en español), probablemente el fenómeno más violento conocido a escala cósmica.
Los primeros GRB se descubrieron de forma fortuita a principios de la década de 1960 por satélites espías y, en un principio, se interpretaron como evidencias de la existencia de ensayos llevados a cabo con armamento nuclear.
Aunque aún no se comprenden muy bien los mecanismos de producción de un GRB, lo que sí parece claro es que suelen aparecer muy frecuentemente en galaxias de tipo irregular, relativamente pequeñas y con niveles bajos de metalicidad, es decir, que se trata de galaxias antiguas, como las que debieron poblar el universo en sus primeras fases de existencia y cuyas estrellas aún no habían tenido tiempo suficiente como para evolucionar y acumular elementos pesados.
Otra característica distintiva de los GRB tiene que ver con su duración. En este sentido, los astrofísicos han clasificado los estallidos de rayos gamma en dos categorías, según que las emisiones de radiación se prolonguen o no por encima de los dos segundos (algunas pueden llegar a persistir hasta varias horas, aunque el promedio suele estar en unos pocos minutos). En el primer caso, estos eventos parecen ir asociados al colapso gravitatorio de estrellas muy masivas, como las denominadas estrellas WR (iniciales de Wolf y Rayet, sus descubridores, y cuya masa supera las 15-25 masas solares) que concluyen sus vidas en fantásticas explosiones denominadas hipernovas, llegando a liberar en un solo fogonazo más energía que la que emitiría una estrella convencional a lo largo de toda su existencia. Recientemente, los astrofísicos han llegado a proponer, asimismo, como causa de estos destellos de larga duración la fusión entre una estrella enana blanca y otra de neutrones o, alternativamente, la disrupción de una estrella por parte de un agujero negro de tamaño intermedio. En el segundo, la causa se atribuye a la colisión o fusión entre dos objetos muy compactos (estrellas de neutrones, por ejemplo). En nuestra galaxia únicamente se conocen alrededor de un par de miles de estrellas de neutrones (muchas de ellas porque se corresponden con objetos denominados púlsares), pero podría haber muchas más debido a la dificultad que presentan para poder detectarse o localizarse a causa de su pequeño tamaño, del orden de unas pocas decenas de kilómetros de diámetro, y escasa luminosidad. Se cuentan con los dedos de las manos las que se sabe con certeza que constituyen, en efecto, sistemas binarios.
Si cualquiera de las componentes de una estas parejas se precipitase sobre su compañera, llegaran a fusionarse y formar un agujero negro, lo más probable es que un poderoso GRB fuese lanzado al espacio en la dirección paralela al eje de rotación del objeto. El haz a lo largo del cual es emitida la radiación gamma suele ser muy estrecho, de tan sólo unos pocos grados sexagesimales de anchura, como si fuera el disparo efectuado por un colosal fáser utilizado por los protagonistas de Star Trek. Si, además, la raza humana fuese lo suficientemente desafortunada como para que dicho haz apuntase directamente a nuestro planeta, las consecuencias serían desastrosas, con el agravante de que no habría forma de adelantarse a los acontecimientos, pues la radiación gamma, por definición, viaja a la velocidad de la luz y para cuando quisiésemos detectarla ya nos habría alcanzado.
Se estima, no con total seguridad, que en nuestra galaxia sucede un evento GRB, aproximadamente, cada unos pocos cientos de millones de años. La Tierra no estaría a salvo aunque el fogonazo se produjese a distancias tan enormes como 6000 años luz. Un GRB producido por la explosión de una gigantesca hipernova situada en un lugar tan alejado y cuya duración no superase los diez segundos destruiría la mitad de la capa de ozono del planeta en cuestión de unas pocas semanas y los efectos se extenderían en el tiempo, probablemente, durante décadas. Todo es cuestión de química. En efecto, cuando los rayos gamma enormemente energéticos procedentes del GRB alcancen la atmósfera terrestre arrancarán los electrones de las moléculas de nitrógeno y oxígeno allí presentes, ionizándolas. Entonces, éstas reaccionarán y formarán óxido nítrico, un gas tóxico de color marrón. Y si esta toxicidad no es algo ya de por sí suficientemente nocivo y peligroso para las personas, lo peor aún está por llegar. El óxido nítrico es una sustancia que, al igual que los tristemente célebres clorofluorocarbonos, atacan activamente las moléculas de ozono presentes en nuestra estratosfera. En cuanto el escudo protector desaparece, la radiación ultravioleta procedente del Sol empieza a penetrar en la atmósfera y ya no es detenida por el ozono, con lo que no tiene gran dificultad en llegar hasta la superficie de la Tierra, destruyendo, entre otras cosas, el fitoplancton marino que vive en los primeros metros de profundidad y que sirve de alimento a una enorme variedad de otras especies animales; la cadena trófica quedaría gravemente afectada y seguramente de manera irreversible. De hecho, en un artículo muy reciente, se ha asociado (aunque hay que reconocer que esto tampoco constituye demasiada novedad) la extinción masiva del período Ordovícico, hace unos 440-450 millones de años, con un evento tipo GRB.
Existen más posibles evidencias de que nuestro planeta ha sufrido antes, en otras ocasiones, los efectos de destellos de rayos gamma procedentes del espacio profundo. Por ejemplo, el año pasado, 2012, un equipo de científicos japoneses encabezado por el profesor Miyake, tras llevar a cabo minuciosos análisis del contenido de isótopos de carbono-14 y berilio-10 en los anillos de los troncos de árboles, pudo determinar que la acumulación de aquéllos era anormalmente alta y se correspondía posiblemente con un exceso de radiación de muy alta frecuencia que habría impactado supuestamente con la Tierra hacia los años 774-775. El propio grupo de Miyake propuso varias hipótesis que explicaran las observaciones, aunque posteriormente fueron descartadas porque siempre adolecían de la falta de otras pruebas que las deberían apoyar o corroborar. Tan sólo hace unos meses, en enero de este mismo año, 2013, otros dos investigadores, Hambaryan y Neuhäuser, han propuesto en un artículo aparecido en la revista Monthly Notices of the Royal Astronomical Society una explicación alternativa: el impacto directo con nuestro planeta de un GRB originado a una distancia de entre 3000 y 12000 años luz.
Hemos mencionado unos párrafos más arriba que la emisión de un GRB sea posiblemente el fenómeno más energético del universo, pero aún cabe ir un paso más allá y preguntarse: ¿qué sucedería si imaginásemos la megacatástrofe definitiva? ¿Cuál sería? Al fin y al cabo, las otras seis tratadas hasta ahora tan sólo han mostrado su poder devastador hasta el punto de terminar con la vida en la Tierra, si exceptuamos el decaimiento del falso vacío. Bien, hagamos un poco de historia antes de acabar con este artículo y quizá… algo más.
En 1998, dos grupos de investigadores liderados, respectivamente, por Adam Riess y Saul Perlmutter, se encontraban estudiando el comportamiento de una clase especial de supernovas denominadas de tipo Ia. Estas gigantescas explosiones se producen cuando una de las dos estrellas de un sistema binario captura material de su compañera, lo que hace que la primera adquiera una masa cada vez mayor hasta que, en algunos casos, se supera un valor crítico, la estrella se hace inestable y se desencadena una explosión termonuclear que suele terminar con su pareja. Prácticamente en todos los casos la estrella asesina es una enana blanca y hasta hace muy poco se pensaba que la víctima de su afán devorador podía ser tanto una estrella de la secuencia principal (similar al Sol) como una estrella gigante. Sin embargo, actualmente los astrónomos parecen haber hallado evidencias de que la estrella devorada puede ser, en muchas ocasiones, otra enana blanca o incluso alguna estrella más pequeña que el Sol, como una enana roja, por ejemplo.
Cuando Riess y sus colaboradores analizaron las luminosidades de las supernovas de tipo Ia encontraron algo muy curioso: al parecer, el universo no solamente se estaba expandiendo, tal y como había descubierto Edwin Hubble en 1929, sino que, en realidad, lo hacía de forma acelerada, es decir, la materia presente en todo el cosmos no estaba frenando (como se había supuesto) la expansión de Hubble. Las galaxias se estaban alejando unas de otras a una velocidad que iba en aumento con el tiempo. A la mismas conclusiones llegaron un año después, en 1999, Perlmutter y sus colaboradores.
Semejante descubrimiento requería una explicación muy poco común que, de hecho, enfrentó durante tiempo y aún hoy sigue haciéndolo a cosmólogos y físicos de todo el mundo. En la actualidad, se admite mayoritariamente, lo cual no significa que la última palabra se haya pronunciado, la existencia de una especie de fluido cósmico que impregna todo el universo. Este fluido tendría la propiedad de generar una presión negativa o, para entendernos, produciría un efecto antigravitatorio, repulsivo en la materia. El mismo año 1998 Michael Turner acuñaría el término “energía oscura” para referirse a este fluido misterioso. Los datos más recientes proporcionados por el satélite Planck arrojan para nuestro universo una edad de 13798 millones de años y una composición global de un 4,9% de materia bariónica (la materia ordinaria que conocemos y experimentamos a diario), un 26,8% de materia oscura y un 68,3% de la citada energía oscura.
Trabajos llevados a cabo en los años posteriores al hallazgo de los grupos de Riess y Perlmutter han propuesto la existencia de tres clases de energía oscura: constante cosmológica, quintaesencia y energía fantasma. Dejemos aparte las dos primeras y centremos nuestra atención en la última de ellas.
Existe un número en cosmología de una importancia decisiva y con un significado crítico en lo que concierne a la evolución futura y el destino final del universo como un todo. Dicho número, denotado indistintamente por la letra w o la letra griega w, puede definirse como el cociente entre la presión y la densidad de energía. Dependiendo del rango de valores en que se mueva el citado parámetro, se pueden obtener las tres clases aludidas de energía oscura. Hasta la fecha, las medidas experimentales llevadas a cabo con ayuda de satélites artificiales no permiten descartar ninguna de ellas.
Si el encuentro tuviese lugar con un objeto aún más denso y extraordinariamente compacto como puede ser una estrella de neutrones de tan sólo unos pocos kilómetros de diámetro, el producto final de la interacción, dependiendo de las condiciones particulares, se reduciría a dos posibilidades: o bien se generaría una sola estrella de neutrones o bien un agujero negro rodeado de un disco de acreción.
Cuando las estrellas que colisionan son semejantes, tanto en tamaño como en densidad y naturaleza lo que sucede es una especie de solapamiento de sus plasmas respectivos, comprimiéndose y distorsionándose hasta adquirir formas que distan bastante de ser esféricas. Porciones importantes de sus masas se desprenden y ambas estrellas terminan por fusionarse en una sola en cuestión de minutos.
Siendo conscientes de las escasísimas posibilidades que tenemos de asistir u observar directamente un encuentro entre dos estrellas debido a lo improbable del suceso, caben, sin embargo, otras opciones como pueden ser, por ejemplo, la detección de las colisiones más violentas, cuando ambos objetos son estrellas de neutrones y, en consecuencia, la generación de energía resulta mucho mayor. Según la teoría de la relatividad general, cuando tienen lugar distorsiones del espaciotiempo, como es el caso considerado, éstas van siempre acompañadas de la emisión de ondas gravitatorias. Debido a lo débiles que son estas oscilaciones, únicamente seríamos capaces de detectar aquellas que fuesen extraordinariamente potentes, al menos con la tecnología que poseemos en la actualidad. Hasta ahora nunca se ha demostrado experimentalmente la existencia de estas ondas gravitatorias; tan sólo se cree poseer evidencia indirecta, a través de otras observaciones y/o cálculos, de que, en efecto, son reales.
Si la colisión directa de una estrella o un objeto tan compacto como un agujero negro contra el Sol resulta ya de por sí más que suficiente para provocar el fin de nuestro sistema solar como tal y la consiguiente aniquilación de la vida sobre la Tierra, lo cierto es que tampoco es necesario que el suceso megacatastrófico resulte tan extremo ni que la estrella asesina se acerque a nosotros a una distancia tan corta. En realidad bastaría con que dicha estrella o cuerpo suficientemente masivo nos visitase a distancias relativamente grandes pero que provocasen perturbaciones en la nube de Oort, un esferoide imaginario con unas cien mil UA (Unidad Astronómica, distancia media entre la Tierra y el Sol, equivalente a unos 150 millones de kilómetros) de semieje mayor y ochenta mil UA de semieje menor que rodea nuestro sistema solar, o incluso en el cinturón de Kuiper, que se extiende hasta una distancia de unas 50 UA.
Suponiendo que una estrella vagabunda penetrase en una región situada a menos de 1000 UA del Sol sus efectos perturbadores sobre los cometas y asteroides que allí se encuentran podrían muy bien hacer que muchos de ellos se precipitasen hacia el interior del sistema solar, incrementando las posibilidades de un potencial impacto contra la Tierra, en un fenómeno conocido como “lluvia de cometas”. Se estima que la escala temporal para una de estas lluvias de cometas de la nube de Oort rondaría el millón de años.
En el interior de estas regiones, como son el cinturón de Kuiper y la nube de Oort, existen tanto cometas de corto período como de largo período. Estos últimos, con órbitas muy excéntricas, representarían un peligro mucho mayor debido a sus enormes tamaños. Una clase especial de estos son los conocidos asteroides damocloides, núcleos ya inactivos de cometas, y que pueden llegar a alcanzar diámetros de casi 200 kilómetros. La cantidad de luz que reflejan del Sol es muy baja, encontrándose entre los objetos más oscuros de todo el sistema solar, lo que dificulta enormemente su detección y observación. A principios de 2010, el telescopio WISE de observación en el rango infrarrojo del espectro electromagnético, encontró más de una docena de asteroides especialmente oscuros, de los cuales más de la mitad presentaban albedos inferiores a 0,1 (el albedo es la relación entre la cantidad de luz que refleja un cuerpo y la que incide sobre el mismo).
En la actualidad tan sólo existen en el mundo un puñado de programas especiales dedicados a la detección y observación de objetos cercanos a la Tierra (asteroides y cometas). Han logrado identificar más de 7000 de los primeros y prácticamente un centenar de los segundos. Aproximadamente, entre 500 y 1000 de estos asteroides presentan unos diámetros superiores al kilómetro, llegando algunos a superar los 30 km.
La frecuencia con la que estos cuerpos celestes se cruzan con la órbita de la Tierra varía, obviamente, con sus tamaños. Así, se estima que los más pequeños penetran en nuestra atmósfera hasta una vez al año, aunque prácticamente todos ellos se desintegran antes de llegar al suelo y dejar una huella en forma de meteorito. Los de diámetros comprendidos entre varias decenas y algunos cientos de metros caen cada 100-1000 años; los de hasta 5-6 km impactan, aproximadamente, cada millón de años; y los de tamaños aún mayores colisionan con la Tierra cada 100 millones de años o más.
En el hipotético caso de que uno solo de estos objetos se dirigiese hacia nosotros, la suerte de la raza humana estaría echada. El núcleo de un cometa de 200 km de diámetro provocaría un evento de extinción global, cuando no unos daños inimaginables a cualquier planeta contra el que se precipitase. En este sentido, cabe recordar las imágenes que pudimos contemplar a través del televisor en julio de 1994, cuando los fragmentos del cometa Shoemaker-Levy 9 impactaron contra Júpiter, dejando huellas en su atmósfera de tamaños superiores a la misma Tierra. También, hace unos 780000 años, un asteroide de tan sólo 10 km se estrelló en el continente antártico. Debido a que coincidió con una Edad de Hielo en nuestro planeta, sus efectos devastadores se vieron considerablemente amortiguados y la aún escasa población humana de la época pudo sobrevivir al catastrófico evento. ¿Y quién no conoce la teoría acerca de la desaparición de los dinosaurios a causa de otro impacto similar hace 65 millones de años?
En aquella época, y como es sabido, los dinosaurios dominaban el planeta. Entonces, aunque no se puede afirmar con certeza absoluta ya que pudieron coincidir otros factores que jugaron un papel simultáneo, se piensa que un asteroide de entre 10 y 15 km de diámetro colisionó contra la Tierra, en el lugar que ocupa la actual península de Yucatán. Una buena parte de la roca asesina seguramente se debió vaporizar a causa de la inmensa fricción sufrida con la atmósfera. Ingentes cantidades de sedimentos y vapor de agua fueron arrojados a varias decenas de kilómetros de altura, lo que sin duda provocó el bloqueo de la luz solar. Desde el mismo punto de impacto del asteroide se generaron ondas de choque acústicas capaces de inducir cientos de miles de los más intensos terremotos, se liberaron gases y lava procedentes del manto terrestre, lo que dio lugar a incendios de proporciones épicas. Multitud de volcanes entrarían en erupción, repartidos por toda la corteza del planeta, lo que conllevó a su vez a la emisión de enormes cantidades de cenizas, dióxido de carbono, cloro y dióxido de azufre. En particular, este último reacciona con avidez con las moléculas de agua para formar ácido sulfúrico que tiende a permanecer durante mucho tiempo en la estratosfera en forma de aerosol. El espectáculo debió de ser desolador.
La ausencia de luz solar hizo que las plantas sucumbieran tras no demasiado tiempo después de la colisión. Como es lógico, los animales herbívoros se vieron privados de alimento y fueron los siguientes en la cadena de extinciones masivas. A su vez, al desaparecer aquéllos, los carnívoros también debieron claudicar sin remedio.
La temperatura no sólo experimentó un incremento insoportable en tierra y en la atmósfera (seguramente, cientos de grados); análogamente, en los océanos, aunque en menor medida debido a que el agua es una sustancia con una elevada capacidad calorífica que la hace absorber enormes cantidades de calor modificando tan sólo ligeramente su temperatura, el calentamiento súbito terminó con la práctica totalidad del plancton marino que puebla los primeros metros bajo la superficie. No resulta difícil imaginar el destino de todas las especies animales que dependen de él.
Si tenemos en cuenta las frecuencias con las que puede suceder el impacto de un objeto cercano a la Tierra, podríamos estar tentados de creernos con todo el derecho a sentirnos tranquilos, a salvo de un acontecimiento aparentemente catastrófico. De hecho, esta actitud de despreocupación, como poco insensata, es la que parecen adoptar prácticamente la totalidad de los políticos del mundo desarrollado. Todos los expertos y muchos que no siéndolo muestran una cierta sensatez están de acuerdo en que, tarde o temprano, una roca de un tamaño capaz de provocar un evento de extinción, se precipitará sobre nuestro planeta, quién sabe si provocando nuestra total desaparición de la faz de este mundo. Más aún, quizá no sea necesario siquiera que la colisión se produzca directamente contra la Tierra. Puestos a imaginar, por qué no iba a darse la posibilidad de que el asteroide o cometa asesino se encaminase directamente a la Luna. De hecho, la masa de ésta es ochenta veces menor que la de nuestro planeta y el impacto directo, sin duda, produciría un daño mucho mayor. Si, hipotéticamente, nuestro satélite saliera despedido de su órbita, una de las consecuencias más serias que sufriría la Tierra sería la que tiene que ver con la estabilidad del eje de rotación. En efecto, el eje alrededor del que gira nuestro planeta sobre sí mismo forma un cierto ángulo con la línea perpendicular a la eclíptica (el plano en el que se encuentran contenidas las órbitas de la Tierra y el Sol) denominado oblicuidad. Esta inclinación oscila, con un período de unos 40000 años, entre los 22° y los 24,5°. Gracias a la oblicuidad de la eclíptica, los habitantes de la Tierra disfrutamos de cuatro estaciones denominadas primavera, verano, otoño e invierno, lo que no pueden decir en otros planetas como Júpiter, cuya oblicuidad es de poco más de 3°, o en Urano, donde alcanza los casi 98°.
La Luna es el astro que mantiene la inclinación del eje de rotación terrestre comprendida entre unos valores intermedios, ni demasiado grande ni demasiado pequeña. Si un cataclismo nos privase de nuestro único satélite natural, el eje de rotación de la Tierra oscilaría de manera caótica (como parece que tiene lugar en Marte, precisamente debido a la ausencia de un gran satélite como el nuestro). Si la oblicuidad de la eclíptica superase, aproximadamente, los 54° las temperaturas en la superficie de la Tierra aumentarían hasta superar los 80 °C, incluso más. La vida, tal y como la conocemos, resultaría inviable.
En años recientes, no han sido pocas las propuestas aparecidas en las revistas científicas con las que se sugieren proyectos, técnicas y procedimientos a seguir con el fin de mitigar o evitar los posibles impactos de objetos cercanos a la Tierra. Desde la detonación de un artefacto nuclear sobre la misma superficie o a una cierta distancia próxima al asteroide o cometa hasta la puesta en órbita alrededor del mismo de una sonda suficientemente masiva como para que su campo gravitatorio ejerza una influencia suficiente como para desviar de su rumbo a la amenaza, pasando por el impacto directo de una nave con el cuerpo rocoso que produjese cráteres en su superficie por los que escaparían gases que harían de propulsores, alterando así su trayectoria de colisión, o hasta pintar alternativamente de colores claros y oscuros porciones distintas del asteroide que aprovechasen tanto la rotación propia de éste como la distinta reflexión de la luz solar incidente hasta lograr, igualmente, que la órbita se modificase.
Sin embargo, todas las ideas anteriores siempre adolecen de una o varias dificultades, además de requerir en todos los casos un conocimiento preciso de la órbita del objeto impactor, sus características físicas y químicas (composición, densidad, porosidad, etc.) y, más importante quizá, la fecha del acontecimiento. Los procedimientos propuestos exigen, inevitablemente, años si no décadas de antelación para que la actuación pueda ser eficaz.
Si la limitada capacidad tecnológica de que disponemos en la actualidad para conocer con suficiente antelación el acercamiento de un cuerpo celeste tan pequeño y poco luminoso como un asteroide o cometa juega un papel decisivo y crucial a la hora de mitigar el posible impacto, ya sea con nuestro planeta o con la Luna, lo cierto es que existe un acontecimiento donde el tiempo de detección es completamente irrelevante: la emisión de un GRB (iniciales de Gamma Ray Burst, o estallido de rayos gamma, en español), probablemente el fenómeno más violento conocido a escala cósmica.
Los primeros GRB se descubrieron de forma fortuita a principios de la década de 1960 por satélites espías y, en un principio, se interpretaron como evidencias de la existencia de ensayos llevados a cabo con armamento nuclear.
Aunque aún no se comprenden muy bien los mecanismos de producción de un GRB, lo que sí parece claro es que suelen aparecer muy frecuentemente en galaxias de tipo irregular, relativamente pequeñas y con niveles bajos de metalicidad, es decir, que se trata de galaxias antiguas, como las que debieron poblar el universo en sus primeras fases de existencia y cuyas estrellas aún no habían tenido tiempo suficiente como para evolucionar y acumular elementos pesados.
Otra característica distintiva de los GRB tiene que ver con su duración. En este sentido, los astrofísicos han clasificado los estallidos de rayos gamma en dos categorías, según que las emisiones de radiación se prolonguen o no por encima de los dos segundos (algunas pueden llegar a persistir hasta varias horas, aunque el promedio suele estar en unos pocos minutos). En el primer caso, estos eventos parecen ir asociados al colapso gravitatorio de estrellas muy masivas, como las denominadas estrellas WR (iniciales de Wolf y Rayet, sus descubridores, y cuya masa supera las 15-25 masas solares) que concluyen sus vidas en fantásticas explosiones denominadas hipernovas, llegando a liberar en un solo fogonazo más energía que la que emitiría una estrella convencional a lo largo de toda su existencia. Recientemente, los astrofísicos han llegado a proponer, asimismo, como causa de estos destellos de larga duración la fusión entre una estrella enana blanca y otra de neutrones o, alternativamente, la disrupción de una estrella por parte de un agujero negro de tamaño intermedio. En el segundo, la causa se atribuye a la colisión o fusión entre dos objetos muy compactos (estrellas de neutrones, por ejemplo). En nuestra galaxia únicamente se conocen alrededor de un par de miles de estrellas de neutrones (muchas de ellas porque se corresponden con objetos denominados púlsares), pero podría haber muchas más debido a la dificultad que presentan para poder detectarse o localizarse a causa de su pequeño tamaño, del orden de unas pocas decenas de kilómetros de diámetro, y escasa luminosidad. Se cuentan con los dedos de las manos las que se sabe con certeza que constituyen, en efecto, sistemas binarios.
Si cualquiera de las componentes de una estas parejas se precipitase sobre su compañera, llegaran a fusionarse y formar un agujero negro, lo más probable es que un poderoso GRB fuese lanzado al espacio en la dirección paralela al eje de rotación del objeto. El haz a lo largo del cual es emitida la radiación gamma suele ser muy estrecho, de tan sólo unos pocos grados sexagesimales de anchura, como si fuera el disparo efectuado por un colosal fáser utilizado por los protagonistas de Star Trek. Si, además, la raza humana fuese lo suficientemente desafortunada como para que dicho haz apuntase directamente a nuestro planeta, las consecuencias serían desastrosas, con el agravante de que no habría forma de adelantarse a los acontecimientos, pues la radiación gamma, por definición, viaja a la velocidad de la luz y para cuando quisiésemos detectarla ya nos habría alcanzado.
Se estima, no con total seguridad, que en nuestra galaxia sucede un evento GRB, aproximadamente, cada unos pocos cientos de millones de años. La Tierra no estaría a salvo aunque el fogonazo se produjese a distancias tan enormes como 6000 años luz. Un GRB producido por la explosión de una gigantesca hipernova situada en un lugar tan alejado y cuya duración no superase los diez segundos destruiría la mitad de la capa de ozono del planeta en cuestión de unas pocas semanas y los efectos se extenderían en el tiempo, probablemente, durante décadas. Todo es cuestión de química. En efecto, cuando los rayos gamma enormemente energéticos procedentes del GRB alcancen la atmósfera terrestre arrancarán los electrones de las moléculas de nitrógeno y oxígeno allí presentes, ionizándolas. Entonces, éstas reaccionarán y formarán óxido nítrico, un gas tóxico de color marrón. Y si esta toxicidad no es algo ya de por sí suficientemente nocivo y peligroso para las personas, lo peor aún está por llegar. El óxido nítrico es una sustancia que, al igual que los tristemente célebres clorofluorocarbonos, atacan activamente las moléculas de ozono presentes en nuestra estratosfera. En cuanto el escudo protector desaparece, la radiación ultravioleta procedente del Sol empieza a penetrar en la atmósfera y ya no es detenida por el ozono, con lo que no tiene gran dificultad en llegar hasta la superficie de la Tierra, destruyendo, entre otras cosas, el fitoplancton marino que vive en los primeros metros de profundidad y que sirve de alimento a una enorme variedad de otras especies animales; la cadena trófica quedaría gravemente afectada y seguramente de manera irreversible. De hecho, en un artículo muy reciente, se ha asociado (aunque hay que reconocer que esto tampoco constituye demasiada novedad) la extinción masiva del período Ordovícico, hace unos 440-450 millones de años, con un evento tipo GRB.
Existen más posibles evidencias de que nuestro planeta ha sufrido antes, en otras ocasiones, los efectos de destellos de rayos gamma procedentes del espacio profundo. Por ejemplo, el año pasado, 2012, un equipo de científicos japoneses encabezado por el profesor Miyake, tras llevar a cabo minuciosos análisis del contenido de isótopos de carbono-14 y berilio-10 en los anillos de los troncos de árboles, pudo determinar que la acumulación de aquéllos era anormalmente alta y se correspondía posiblemente con un exceso de radiación de muy alta frecuencia que habría impactado supuestamente con la Tierra hacia los años 774-775. El propio grupo de Miyake propuso varias hipótesis que explicaran las observaciones, aunque posteriormente fueron descartadas porque siempre adolecían de la falta de otras pruebas que las deberían apoyar o corroborar. Tan sólo hace unos meses, en enero de este mismo año, 2013, otros dos investigadores, Hambaryan y Neuhäuser, han propuesto en un artículo aparecido en la revista Monthly Notices of the Royal Astronomical Society una explicación alternativa: el impacto directo con nuestro planeta de un GRB originado a una distancia de entre 3000 y 12000 años luz.
Hemos mencionado unos párrafos más arriba que la emisión de un GRB sea posiblemente el fenómeno más energético del universo, pero aún cabe ir un paso más allá y preguntarse: ¿qué sucedería si imaginásemos la megacatástrofe definitiva? ¿Cuál sería? Al fin y al cabo, las otras seis tratadas hasta ahora tan sólo han mostrado su poder devastador hasta el punto de terminar con la vida en la Tierra, si exceptuamos el decaimiento del falso vacío. Bien, hagamos un poco de historia antes de acabar con este artículo y quizá… algo más.
En 1998, dos grupos de investigadores liderados, respectivamente, por Adam Riess y Saul Perlmutter, se encontraban estudiando el comportamiento de una clase especial de supernovas denominadas de tipo Ia. Estas gigantescas explosiones se producen cuando una de las dos estrellas de un sistema binario captura material de su compañera, lo que hace que la primera adquiera una masa cada vez mayor hasta que, en algunos casos, se supera un valor crítico, la estrella se hace inestable y se desencadena una explosión termonuclear que suele terminar con su pareja. Prácticamente en todos los casos la estrella asesina es una enana blanca y hasta hace muy poco se pensaba que la víctima de su afán devorador podía ser tanto una estrella de la secuencia principal (similar al Sol) como una estrella gigante. Sin embargo, actualmente los astrónomos parecen haber hallado evidencias de que la estrella devorada puede ser, en muchas ocasiones, otra enana blanca o incluso alguna estrella más pequeña que el Sol, como una enana roja, por ejemplo.
Cuando Riess y sus colaboradores analizaron las luminosidades de las supernovas de tipo Ia encontraron algo muy curioso: al parecer, el universo no solamente se estaba expandiendo, tal y como había descubierto Edwin Hubble en 1929, sino que, en realidad, lo hacía de forma acelerada, es decir, la materia presente en todo el cosmos no estaba frenando (como se había supuesto) la expansión de Hubble. Las galaxias se estaban alejando unas de otras a una velocidad que iba en aumento con el tiempo. A la mismas conclusiones llegaron un año después, en 1999, Perlmutter y sus colaboradores.
Semejante descubrimiento requería una explicación muy poco común que, de hecho, enfrentó durante tiempo y aún hoy sigue haciéndolo a cosmólogos y físicos de todo el mundo. En la actualidad, se admite mayoritariamente, lo cual no significa que la última palabra se haya pronunciado, la existencia de una especie de fluido cósmico que impregna todo el universo. Este fluido tendría la propiedad de generar una presión negativa o, para entendernos, produciría un efecto antigravitatorio, repulsivo en la materia. El mismo año 1998 Michael Turner acuñaría el término “energía oscura” para referirse a este fluido misterioso. Los datos más recientes proporcionados por el satélite Planck arrojan para nuestro universo una edad de 13798 millones de años y una composición global de un 4,9% de materia bariónica (la materia ordinaria que conocemos y experimentamos a diario), un 26,8% de materia oscura y un 68,3% de la citada energía oscura.
Trabajos llevados a cabo en los años posteriores al hallazgo de los grupos de Riess y Perlmutter han propuesto la existencia de tres clases de energía oscura: constante cosmológica, quintaesencia y energía fantasma. Dejemos aparte las dos primeras y centremos nuestra atención en la última de ellas.
Existe un número en cosmología de una importancia decisiva y con un significado crítico en lo que concierne a la evolución futura y el destino final del universo como un todo. Dicho número, denotado indistintamente por la letra w o la letra griega w, puede definirse como el cociente entre la presión y la densidad de energía. Dependiendo del rango de valores en que se mueva el citado parámetro, se pueden obtener las tres clases aludidas de energía oscura. Hasta la fecha, las medidas experimentales llevadas a cabo con ayuda de satélites artificiales no permiten descartar ninguna de ellas.
Un
caso especialmente interesante es el que se presenta cuando w está comprendido entre -1,4 y -1. En
efecto, para estos valores, el universo estaría dominado mayoritariamente por
la energía fantasma y la expansión de aquél iría aumentando su aceleración más
y más con el tiempo, de forma que cualquier región del espacio que
seleccionásemos al azar incrementaría su volumen hasta hacerse infinito, pero
con la particularidad (y esto es lo verdaderamente aterrador) de que el
fatídico suceso tendría lugar en un lapso de tiempo finito. En consecuencia,
todo lo que constituye el universo que conocemos, empezando por las estructuras
más complejas, como las galaxias, comenzarían a desgajarse a causa del dominio
de los efectos antigravitatorios (presión negativa). A continuación, una vez
reducidas las galaxias a sus sistemas solares, les llegaría el turno a éstos,
separándose las estrellas individuales de sus planetas. Luego, se desgarrarían
las propias estrellas y algo más tarde los planetas. Finalmente, todo quedaría
reducido a un mar de partículas elementales infinitamente alejadas unas de
otras. Robert Caldwell, uno de los mayores expertos en el campo de la energía
fantasma, ha calculado que todo habrá terminado en poco más de 20000 millones
de años (1,5 veces la edad actual del universo) y el universo completo habrá
dejado de existir en un proceso conocido como Big Rip.
NOTA: Este artículo se publicó originalmente en el #3 de la revista NAUKAS, en el verano de 2013.
NOTA: Este artículo se publicó originalmente en el #3 de la revista NAUKAS, en el verano de 2013.
es posible que la aparición de la vida en este planeta esté ligada a la llegada de rayos gamma de una explosión muy lejana.
ResponderEliminarLa pregunta que todos nos hemos hecho alguna vez en la vida, es "¿Y que había antes del Big Bang ? porque cuando nos dicen que todo lo que conocemos salió de un punto como la cabeza de un alfiler...eso ya entra en nuestra gran ignorancia... en la falta de tecnología, en lo limitados que somos...
ResponderEliminarSiempre que pensamos en el final de la vida en la Tierra, lo asociamos a una gran colisión con algo que nos llega, algún cuerpo que se acerca hasta toparnos...aunque si se trata de rayos Gamma, no los veremos, y nos agarrará por sorpresa...
Yo creo que antes que todos esos desastres, nos afectará el alejamiento de nuestro satélite...que aunque sean 4 centímetros al año, quizás tenga que ver -y mucho- en los cambios del clima, en las estaciones del año...tan raras...Los cambios son tan poco notorios que se hacen imperceptibles...
Me resultó muy interesante esta entrada. Gracias.
¿No es curioso que el final del universo, en un gran desgarramiento, provocando que las partículas acaben separadas unas de otras por, básicamente, el infinito, sea tan similar al vacio que pudiera existir anteriormente al big bang?
ResponderEliminarHace un tiempo leí un artículo sobre como el aumento de la entropía extremo acababa en un estado homogeneo como el de partida, y no puedo evitar pensar en que tal vez el universo funcione de esa manera...
Demasiado para leer, resúmelo en un tweet xD
ResponderEliminarGrande. Muy grande. Como siempre
ResponderEliminar