Un telescopio planetario

¡Hola de nuevo! En esta ocasión, voy a hablaros de una tecnología de la que me enamoré perdidamente la primera vez que entré en contacto con ella. Tanto es así, que en aquel momento ya sentí que dedicaría el resto de mi vida profesional a explotar su enorme potencial. Me refiero a VLBI, una tecnología con la que podemos, desde fotografiar agujeros negros, a estudiar el movimiento de nuestro planeta con precisiones que permiten detectar efectos de milésimas de segundo por siglo en la duración de un día. ¡Vamos a hablar de ella! ¡Os aseguro que también os enamorará!

La principal (y fundamental) limitación que tiene cualquier instrumento óptico (desde un telescopio hasta una cámara de fotos o incluso nuestros propios ojos) está relacionada con un fenómeno que llamamos difracción.

La luz es un fenómeno ondulatorio, lo que hace que (al igual que pasa con el sonido) sea capaz de bordear esquinas (con ciertas limitaciones; ¡de no ser así, no habría sombras!) y de ensancharse a su paso por rendijas estrechas. Estos fenómenos están producidos por la difracción, que afecta a cualquier fenómeno ondulatorio. Otro efecto de esta difracción es que, al pasar por el objetivo (o por la «pupila de entrada») de una cámara, no produce imágenes perfectas de lo que la cámara observa, sino que las imágenes aparecen emborronadas; la imagen de un punto no es un punto, sino una manchita borrosa, a la que, en nuestra jerga, llamamos Point Spread Function (PSF) o «función de punto esparcido».

Una cámara (o un telescopio) que observa una flor en la lejanía, no produce una imagen nítida de la flor, sino una versión emborronada. Esto está, en buena parte, relacionado con el fenómeno de la difracción de la luz.

Este «emborronamiento» de las imágenes captadas por cualquier cámara es independiente de lo buena que sea la óptica de la misma; no importa si el objetivo de nuestra flamante reflex nos ha costado 100 euros o 3000. El emborronamiento siempre estará ahí, ya que se trata de una limitación fundamental de la Naturaleza (como el Principio de Incertidumbre de la Física Cuántica que, de hecho, está relacionado con este límite de difracción).

Cuanto más grande sea el objetivo de nuestra cámara, más picudita y estrechita se hará la PSF, por lo que las imágenes producidas serán más nítidas (o sea, podremos distinguir detalles más pequeños en nuestras imágenes). La anchura de la PSF también depende de la longitud de onda a la que observamos; cuanto más larga es, más ancha se hace la PSF (o sea, peor es la resolución de nuestra cámara).

En el caso de la Radioastronomía (donde las longitudes de onda son larguísimas, hasta miles de veces más largas que en el óptico) este límite de difracción gana una importancia tremenda: las PSF de nuestros radiotelescopios son tan anchas, que ven el cielo completamente emborronado; como si necesitaran gafas con un montón de dioptrías.

La forma en la que los radioastrónomos salvamos este límite fundamental de la naturaleza es convirtiendo el problema en su propia solución (Be water my friend!). Explotamos las propiedades ondulatorias de la luz (que nos fastidian con la difracción) para sintetizar telescopios de tamaños titánicos (¡disminuyendo, por lo tanto, la difracción que tanto nos está fastidiando!). ¿Y cómo hacemos esto? Pues combinando las señales que llegan a distintos radiotelescopios (relativamente pequeños) que pueden estar separados por grandes distancias, de manera que generemos un telescopio virtual de tamaño arbitrariamente grande.

(a) En rojo, telescopios pequeños que forman un interferómetro; en amarillo, telescopio gigante, tan grande como el espacio que ocupan los telescopios rojos. (b) En rojo, apertura (de la pupila de entrada) del interferómetro; en amarillo, apertura del telescopio gigante. (c) PSF del telescopio gigante (muy «limpia»). (d) PSF del interferómetro (bastante «sucia», debido a su pupila llena de «zonas muertas»).

El precio a pagar por usar este «truco» de sintetizar telescopios gigantescos es que nuestro telescopio virtual gigante está lleno de «zonas muertas» (o sea, zonas donde no hay superficie colectora de luz y que, por lo tanto, no forman parte de la pupila de entrada). Esto es como si cogierais el objetivo de una cámara y lo taparais con una cartulina negra a la que le habéis hecho unos pocos agujeritos por donde dejar pasar la luz. La consecuencia de esto es que la PSF del interferómetro es extraordinariamente «sucia», en el sentido de que no es solamente un «punto gordo», sino que está contaminada con un montón de «oscilaciones» y «puntos secundarios», que hacen que las imágenes resultantes sean de muy poca calidad.

La aplicación más extrema de esta técnica interferométrica, con la que pueden sintetizarse telescopios enormes, es la llamada técnica de Interferometría de Muy Larga Base (Very Long Baseline Interferometry, VLBI), con la que el telescopio sintetizado puede ser tan grande como todo el planeta Tierra (¡o incluso más, si se usan satélites con radiotelescopios incorporados!). Quizá el ejemplo más famoso de telescopio VLBI sea el Telescopio de Horizonte de Sucesos (Event Horizon Telescope, EHT), con el que se han obtenido las primeras imágenes de las inmediaciones de agujeros negros supermasivos.

Disposición de los telescopios del EHT que participaron en las observaciones del EHT de abril de 2017.

Como los telescopios de VLBI están tan lejos unos de otros (¡hay incluso océanos enteros que los separan!), las PSF pueden llegar a ser horribles (ya que las «zonas muertas» de la pupila de entrada son grandísimas). Esto hace que necesitemos aplicar elaborados algoritmos de procesamiento de imágenes para deshacer el efecto de esas PSF tan «sucias» (una operación matemática que conocemos con el nombre de deconvolución). Los algoritmos de deconvolución en VLBI son un campo de estudio que, a día de hoy (décadas después de las primeras observaciones interferométricas), sigue siendo muy activo (a modo de ejemplo, a día de hoy estoy dirigiendo una tesis doctoral sobre un nuevo método de deconvolución dinámica).

A la izquierda, imagen «cruda» del agujero negro de M87 observado con el EHT en abril de 2017. La imagen está gravemente afectada por la «PSF sucia» del EHT. A la derecha, imagen final de M87*, para la que se aplicaron varios algoritmos deconvolutivos independientes (con los que se obtuvieron resultados equivalentes).

Pero bueno, ¿cómo somos capaces de combinar las señales que llegan a los distintos telescopios para «sintetizar» ese telescopio gigantesco? El secreto está en registrar (o sea, grabar) las señales que nos están llegando del espacio exterior para poder simular la lente de un telescopio enorme. Veamos: un telescopio refractor normal capta las ondas que llegan del espacio y las concentra (o enfoca) en un plano donde se forma la imagen del astro observado. Lo que hacemos los interferómetras es, en cambio, grabar las señales que llegan del espacio, meterlas en un ordenador y enfocarlas de forma digital (o sea, simulando la lente de un telescopio refractor en el ordenador). La lente de nuestro interferómetro es, pues, una lente virtual, que no existe en la realidad física, sino solamente en las entrañas de nuestro ordenador.

Created with GIMP

Para que esto funcione, debemos saber exactamente dónde se encuentran nuestros telescopios y dónde se encuentra la fuente observada. Y debemos saber esto con una precisión asombrosa (del orden de la longitud de onda a la que observamos). En el caso de VLBI, esto implica conocer, con precisiones casi milimétricas, las posiciones relativas entre telescopios separados por distancias intercontinentales y transatlánticas. Parece increíble, ¿verdad? ¡Pues puede hacerse!

Esquema de un interferómetro. Para poder «enfocar» en nuestro ordenador las señales que llegan a cada telescopio, debemos conocer con mucha precisión dónde están la fuente y los telescopios receptores, de manera que podamos «retrasar» las señales que llegan a cada telescopio para que el «enfoque» funcione.

Esto se hace calculando la «interferencia» entre las señales que llegan a cada telescopio. Vamos retrasando una señal respecto a la otra y calculando la amplitud de la interferencia resultante. Cuando encontramos un «pico» (o sea, una interferencia constructiva), significa que las señales que llegan a ambos telescopios están justamente en fase, con lo que… ¡Voilà! ¡Ya tenemos medido el retraso exacto de la señal entre los telescopios! ¡Y con una precisión BRUTAL (mejor que una mil-millonésima de segundo)!

Esta técnica nos permite obtener resoluciones en el cielo similares al tamaño de una pelota de golf en la Luna visto desde la Tierra y, por otra parte, también nos permite conocer las posiciones relativas entre telescopios con precisiones casi milimétricas.

En esta otra entrada del blog, os explico algunas cosas chulas sobre cómo puede usarse la técnica VLBI para estudiar la forma y movimiento de la Tierra con precisiones que quitan el hipo:

https://imarvi2.blogs.uv.es/2022/12/09/la-tierra-esta-frenando/

Y para los que queráis más información, aquí tenéis el enlace a un precioso artículo sobre VLBI publicado en la revista AstronomíA por dos grandes colegas, Paco Colomer y Jorge Rivero:

https://www.globalastronomia.com/radio-interferometria-de-muy-larga-base-vlbi/

¡Y eso es todo por ahora! ¡Nos vemos en la siguiente entrada del blog!

Jose Alberto Diaz

Un cordial saludo. Con respecto al «Retraso Shapiro», se puede «demostrar» que la causa primaria de su ocurrencia se debe a que «las masas de los cuerpos estelares no solo deforman (curvan) al Espacio-Tiempo, sino que también le modifican su Densidad Energética (Índice de Refracción). Es decir, tanto el Retraso de la Velocidad como la Ralentización del Tiempo como tal tienen una causa común»!

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


¡IMPORTANTE! Responde a la pregunta: ¿Cuál es el valor de 14 4 ?