matemáticas maths

matemáticas maths
Matemáticas de pizarra

miércoles, 3 de mayo de 2023

Arc/Pixel, binning, drizzle, dithering y cómo mejorar las fotos

    (En esta entrada describo a grandes rasgos el concepto de Arc/Pixel de una cámara CMOS o CCD conectada al tubo (telescopio), para tenerlo en cuenta antes de comprar una cámara, optimizar las fotos y no hinchar demasiado las estrellas)

  Este mundo de la astrofotografía es muy muy técnico, y no dejo de aprender cosas. Me estaba planteando la compra de una cámara CCD para liberar algo a mi Canon EOS 80D y me he encontrado con el concepto de Arc/Pixel, un auténtico desconocido antes para mí, pero que es fundamental para optimizar las fotografías (esta entrada iría destinada a astro-fotógrafos medio-avanzados).

    Sin más. La fórmula es la siguiente

$arcseg/pix=206'265*\frac{\mbox{tamaño del pixel de la cámara en micras}}{\mbox{distancia focal de nuestro telescopio en mm}}$

    Y no sólo está la fórmula anterior, sino que conviene que el resultado quede entre 1 y 2. Le pongo un par de ejemplos

    Si me quiero comprar una cámara CCD de tamaño de pixel $3'78\mu$ para un reflector  $200/1000$ (focal de 1000), me daría:

$$arcseg/pix=\frac{206'265\cdot 3'78}{1000}=0'7796$$

    y esto no es bueno al no quedar entre 1 y 2.

Supongamos que el tubo anterior va con un aplanador de campo o corrector de coma que me pasa la distancia focal de 1000 a 850 y sigo empeñado en la misma cámara CCD de tamaño de pixel $3'78\mu$; ahora me daría:

$$arcseg/pix=\frac{206'265\cdot 3'78}{1000}=0'9172$$

Aunque más cerca, sigo estando fuera de quedar entre 1 y 2.

    Sin embargo, si me quiero comprar esa misma cámara CCD de tamaño de pixel $3'78\mu$ para un refractor de focal 420, mi 72ED, me daría:

$$arcseg/pix=\frac{206'265\cdot 3'78}{420}=1'8598$$

    que sí está entre 1 y 2, por lo que ahora sí sería una buena compra.

Un último ejemplo, tengo también un maksutov de 2700 de focal para fotografía planetaria, con esa misma cámara de $3'78$, la relación sería:

$$arcseg/pix=\frac{206'265\cdot 3'78}{2700}=0'2887$$

La verdad es que está genial poder separar objetos a una distancia de un cuarto de arcosegundo, pero para esa cámara de $3'78$ micras de píxeles aún me he alejado más de esa relación óptima entre 1 y 2, ya que a mayor distancia focal, más nos alejamos por defecto.

    Como vemos, este número arcseg/pixel hace que la compra de una cámara u otra sea adecuada o no para nuestro telescopio (seguramente primero tengamos el telescopio y no la cámara), y en esta entrada voy a explicar el porqué.


    Vamos a empezar hablando del concepto de arcosegundo, después del concepto de pixel y para acabar veremos el porqué están relacionados además de por mezclar Arc/Pixel.

1 - El concepto de arcosegundo

    En matemáticas, en el sistema sexagesimal (el modo D de su calculadora, también están el modo radián, R, y el centesimal, G), una circunferencia se divide en 360º (grados), cada grado se divide en 60' (minutos) y cada minuto se divide en 60'' (segundos).

    Este usar múltiplos de 60 se lo debemos a los sumerios, y es una forma muy cómoda de trabajar porque una hora de tiempo la dividimos también en 60 minutos, y cada minuto tiene 60 segundos, por lo que no nos es algo tan extraño.

    Por ello, una circunferencia posee $360\cdot 60\cdot 60=1\,296\,000$ segundos, y media circunferencia la mitad, $648\,000$ segundos

    Si trasladamos eso al cielo nocturno y consideramos cada arco de semi circunferencia máxima (aquellas que pasan por el cenit), cada una de ellas se divide en $648\,000$ segundos, segundos de arco o arcosegundos.

    Podríamos considerar circunferencias completas horizontales, aquellas paralelas a nuestro suelo, y la mayor de ellas, la que recorre todo el horizonte si éste fuese plano, poseería $1\,296\,000$ segundos de arco, pero ello no es una contradicción; lo que quiero es hacerle comprender el tamaño del arcosegundo, y me vale cualquier semicircunferencia que pase por su cenit; abra sus brazos horizontalmente, déjelos rectos, y señale con las yemas de sus dedos el horizonte, uno frente el otro; el arco que describen sus dedos  pasando por sus dedos, sobre su cabeza y sus dedos, supone $648\,000$ segundos.

    Por cierto, ese 206265 de la fórmula anterior es el tamaño en segundos de un radián (en 360º hay $2\pi$ radianes, por lo que un radián mide aproximadamente $57.2957º$, o equivalente $57.2958\cdot 60\cdot 60=206264.88''$

    Ya sabe en teoría qué es un arcosegundo celeste... ahora bien... es algo ¿grande o pequeño? Pues la bóveda celeste es muy grande, pero casi $650\,000$ divisiones son muchas divisiones, y un segundo de arco resulta ser algo muy pequeño.

    Por ejemplo, la luna aproximadamente ocupa medio grado, o 30 minutos (esto depende, ya que la Luna a veces está más cerca de la Tierra y a veces más lejos, por ello a veces se ve más grande y a veces más pequeña), que encierran $30\cdot 60=1800$ segundos. Por ello, un segundo de arco resulta ser aproximadamente $1/1800$ del diámetro de la luna vista por usted, por lo que el arcosegundo es un valor realmente pequeño que vale para medir cosas pequeñas. 


    Si quiere otra idea del tamaño arcosegundo, tome una moneda de un euro y llévela en línea recta a 6'703 kilómetros de distancia. Su diámetro visto a esa distancia es igual al arcosegundo.

    Le pongo otro ejemplo, en la noche de hoy entro en el foro al que pertenezco, astrónomo.org, y hago una captura de pantalla de los tamaños aparentes de los planetas visibles


    El sol posee un diámetro aparente de unos 30 minutos, ya digo, similar al de la luna y ello hace tan espectaculares los eclipses de sol, pero por ejemplo Júpiter, que usted lo ve no mucho mayor que una estrella, posee un tamaño de medio minuto, 33 segundos. Vamos más allá, Mercurio, que sí se ve a simple vista como una estrella, como un punto, encierra dentro de sí 9 segundos de arco.

    Por ello, un segundo de arco es realmente una cantidad muy pequeña, tanto que el ojo humano empieza a distinguir o a separar objetos a partir de un minuto de arco aproximadamente, unas 60 veces más. Sí; la vista humana se estima que tiene un poder de separación de 1 minuto de arco (algunos afortunados menos, otros más), usted ya debe ser capaz de mirar la Luna y poder hacer con mayor o menor dificultad como 30 divisiones de la misma, minutos, pero no divisiones mayores;  somos incapaces de distinguir objetos que estén separados segundos de arco. Es realmente una medida muy pequeña.

    Hay que decir, y esto tendrá su importancia, que todas las estrellas se verían desde la Tierra con un diámetro aparente inferior a un segundo de arco, ya que están muy lejos, y no sería incorrecto decir que el tamaño aparente una estrella debe ser inferior al de Mercurio que en el cuadro anterior sólo tenía 9 segundos de arco, pero es el efecto de la atmósfera el que hace de lupa y que las veamos algo mayores, las más brillantes incluso entre 1 y 2 minutos de arco. Spoiler... ¿Le suena ese entre 1 y 2?

    Otro asunto relacionado y sigo con los spoilers... ¿porqué las estrellas titilan (centellean con un temblor ligero según el diccionario) y los planetas no? Porque la atmósfera hace que la luz de las estrellas, muy fina, no deje de moverse y cambiar de posición, mientras la luz de los planetas, un pequeño disco de varios segundos de arco es más estable a esta turbulencia atmosférica. Usted puede poner la mano debajo de un grifo de agua y puede perturbar bastante al chorro de agua pero si pone  la mano debajo de una cascada la perturbación será mínima.


2 - Los efectos de nuestra "bendita" atmósfera

    Ya sabemos el concepto de arcosegundo, y de cómo es bueno poder separar cuanto más bajo mejor, y por ejemplo, en los ejemplos que con los que empezaba la entrada, mi reflector puede teóricamente separar cualquier par de estrellas que disten más de 0'7796 arcosegundos mientras el refractor de 420 de focal necesitará que al menos estén separadas $1'8598''$, pero esto es la teoría.

Sí; la teoría, y el motivo básico es nuestra "bendita" atmósfera". Si no hubiera atmósfera, cuanto más bajo fuera el valor arcseg/pixel, pues mejor, pero como veremos, al haber atmósfera para nada es así.

Le pongo un ejemplo... le muestro una foto, procesada de Venus que hice el otro día, posiblemente mi mejor foto de Venus hasta la fecha en la que incluso se ven las bandas de nubes


    Pero para conseguir esa foto, se toma un vídeo en el que hay muchos fotogramas que se apilan (véase la siguiente entrada), y parte de vídeo del que procede la foto anterior está en el siguiente gif, en el que por cierto no había demasiada turbulencia. Era una muy buena noche.


    Pero le pongo un ejemplo de una noche con una turbulencia mucho mayor; peor enfoque y mayor vibración de la imagen. Es más, vemos que Venus acaba en posiciones que no le pertenecen (es el efecto del aire el que desplaza erráticamente  la posición que debería ocupar de la misma forma que el agua dobla la posición de una cucharilla semisumergida en un vaso).

                                            

    Con lo que quiero que se quede es con el concepto de turbulencia atmosférica, lo que se llama también jetstreamseeing, y cómo distorsiona a las estrellas, planetas... en este caso a Venus, y esto es lo que va a hacer que tener un valor arc/pixel que no esté entre 1 y 2 no sea el caso óptimo.

    Y antes de decir por qué esto es importante, tenga en cuenta lo siguiente. Cuando hacemos fotografía planetaria lo que hacemos es grabar un vídeo como los anteriores, tomamos los mejores fotogramas o aquellos que no han sido tan perturbados por la atmósfera y le pedimos al programa de apilado que haga una especie de media aritmética. Si el seeing es bueno el enfoque será mejor y habrá más fotogramas buenos.

    Pero la fotografía de cielo profundo no funciona así; no se compone de muchas fotos individuales que pueden ser clasificadas y seleccionadas o desechadas, sino que lo que hacemos es dejar la cámara abierta un rato y el sensor fotográfico lleno de píxeles va captando luz. Donde le llegan fotones se van activando en mayor medida, a más fotones más activación y el pixel quedará más claro, y donde no lleguen fotones en teoría el pixel quedaría oscuro. Esto es, es como tener una rejilla cuadrada de recipientes, cada pixel un recipiente, y a medida que van cayendo diferente gotas de agua, fotones, esos recipientes se van llenando, y a más fotones que han caído en la rejilla, píxeles más activos y claros.

    Esa es la idea para impresionar los píxeles de la cámara, ahora bien, si el seeing es malo la rejilla de la cámara de fotos va a seguir quieta, pero la información que estamos captando no, va a estar moviéndose como en el gif anterior, y en vez de caer por ejemplo en un mismo pixel de la cámara va repartirse, y por ejemplo en vez de caerle 16 gotas rojas a uno en concreto, a ese le van a caer 7, y a los 8 píxeles que lo rodean 0, 1, 1, 1, 1, 1, 2, y 2. Ello va a hacer que una imagen no sea lo intensa y lo nítida que debería haber sido, ya que la información no ha ido al sitio adecuado.


      Esa es la teoría. Todo se complicará aún más si nuestra cámara no es monocroma y la rejilla de píxeles posee incorporada una matriz de Bayer (futura entrada). Pensemos en un objeto del cielo que va a soltar 16 fotones o gotas rojas, y que éstas incluso van a caer en una celda de Bayer activa para el color rojo. Debido a la atmósfera y al menor o mayor al seeing, esos fotones no sólo van a caer en el pixel adecuado, sino en menor medida en los adyacentes que además del rojo están preparados para recibir verdes y azules, por lo que un objeto puntual intenso de color rojo va a acabar registrándose como menos intenso, rojo, verde y azul (de todos modos los objetos celestes no suelen ser tan puntuales y activarán varios píxeles, predominando su color real).


    Esa es la historia de un pixel, pero a su vez, al píxel donde debían caer 16 gotas rojas y le cayeron 7, le van a caer otras gotas que no le correspondían de los píxeles cercanos, gotas no necesariamente del mismo color que se van a convertir en rojas, por lo que además de la nitidez, todo esto va a estropear algo el enfoque que habíamos logrado al poner en estación. Los colores de alguna forma también los estaremos cambiando, a nivel pixelar, de acuerdo, pero un mar se hace a partir de todas sus gotas.

    Cuanto más tiempo tengamos abierta la fotografía, cuanta más sensibilidad ISO/gain tenga la fotografía, cuanto peor seeing tenga la atmósfera, esta mala transferencia entre píxeles será mayor, lo que redundaré en una peor fotografía y ahora si estamos en condiciones de explicar el concepto de arc/Pixel.

    Pero antes de ello, el seeing que va a hacer una noche puede predecirse por ejemplo con la aplicación Meteoblue, que posee más apartados como visión por satélites de la nubosidad, y que puede consultarse en el siguiente enlace.
    Le hago una captura del Meteoblue, donde además de más información (visibilidad de los planetas, fases lunares, puestas del sol y la luna...) nos da lo relativo al seeing esperado para esa noche y las siguientes. En la parte inferior de la página está la explicación de cada columna, La versión gratuita permite una predicción de 3 días.




3 - La importancia de los arc/pixel

    Como decía, con los dos puntos anteriores ya me veo capaz de describir la importancia de los arc/pixel. Partamos de la siguiente imagen.


    Como bien sabe, ambas se corresponden a M45 (Pléyades). Ambas se han hecho con una misma cámara CMOS con tamaño del pixel 3'78. La foto superior se ha hecho con un reflector de focal (corregida) de 850 y da una resolución de 0'91 arc/pixel. La inferior se ha hecho con un refractor de 420 y da una resolución de 1'85 arc/pixel. En ambas fotos selecciono las mismas estrellas entre Alcyone y Merope, las marco con una circunferencia, y las amplio a lo bestia hasta pixelarlas, parte de la derecha.

    Se ve que en la imagen superior las estrellas son más redondas, ya que están compuestas por más píxeles, lo cual es lógico, el tener una menor razón arc/pixel nos permite medir distancias más pequeñas y hay más píxeles para recoger la misma luz. Mírese la estrella pequeña de la segunda foto, es prácticamente un pixel y se ve menos redonda.

    Es lógico lo que se da en la imagen anterior, y las dos fotos están para mí muy bien porque recogen la nebulosidad de M45, ahora bien, y ahora viene lo fundamental; independientemente de las resoluciones y que la primera foto tenga un campo más reducido por haberse hecho a una mayor distancia focal... ¿no sería lo lógico que las estrellas en ambas fotografías se viesen como puntos al estar muy lejos y poseer un tamaño aparente inferior al arcosegundo independientemente de la distancia focal usada? Sin embargo no es así, en la primera fotografía se ven las estrellas como pequeños círculos y más grandes que en la segunda fotografía.

    ¿Qué el efecto no está mal ya que parecen más redondas en la primera foto que en la segunda y que pueden dar la sensación de estar más cerca al verse como círculos? Se lo compro, pero que también es algo menos real porque deberían ser más pequeñas y las estrellas deberían verse como puntos, pues también. Y es más, aunque las estrellas sean más simples y menos redondas en la segunda imagen, no por ello dejan de dar la sensación de redondez en la segunda foto.

    Voy a intentar explicarles el porqué de esta entrada, y hasta qué punto es importante o sólo es un asunto estético.


    Consideremos la imagen anterior, y una supuesta estrella a la que le he dado cierto contaste de color para verlo todo mejor. En la fila superior le genero con Photoshop 4 pixelados distintos, cada uno con un tamaño de píxel doble del anterior. No tengo mucho que decir, el pixelado más parecido al real es el primero.

    Ahora bien, en nuestra cámara de fotos, todos los píxeles tienen el mismo tamaño, por lo que en la fila central tomo las imágenes anteriores, pero de manera que todos los píxeles tengan el mismo tamaño aparente. El primer pixelado sigue siendo el más real, pero para representar a una estrella muy pequeña igual los otros pixelados no están tal mal.

    Para evitarle que usted tenga que alejarse, soy yo el que va a hacer muy pequeñita la fila central, y la pongo en la fila inferior a la izquierda. ¿Cuál de los 4 pixelados describe mejor la estrella? Sin duda el primero. Ahora bien ¿Cuál de ellos representa mejor a una estrella que se ve muy lejos? Pues el primero sin duda no, salvo nuestro querido Sol, las estrellas que vemos desde la Tierra son puntuales, no redondas, y si me dan a elegir, yo elegiría como representante estelar al tercer o cuarto pixelado, seguramente el cuarto, aunque sepa que el más alejado a la realidad en este ejemplo, pero igual no el más alejado de la realidad, ya que las estrellas no las vemos como discos, sino como pequeños puntos.

    Conclusión; al representar estrellas tal vez menos sea más, al menos tener menos píxeles, ya que la opción más realista con más píxeles seguramente no lo sea, y la estrella queda hinchada.

    Le pongo otro ejemplo, vamos siendo hora de que aparezca en este apartado nuestro viejo amigo seeing.

    Tengamos una estrella puntual. Tras mucho viajar por el espacio y atravesar la atmósfera, que va a funcionar como una lente, vamos a verla con un tamaño algo mayor, apreciaremos un mayor o menor brillo, su color... el hecho es que nos llega como algo más que un punto pero no porque sea su tamaño o forma real, sino porque que la atmósfera nos lo ha aumentado como un pequeño disco. Vuelvo a recobrar la imagen de Venus que puse antes.

    Si la atmósfera esa noche está así de mal y dejo una cámara abierta recopilando fotones, ese movimiento tan acusado va a hacer que la cámara no sólo tome fotones de donde debería estar la estrella, sino que como la estrella se ha movido hacia arriba, hacia abajo, hacia la izquierda... la cámara acabe registrando la luz de cuando estaba arriba, abajo, a la izquierda... ofreciéndonos un tamaño mayor de la misma. Cuanto peor sea el seeing, más sensibilidad ISO (o equivalente) tenga la fotografía, y sea de mayor duración la exposición, más posiciones va a acabar ocupando la estrella y más grande se registrará en la foto, en general no perfectamente redonda como en la imagen anterior, sino como una especie de patata casi circular ¿entiende lo que quiero decir? Si el seeing de esa noche es bueno la estrella apenas se moverá y registraremos con buena intensidad la posición y tamaño que debe ocupar, pero si el seeing es malo, la luz que ha recogido la cámara en esa toma lo hará ocupando una superficie mayor de la real, y consecuentemente menos concentrada.

    Sigamos con el ejemplo, ahora mezclando el efecto del seeing y el tamaño de píxel de nuestra cámara. En la parte de la izquierda (clara) vemos cómo recoge la estrella la rejilla de píxeles de nuestra cámara, y en la parte de la derecha (oscura), cómo quedaría la citada estrella. Podemos suponer que las dos primeras imágenes se hacen con un seeing aceptable (el disco es más pequeño) con dos tamaños distintos de sensores, uno el doble del otro, mientras en las dos últimas hay un seeing peor y también con dos tamaños distintos de sensores. En la tercera columna doy una reducción en tamaño de la segunda.



Analicemos la imagen anterior
  • En la primera fila tenemos un un arc/pixel pequeño en una noche de seeing bajo, el resultado, tercera columna es aceptable, aunque la estrella se ve redonda.
  • Un tamaño arc/pixel mayor y un seeing aceptable, segunda fila, nos da todavía una forma de estrellas más puntual.
  • Ahora bien, un tamaño arc/pixel pequeño y un mal seeing, tercera fila, hace que la estrella ocupe más espacio, se recoja en más píxeles de la cámara y aunque se vea redonda, las estrella estén más hinchadas.
  • Por último, cuarta fila, con ese mismo mal seeing y las estrellas más inestables, con un tamaño de píxel mayor vuelven a verse aceptables, quizás no tan afiladas como en la segunda opción, pero no tan mal como en la tercera.
    Como conclusión, si no disponemos de un sitio de fotografía de campo óptimo lejos de turbulencias atmosféricas, nos iremos a las dos últimas filas, y ciertamente una resolución arc/pixel baja no nos dará la mejor opción.


    De otra forma, y aquí está la clave, si el seeing que podemos tener va a hacer que las estrellas se muevan ocupando entre 1 y 2 arcosegundos ¿qué hacemos nosotros registrando tamaños inferiores al arcosegundo? Está muy bien captar más detalles, pero lo que vamos a hacer es hinchar las estrellas y perder en nitidez.

    Pero cuidado, si nos pasamos de 2 tendremos el efecto contrario, el tamaño de píxel será muy superior al tamaño aparente de la estrella, y ésta quedará reducida a poco más de un píxel


    He tomado la supuesta estrella de los ejemplos anteriores y he tomado un tamaño de pixel igual a su diámetro, y dos imágenes con el doble diámetro. En la primera de ellas, aunque no se ve muy bien, la estrella se reduce a un cuadrado de 4 píxeles solo. En las dos siguientes, en la de en medio la estrella está entre dos píxeles, y en la última está completamente contenida en 1, y ese color tan oscuro es una mezcla del oscuro del fondo con el brillante de la estrella.
    De las 3 tomas, si vemos la parte reducida, sin duda la única salvable es la primera, pero igual hemos perdido demasiada información.

    Le pongo un ejemplo extremo, vuelvo a tomar a M45 y aumento el tamaño de los píxeles, si nos fijamos en la imagen central, la inferior es demasiado agresiva, hemos perdido mucha información; las estrellas que no eran muy brillantes sencillamente se han perdido.


    Es cierto que si son muchas las fotos y después hay un apilado, lo que en una toma es un par de píxeles o una patata casi circular, al cabo de muchas tomas y apilar (véase la presente entrada) volverá a tener forma redonda, pero no conviene perder más información de la necesaria.

    Y por ello no conviene ni un arc/pixel inferior a 1, se estaría hablando de un problema de sobremuestreo (o oversampling, estrellas demasiado grandes y redondas), ni un arc/pixel superior a 2, se estaría hablando de submuestreo (o undersampling, estrellas bloqueadas resumidas en un par de píxeles). 

 Vuelvo a la imagen de M45 con la que empezaba esta sección ahora que comprendemos mejor de qué va todo.


    ¿Que considera que la primera imagen no está tan mal porque las estrellas se ven más redondas y en la vida real es así? Perfecto, yo siempre he hecho mis fotos con un arc/pixel que no llega a 1 (cámara de tamaño de píxel 3'8 y una focal reducida tras corregir la coma de 850, en definitiva una relación arc/pixel de 0'9172) y siempre me han parecido unas fotos excelentes. Le pongo dos ejemplos.



    Ahora bien, ahora que lo veo al ampliarlas, igual las estrellas están algo más hinchadas de lo necesario y la imagen podría quedar más redonda, ya que esa luz que se ha dispersado en general podría haberse concentrado más  redundando en una mayor nitidez. Le pongo otro ejemplo de M33, y aquí la verdad es que las estrellas muy puntuales sí que no parecen.


    Esta es la teoría del concepto arc/pixel, y de porqué debería quedar entre 1 y 2, para que nuestro instrumento de medición, los píxeles de la cámara no sean muy inferiores a lo que pretendemos medir u ocuparán muchos píxeles ni tampoco sean superiores, resumiendo en un par de píxeles toda una estrella.

    Un último comentario. Como decía, tengo un Maksutov para fotografía planetaria, pero me gustaría poderlo usar para fotografía de cielo profundo. Con una relación arc/pixel de $0'2887$ es cierto que lo que pille lo veré muy aumentado, pero independientemente de que clave el enfoque esa noche, estoy condenado a recoger las estrellas como discos. Además, que tenga una relación focal tan alta, f/15, hace que sea más oscuro que un reflector a f/5, por lo que necesitaré más tiempo de exposición para pillar las estrellas, lo que me supondrá mayor tiempo de guiado. Suponiendo que clave también el guiado, unos mayores tiempos de exposición no me ayudarán a que las estrellas (y el resto de lo fotografiado) no se expandan más de la cuenta. Mi Maksutov no es la mejor opción para cielo profundo, de la misma forma que un Ferrari no es el mejor coche para el París-Dakar. Sólo tendría sentido darle ese uso en una noche o lugar de observación excepcional.

    Yo, le soy sincero, hasta que no he comenzado a plantearme la compra de una cámara CCD y me he puesto a leer encontrándome con este concepto no sabía nada del mismo. Igual es que yo suelo fotografiar en noches buenas y no me había dado cuenta, pero téngalo en cuenta usted, aunque sea antes de comprarse una cámara cara


4 - ¿Y si ya tengo la cámara y el tubo comprados... qué hago?

    Bueno, si ya tiene la cámara y el tubo comprados no hay mucho margen de mejora, pero le voy a dar unos pequeños trucos relacionados con el sentido común (como siempre, no soy un experto y lo intento escribir todo desde la comprensión y la experiencia).

  • Si observa, yo no lo había hecho hasta hoy, que sus estrellas están muy hinchadas, tanto que molesta a las fotografías, plantéese fotografiar sólo en noches con un buen seeing. En estas noches su equipo sí puede rendir.
  • Minimice el tiempo de exposición o la ISO/ganancia de sus fotos, supongo que fotografía a foco primario; cuanto menos tiempo recoja cada toma, menos tiempo de recoger luz migrada
  • Si su cámara lo permite, aumente el binning (lo describo en el apartado siguiente).
  • Existen lentes que pueden aumentar y disminuir algo la focal del telescopio, por ejemplo, el aplanador de campo de mi reflector 200/1000 me quita la coma y pasa la focal de 1000 a 850, las lentes barlows pueden aumentarla... pero no espere milagros para cambiar mucho el arc/pixel.
  • Aplique herramientas en el procesado como la deconvolución. El PixInsight permite en este módulo suyo jugar con el tamaño de las estrellas, haciéndolas más o menos redondas, pero la verdad, a mí no me gusta usarlo, lo veo alterar demasiado la imagen.

¿Fascinante ¿verdad? Quien piensa que hacer una buena foto del cielo basta con conectar la cámara y disparar no tiene ni idea de qué va esto.


5 - El Binning

    Ya sabemos qué es el concepto de Arc/pixel y porqué es tan importante. Ahora bien, supongamos que ya tenemos nuestro tubo y nuestra cámara y la resolución es muy baja ¿hay algo que podamos hacer antes de fotografiar? Sí; jugar con el binning o agrupamiento si su cámara se lo permite.

    Supongamos que tenemos un sensor RGGB de $16\times 16$ píxeles, y cada pixel mide por ejemplo 1 unidad, tengo una imagen de $16\times 16=256$ píxeles cada uno de 1 unidad al cuadrado de superficie.

    El binning consiste, como dice su nombre, en agrupar los píxeles existentes. Por ejemplo, un binning $2\times 2$ consiste en de cada 4 píxeles obtener 1, en este caso de tamaño 2. Esto es, cambiaríamos los $16\times 16\times 1\times 14 por un $8\times 8\times 2\times 2$. Le pongo una imagen creo que muy clara para una cámara a color con una matriz de Bayer RGGB.

    La ventaja de esto es que duplicamos el tamaño de los píxeles, y si volvemos al ejemplo de mi reflector 200/1000 que me daba una medida arc/pixel de 0'7796  con una cámara cuyo tamaño de Pixel era de 3'78:

$$arcseg/pix=\frac{206'265\cdot 3'78}{1000}=0'7796$$

    Ahora, al hacer el binning $2\times 2$ la fórmula anterior quedaría (el tamaño de pixel ahora es de $3'78\times 2$

$$arcseg/pix=\frac{206'265\cdot 3'78\cdot 2}{1000}=1'5592$$

    Estando entre esos extremos teóricos de entre 1 y 2, y seguramente siendo la imagen más precisa, más afilada, aunque la cuarta parte de grande; lo que antes era una imagen $16\times 16$ ahora es $8\times 8$, si por ejemplo nuestra cámara nos ofrecía $6248\times 4176$ o de unos 26 megapíxeles, ahora la imagen sería de $3124\times 2088$ o de unos $6'5$ megapíxeles.

    La diferencia es que ahora si quiere aumentarla (hacerle zoom), pixelará antes. Seguramente tenga un estado de las estrellas más real, serán más pequeñas, pero al aumentar por ejemplo para imprimir, las estrellas pixelarán antes. Igual le interesa tener un tamaño de imagen mayor, con las estrellas menos reales, pero que permita aumentar la imagen con más precisión.

    De todos modos, ahora viene el concepto de Drizzle o llovizna, también relacionado con todo lo anterior. Pero cuando usted vea que sus cámaras le permiten modificar el binning, ya sabe a qué se refiere, y cómo puede ayudarle a obtener el dato arc/pixel entre 1 y 2.

    Por último existen otros binning mayores al $2\times 2$; $3\times 3$, $4\times 4$, etc. debe ser una de las especificaciones de su cámara.


6 - El Drizzle o llovizna

    Este es una técnica implementada por la NASA. Tal como dice la wikipedia: "El drizzle (o llovizna ) es un método de procesamiento de imágenes digitales para la reconstrucción lineal de imágenes submuestreadas . El método se utiliza normalmente para la combinación de imágenes astronómicas y se desarrolló originalmente para las observaciones de campo profundo del Hubble realizadas por el telescopio espacial Hubble . El algoritmo, conocido como reconstrucción lineal de píxeles variables, o informalmente como "Llovizna", conserva la fotometría y la resolución, puede ponderar las imágenes de entrada de acuerdo con la importancia estadística de cada píxel y elimina los efectos de la distorsión geométrica tanto en la forma de la imagen como en la fotometría. Además, es posible utilizar la llovizna para combinar imágenes difuminadas en presencia de rayos cósmicos."

    Esa es la idea, partir de una imagen imperfecta y corregirla de manera que tenga un mayor tamaño en píxeles y no suframos el problema de la visión y el libro (si usted toma un libro y lo pone delante de sí, si acerca el libro lo acabará viendo todo más grande, pero no más nítido; si lo pone frente sus ojos, verá las letras enormes, pero no distinguirá nada).


    Le muestro un ejemplo; es muy fácil de pasar de la foto de la izquierda a la derecha, ya que lo que hacemos es perder información, y muy difícil pasar de la foto de la izquierda a la derecha, ya que lo que hay que hacer es reconstruirla. Al proceso de pasar de la imagen de la derecha a la de la izquierda se ocuparía el drizzle, que igual no puede ser tan efectivo como en la imagen anterior, sino que hay límites  o mejoras que no vamos a poder cruzar.

    De todos modos, ya hay muchos programas que hacen un buen drizzle. Por ejemplo, si tomo una captura de pantalla del sat24 a tiempo real, [A], $11'083\times 8'056$, al aumentar la provincia de Cádiz, [B], veo los píxeles.

    Ahora bien, si con el Photoshop CC (versión 20) cambio el tamaño de la imagen y me voy, [C] por ejemplo a $44\times 31'931$ (es como hacer un binning $\frac{1}{4}\times\frac{1}{4}$, lo que he hecho es obtener una imagen 16 veces mayor, pero no se aprecia una pérdida notable de calidad, de hecho, con la misma imagen que la ampliación anterior, a $12'677\times 12'677$ veo mucho más que Cádiz, [D], y no pixelo. He conseguido aumentar artificialmente la resolución.



    Esto es, el citado Photoshop (y muchos más programas actuales que usan las llamadas redes neuronales) permiten aumentar el tamaño de la imagen y después arreglarlas de forma que sean más grandes (ocupen más Mp) sin que se note una pérdida notable de calidad, aunque lógicamente hay un  límite, de un sólo pixel no puedo generar la Capilla Sixtina, por dar un ejemplo extremo.

7 - El Dithering

    El dithering (difuminado) tiene que ver con todo lo anterior ya que está relacionado con el sensor de la cámara y de sus píxeles, si bien no tiene directamente que ver con la resolución de las imágenes, más bien con evitarle defectos.

    La idea es la siguiente, el sensor de la cámara está compuesto de píxeles, posee millones de ellos, y es lógico pensar que algunos se han estropeado, y continuamente están en color rojo (hot pixels) o apagados (blue pixels). Si la cámara no es refrigerada y las tomas son largas, los píxeles de la cámara se calentarán, pudiendo aparecer más píxeles defectuosos en esa toma.

    Da igual lo que fotografiemos, que en la posición de los hot pixels aparecerán píxeles de color una y otra vez. Pongo una imagen forzada para que vea a qué me refiero. Todas esas luces no son estrellas, sino defectos de la imagen


    El hecho es que esos defectos o falsas luces se sumarán a nuestra imágenes. Una forma de quitarlas, o cuando menos de paliarlas es en el proceso del apilado mediante las tomas darks (véase la siguiente entrada). La otra opción es el dithering.

    Imagine que hace 20 fotografías, y en todas ellas un hot pixel está en la misma posición. El programa de apilado, al ver siempre esa luz activa en la misma posición cree que es una luz propia de la imagen en cuestión y la apila con el resto, apareciendo en el resultado final.

    Ahora bien, si de una toma a la siguiente mueve un poco el campo de visión, ello es posible porque seguramente tengamos una cámara y programa de guiado conectados al ordenador que es capaz de mover la montura a nuestro antojo, puede hacer lo siguiente; entre toma y toma muevo un poco el campo de visión, sólo cuestión de segundos de arco, ahora 3 arriba, después 2 a la izquierda, 5 abajo, 4 a la derecha... no le va a mover demasiado la montura, pero lo justo para que el mismo pixel defectuoso que siempre está en la misma posición de la parrilla de píxeles del sensor fotográfico no caiga en la misma posición del fondo, tal como sugiere la siguiente imagen, en la que el pequeño círculo rojo va variando de posición respecto el fondo.



    Lo que va a suceder a la hora de apilar es que el programa se va a encontrar coincidencias; las estrellas, objetos de interés... siempre van a estar a la misma distancia/ángulos unas de otras, pero va a haber unos píxeles que ahora caen aquí, ahora allí, y que no tienen una posición fija. El programa de apilado, que le da prioridad al contenido y no al continente, va a entender que no son estrellas, sino ruido, y va a fomentar la señal de lo que se repite y desechar el resto, por eso en la imagen anterior la imagen central está más fuerte, y va a desechar lo que no, ese molesto pixel que se ha ido moviendo.

    Este proceso de ir desplazando la imagen diferentes píxeles para que los hot pixels no caigan en un mismo sitio es el dithering, que como su nombre dice, lo que hace es difuminar el ruido.

    Una cosa importante, el sensor de la cámara supongamos que es $5000\times 4000$, y que por ello podemos captar, supongamos que trabajando a $1'5\,arcseg/pixel$, justamente $7500\times 6000$ arcosegundos. Si  desplazamos la montura varios arcosegundos a la izquierda, dejaremos de ver en esa toma varios arcosegundos a la derecha, si desplazamos varios arcosegundos hacia arriba, dejaremos de verlos abajo, esto es, al hacer dithering, la parte central de la imagen estará en todas las tomas y se apilará, pero un pequeño marco que rodea a la imagen no estará tan bien; al mover la montura habremos pillado tal vez $7530\times 6012$ arcosegundos del cielo, más de lo inicialmente previsto, pero si hemos hecho 100 tomas, estas partes de los extremos tal vez sólo estén en 15 o 20, notándose de menos calidad que el resto que ha estado en todas las tomas. Esto es, el dithering es otra herramienta para quitar hot pixels además del proceso del apilado, pero perderemos una pequeña parte de las imágenes.


San Fernando, mayo de 2023

Por último, gracias a los compañeros Boreack, Madaleno, Cielooscuro e AIP del foro astronomo.org por aclararme algunas dudas.





No hay comentarios: