viernes, diciembre 26, 2008

Los gélidos calores de octubre 2008

Los activistas del cambio climático antropogénico cometen otro sospechoso error.

A mediados de noviembre de 2008, el Instituto Goddard de Estudios Espaciales (GISS = Goddard Institute for Space Studies) anunció que el mes anterior había sido el octubre más caliente registrado en la historia.

El GISS, dirigido por el Dr. James Hansen (principal aliado científico de Al Gore), es uno de los cuatro organismos responsables por el monitoreo de las temperaturas globales que son reconocidos por el Panel Intergubernamental para el Cambio Climático (IPCC = Intergovermental Panel on Climate Change) de las Naciones Unidas.

El informe sorprendió a muchos. Por todo el mundo se estaba informando sobre nevadas producidas fuera de estación, y temperaturas que descendían bruscamente, desde las grandes llanuras norteamericanas hasta China, y desde los Alpes hasta Nueva Zelanda. Por ejemplo, la agencia noticiosa oficial china había comunicado que el Tíbet había sufrido la peor tormenta de nieve de toda su historia.

Incluso en los EE.UU., la Administración Nacional Oceánica y Atmosférica (NOAA = National Oceanic and Atmospheric Administration) había registrado 63 records locales de caída de nieve, y 115 de temperaturas mínimas registradas, y por lo tanto calificó a ese mes como el 70º más cálido en los últimos 114 años.

Dr._James_Hansen

El Dr. James Hansen, responsable del “error” en los datos del GISS sobre las temperaturas de octubre 2008.

© s3.amazonaws.com

¿Cuál era entonces la explicación? Los mapas computarizados del GISS parecían mostrar algunas lecturas a lo largo que Rusia que habían sido 10º más altas de lo normal. Pero cuando los expertos redactores de dos de los blogs en inglés más importantes de escépticos sobre el calentamiento, Watts Up With That y Climate Audit, completaron un análisis detallado de los datos, realizaron un descubrimiento asombroso.

La razón de los números anómalos era que los registros provenientes de Rusia y de otras partes no se basaban en lecturas del mes de octubre: los datos del mes anterior habían sido repetidos y trasladados al mes en cuestión. ¡Estaban repetidos!

El error resultó ser tan evidente que el GISS comenzó rápidamente a revisar sus números. Esto empeoró la situación, ya que para compensar por las temperaturas más bajas, el GISS declaró haber descubierto un nuevo punto caliente en el Ártico, ¡justo en el mes en que las imágenes satelitales mostraban una recuperación tan rápida del hielo que para noviembre ya era un 30% mayor que la registrada en el mismo mes del año anterior!

Un vocero del GISS declaró que la causa del error se debía a haberse obtenido a través de otro organismo, y que el GISS no contaba con los recursos suficientes como para realizar un control de calidad efectivo sobre los datos que le suministraban.

Por supuesto, esto es una admisión increíble, ya que el IPCC toma la información del GISS para promover su teoría del calentamiento global antropogénico, y que siempre son las más citadas por los activistas por ser también las que muestran temperaturas más altas.

Por si fuera poco, el Dr. Hansen es quizás el científico más responsable por la alarma lanzada en 1988 sobre el calentamiento global con su testimonio ante un comité del senado de los EE.UU.… presidido por el mismísimo Al Gore.

Una y otra vez, el Dr. Hansen ha estado a la cabeza de las declaraciones extremas sobre los peligros del calentamiento global. Incluso, apoyó a los activistas de Greenpeace acusados por daños criminales a una usina eléctrica a carbón en Kent, aduciendo que los daños que la planta causaba al planeta superaban en mucho al daño que los activistas habían causado.

Lamentablemente, no es la primera vez que la metodología del Dr. Hansen ha sido puesta en duda. En 2007 se vio en la obligación de revisar sus datos publicados sobre las temperaturas superficiales de los EE.UU., para mostrar que en realidad la década más cálida del siglo XX no había sido la de 1990, sino la de 1930.

Dr._Rajendra_Pachauri

El Dr. Rajendra Pachauri, presidente del IPCC y divulgador de gráficas engañosas.

© www.dw-world.de/

Uno de los aliados cercanos del Dr. Hansen es Dr. Rajendra Pachauri, presidente el IPCC y antiguo ingeniero de trenes sin calificaciones en ciencia climática, quien recientemente desconcertó a una audiencia universitaria de Australia al declarar que las temperaturas globales habían estado recientemente elevándose “mucho más rápidamente” que nunca antes, mientras mostraba una gráfica que mostraba el súbito aumento en la década pasada. De hecho, como muchos de los que la escuchaban sabían muy bien, no solamente no habían estado elevándose desde el año 2000 sino que, de hecho, habían estado cayendo desde 2007.

Los activistas, los periodistas interesados y los lectores no informados pueden creer estos informes notoriamente falsos, pero evidentemente resulta temerario que los gobiernos del mundo se embarquen en algunas de las medidas económicas y políticas más onerosas y restrictivas que han sido propuestas por el IPCC, para remediar un problema que realmente puede no existir (hay evidencias de que incluso podría ser un problema de signo opuesto), y que además no es causado por la actividad humana (el CO2 antropogénico podría contribuir con un aumento de de 0,5~1,0ºC por siglo) sino que surge de las variaciones climáticas naturales provocada por agentes también naturales y que están más allá de nuestras capacidades para detenerlos, aunque sí tal vez para remediar sus efectos al menos parcialmente, si es que los identificamos correctamente.

Debemos aprender mucho más, estudiar sin preconceptos y aceptando las reglas del conocimiento científico. Y la teoría del calentamiento global antropogénico no se sostiene ante un escrutinio riguroso, por más que se encolericen los activistas que la apoyan.

# # # # # # # # # # # # # # #

”edad_de_hielo”

= = = = = = = = = = = = = = =
Fuentes utilizadas:
- NASA Wrongly (Deliberately?) Reported Hottest October.
- The world has never seen such freezing heat.
= = = = = = = = = = = = = = =

Temperaturas en descenso: ¿qué nos dicen?

Una visión estadística de la teoría del calentamiento global antropogénico.

Si el aumento de la temperatura es consistente con o es evidencia de calentamiento global, ¿qué teoría es consistente con o es evidencia de temperaturas en descenso? ¿Acaso también el calentamiento global?

Debemos realizar esta complicada pregunta porque se acaba de informar que la temperatura global promedio de este año está en camino de ser la más fría en ocho años. En otras palabras, la temperatura ha caído, y lo ha estado haciendo por un par de años.

Entonces, ¿estas temperaturas en descenso significan que el calentamiento global se ha detenido, o que es falso?

“Absolutamente no”, dijo el Dr. Peter Stott, gerente de comprensión y atribución del cambio climático en el Centro Hadley de Met Office.

También sabemos de “un equipo de científicos del clima de la universidad de Kiel” que predijo que las variaciones naturales enmascararían el calentamiento de 0,3º predicho por el Panel Intergubernamental para el Cambio Climático (IPCC por sus siglas en inglés, = Intergovernment Panel on Climate Change) a lo largo de la próxima década. Los científicos dijeron que las temperaturas globales permanecerían constantes hasta 2015, pero que entonces comenzarían a acelerarse.

Esto será complicado, y no hay muchas formas de lograr que este asunto sea fácil de comprender, de modo que sujétense.

Deberemos explorar qué significa que una evidencia sea “consistente con” o “inconsistente con” una teoría, qué significa para una teoría ser correcta o incorrecta, y qué significa ser probablemente correcta o probablemente incorrecta.

Consistencia

Supongamos, entonces, que la teoría del calentamiento global antropogénico sostiene, entre otras cosas, que la temperatura ciertamente subirá año tras año. Pero la temperatura no ascendió, y de hecho descendió. Esta evidencia es inconsistente con la teoría, de modo que la teoría es falsa porque realizó una predicción que decía que las temperaturas en descenso eran imposibles. Si se prefiere, podríamos decir que esta teoría ha sido falsada (un término de Popper de muy poca utilidad; un tema a explorar de lleno otro día).

Se ha probado que nuestra teoría de cartón es falsa. Puede entonces ser arrojada a la basura, olvidada, ignorada. ¡Los escépticos pueden regocijarse! De hecho, cualquier teoría que haga una predicción que diga “X ocurrirá seguramente (en tales y tales circunstancias), y luego que ocurra “no X”, habrá sido falsada, lo que en lenguaje común significará que está equivocada (“no X” significa “cualquier circunstancia que ciertamente sea “no X”).

Sin embargo, la teoría actual del calentamiento global antropogénico (CGA) no hace ninguna afirmación del tipo “la temperatura seguramente ascenderá año a año”. En cambio, afirma algo así como que “la temperatura probablemente subirá año a año”. Podemos llegar más lejos y decir que casi todas las afirmaciones de la teoría son declaraciones de este tipo, es decir, declaraciones de probabilidad.

Existe solamente una afirmación de certeza en la teoría CGA y es que “la humanidad influye en el clima”. Esta aseveración es trivialmente cierta. Es imposible que la humanidad no influya en el clima. Cada acción que se realice, cada vez que se respira, se modifica el clima. De hecho, podemos ampliar la afirmación y decir que “todos los organismos influyen en el clima”, y seguirá siendo verdad.

Ya que lo anterior es trivialmente cierto, las únicas preguntas interesantes son: 1) ¿Cuánto influye este o aquel organismo en el clima”, 2) ¿En qué medida esas influencias son buenas o nocivas?, y 3) ¿Puede los aspectos positivos ser magnificados y los nocivos mitigados?

Los climatólogos pasan la mayor parte de su tiempo con (1), la primera parte de (2) es generalmente ignorada, y los “activistas” hacen que su interés radique en la última parte de (3), ignorando también la primera parte. Pero nos estamos alejando de nuestra meta original. ¿Qué significan las temperaturas en descenso para la teoría CGA?

Examinemos la afirmación “la temperatura probablemente se elevará año a año”. ¿Cuáles observaciones, si es que las hay, son inconsistentes con esta aseveración? Ninguna. No hay ningún conjunto de circunstancias que pueda surgir y que directamente la contradigan. Las temperaturas pueden ascender y pueden descender, pueden descender cada año desde ahora hasta el año 3000 y la aseveración continúa sosteniéndose.

Falsabilidad

Esta es otra forma de establecer que la teoría CGA no es falsable. ¡Pero esperen! No quiero decir que esto es una debilidad de la teoría. Cualquier teoría que realice afirmaciones de probabilidad no puede ser falsada. Por lo tanto, es un error (y uno que observo a menudo) atacar a la teoría CGA porque no es falsable. ¡Por supuesto que no lo es! ¿Cuántas teorías son así, es decir, no falsables? Además de las proposiciones matemáticas, y no deseando llegar muy lejos con esto, todas las teorías que son de interés práctico para la humanidad. Cualquier teoría que se vea forzada a realizar afirmaciones probabilísticas no puede ser falsada. Y para ponerlo simplemente, esto incluye a la mayoría de las teorías con las que trabajamos en la vida real. Ya que este es el caso, debemos comprender lo que significa una aseveración probabilística, y que es lo que queremos significar con los datos “consistentes” o “inconsistentes” con tales aseveraciones.

Ahora bien, tenemos derecho a sospechar de una teoría que realiza una afirmación de que “X sucederá probablemente (en tales y tales circunstancias)” y de hecho X no ocurre. No habremos probado que la teoría es falsa, pero resultaría racional otorgar un mayor peso a la idea de que es falsa. Por lo tanto, no es irracional debilitar nuestra creencia en la teoría CGA frente al hecho de las temperaturas en descenso.

Más aún, el Dr. Stott está equivocado (no probablemente errado, o muy probablemente equivocado, sino totalmente equivocado) cuando responde “absolutamente no” a la pregunta “dado el descenso de la temperatura, ¿es menos probable que CGA sea verdadera? Pero estaría en lo correcto, exactamente en lo correcto, si contestara “absolutamente no” a la pregunta “dadas las temperaturas en descenso, ¿se ha probado que CGA es falsa? Viendo la manera en que informan los periódicos, no hay forma clara de saber a cual de estas dos preguntas estaba respondiendo el Dr. Stott.

Ya les había avisado que el asunto sería complicado. Ahora se pondrá peor, pero sigan conmigo.

¿Cuáles son las afirmaciones que se hacen?

Es muy difícil tener en mente las afirmaciones realizadas por una teoría compleja, razón por la cual cuando surge nueva evidencia, tenemos muchos discusiones diferentes sobre lo que implica esta evidencia. A causa de esto, los proponentes de las teorías controversiales están generalmente contentos por ser vagos sobre las afirmaciones que realizan. De esta forma, sin importar cuál sea la evidencia que surja, en ella podrán encontrarse argumentos a favor de la teoría. Hace unos días discutíamos esto mismo cuando hacíamos notar que las predicciones precisamente cuantificadas son difíciles de conseguir en el caso del calentamiento global.

Podríamos escuchar que “las temperaturas subirán”, pero esta es una afirmación vaga porque cuando las temperaturas descienden en un lugar en especial, el proponente puede decir “yo quería decir que subirían en otro lado”, o que “subirán en promedio”, o que “no dije que subirían siempre”.

Es por eso que los climatólogos de la universidad de Kiel pueden sostener que “la variación natural enmascararía el calentamiento de 0,3º predicho por el IPCC a lo largo de la próxima década” y que las temperaturas comenzarían a subir en 2015. Su declaración explicativa es imposiblemente vaga (decir que es “la variación natural” significa que se puede cuantificar exactamente el cambio causado por la existencia de la humanidad), pero al menos han realizado una predicción semi-cuantificable para dentro de seis años.

El IPCC también ha realizado predicciones cuantificables sobre las temperaturas globales promedio, aunque intentan introducir vaguedad al llamar “escenarios” a estas predicciones, un débil intento de evasión. Tampoco unen explícitamente la probabilidad a sus predicciones, lo que dificulta poder decir cuán correctas o incorrectas eran sus predicciones.

Para poder juzgar cuanto tenga probablemente de cierto una teoría se requieren predicciones explícitas. Por ejemplo, supongamos que la CGA hubiese realizado alguna de estas dos afirmaciones: A) “La temperatura global promedio probablemente aumentará, y B) “La temperatura global promedio posiblemente aumentará”. ¿Para cuál de estados dos afirmaciones, A o B, tendríamos menos certidumbre de que CGA es correcta?

¡Es una pregunta difícil! Intentemos comprenderla. Se puede ver que A y B difieren únicamente por las palabras “probablemente” y “posiblemente”. Supongamos que para nosotros “probablemente” significa “al menos un 90%”, y que “posiblemente” significa “al menos un 50%”.

Claramente, la afirmación B es más débil que la A. De modo que cuando surge evidencia contradictoria que la teoría que dio origen a A resulta más sospechosa que la teoría que originó B.

Los términos “probablemente”, “posiblemente”, “podría ser” y otros similares, no significan lo mismo para todas las personas. Por ejemplo, yo podría decir que “probablemente” significa “al menos 50%” y que “posiblemente” significa “al menos 90%”, de modo que llegaría a una conclusión completamente opuesta sobre la validez de la teoría en cuestión al que llegaron las otras personas.

Todo esto significa que cuanto más precisa es una predicción, más fácil resulta de juzgar, y que cuanto más vaga sea, más difícil será descartar o aceptar la teoría que la originó.

No todas las afirmaciones pueden ser cuantificadas con exactitud, pero cualquier predicción de importancia debe ser expresada claramente en términos de las decisiones o acciones que tendríamos que realizar si la afirmación fuera verdad. De modo que no es ninguna excusa el decir que “el problema es demasiado complicado como para ofrecer una predicción precisa”, porque si eso fuera verdad, entonces la teoría no tendría consecuencias prácticas, y por lo tanto podría ser ignorada. Para decirlo claramente, la teoría CGA afirma que tiene consecuencias prácticas, de modo que sus proponentes deberían poder ofrecernos predicciones más exactas.

Como dije antes, no siempre se tienen afirmaciones precisas en la CGA, aunque por supuesto a veces hay alguna, pero supongamos que la teoría afirma que “hay una probabilidad del 90% de que la temperatura global promedio aumentará año a año”. A lo largo de los últimos años las temperaturas han caído. La teoría no ha sido falsada porque la predicción únicamente mencionaba una probabilidad, una que es consistente con las temperaturas en descenso. Seremos razonables, sin embargo, si disminuye nuestra creencia en la verdad de la teoría.

Ahora supongamos que un grupo de climatólogos ofrece una teoría rival llamada “Negocios como siempre” (NCS) que realiza la predicción de que “hay un 50% de probabilidad de que aumente la temperatura global promedio”. Durante los últimos años la temperatura ha bajado. La teoría no ha sido falsada porque predice únicamente una probabilidad, una que es consistente con las temperaturas en descenso. Seremos razonables si, cuando nos ofrecen una elección entre las dos teorías, de aumentar nuestra creencia en la verdad de la teoría NCS sobre la teoría CGA porque las predicciones de la NCS estuvieron más cercanas a lo sucedido realmente. Las temperaturas cayeron, pero al decir que hay un 50% de probabilidad de que esto suceda cada año, estará más cerca de lo correcto que decir que hay únicamente un 10% de probabilidad de que esto suceda (10% = 100% - 90%).

La teoría mejor, que no está en oferta, es la que predijo que las temperaturas caerían durante los dos últimos años. Por lo tanto, ofreceré esa teoría (a la que llamaré “cariño, hace frío afuera” = CHFA) que afirma que “hay una probabilidad del 10% de que año a año aumente la temperatura global promedio”. Esta es la mejor de las tres teorías en el sentido de que sus predicciones probabilísticas estuvieron más cercanas a lo realmente acontecido. La teoría CHFA dice que hay una probabilidad del 90% (es decir 100% - 10%) de que las temperaturas caigan.

El asunto está una vez más a punto de complicarse. Asegúrese de haber comprendido toda hasta ahora, antes de seguir leyendo.

Pericia

No juzgamos a las teorías simplemente por lo bien que predicen datos futuros, sino también por la forma en que explican los datos observados. La teoría CHFA, como pueden ustedes suponer, no explica muy todos los datos previos. Los proponentes de la teoría CGA dicen que la suya sí lo hace. La teoría NCS realiza un trabajo razonable pero imperfecto cuando explica los datos históricos.

Ahora bien, que una teoría explique bien los datos del pasado no significa que explique bien los datos futuros. Esto es así porque siempre puede crearse una teoría que explique los datos pasados en forma perfecta, o casi tan cerca de la perfección como queramos estar. Esto hay que memorizarlo, especialmente si se lee cualquier artículo que utilice resultados estadísticos. Por lo tanto, dada una actuación razonable en la explicación de los datos históricos, la prueba real radica siempre en cuán bien predice datos que todavía no han sido observados (los que se definen como datos que no han sido utilizados de ninguna forma para crear la teoría).

Para ser realistas, el modelo CHFA está fuera de competencia por su rendimiento demasiado pobre sobre los datos históricos. Los dos competidores que quedan son CGA y NCS (no quiero implicar que estos son los dos únicos competidores en la vida real, sino que simplemente son los dos únicos que consideramos aquí). La competencia radica en cuán bien se comporta cada modelo para la predicción de datos futuros.

Hay algunos conceptos matemáticos que dicen que si tenemos dos o más teorías competidoras, la que está calibrada es mejor que la otra en el sentido de que cualquiera que actúe basado en información de la teoría calibrada lo haría mejor que quien actúe teniendo en cuenta la información de la otra teoría. Calibración significa que si una teoría dice “hay un Y% de posibilidad de que ocurra X”, y que por lo tanto un Y% de las veces podría ocurrir X, en efecto suceda así. Ni la teoría CGA ni la NCS están calibradas en este sentido.

Pero existe la impresión de que la teoría NCS es más simple que la teoría CGA. La teoría NCS no requiere grados avanzados para ser comprendida, y tampoco requiere enormes cantidades de computadores de muchos millones de dólares, ni necesita paneles de burócratas que se reúnen anualmente para discutirla. En cambio, la teoría CGA sí necesita todo ello; es una teoría sofisticada (no estoy utilizando esta palabra en forma sarcástica).

Podríamos esperar que, dados todo el tiempo, esfuerzo y dinero que se gasta en la sofisticada teoría CGA, pudiera vencer a la NCS en sus predicciones. Si no sucede así, si la teoría NCS vence rutinariamente a la teoría CGA, entonces sería racional darle más peso a la verdad de la teoría NCS.

Hasta ahora, al menos por todo lo que puedo ver, la teoría NCS supera a la teoría CGA en su capacidad de predicción. En realidad, es una modificación de la teoría NCS la que vence generalmente. Esa modificación dice algo así como “hay un 90% de posibilidad de que la temperatura global promedio se comporte como lo hizo el año pasado”. Esto es lo que técnicamente se conoce como persistencia (NCS(P) ).

Cuando una teoría sofisticada no puede superar ni a la teoría NCS ni a la NCS(P), se dice entonces que no tiene pericia. Si una teoría no tiene pericia, no debería ser utilizada, es decir, nadie debería basar sus decisiones basándose en esa teoría. Por lo que puedo ver, la teoría CGA no tiene pericia.

Mi única duda radica en “por lo que puedo ver”. Estoy limitado por la naturaleza inexacta de las predicciones de la teoría CGA. Ciertamente, las teorías NCS y NCS(P) son lo suficientemente precisas. Podría suceder, por ejemplo, que yo haya cuantificado mal las predicciones CGA, o que no haya comprendido exactamente cuáles son las variables físicas a las que se esta refiriendo, o que haya caracterizado erróneamente lo que implican las predicciones CGA. Por ejemplo, estoy considerando que dice que “hay una probabilidad de un 90% de que año a año aumente la temperatura global promedio”. Agradeceré cualquier corrección a mi caracterización. De hecho, todos agradeceríamos esa corrección y esperaríamos la publicación de declaraciones y predicciones precisas.

Entonces, ¿qué evidencian las temperaturas en descenso?

¿Qué sucede entonces? Ya que las temperaturas han caído, ¿qué debemos creer? No es verdad que la teoría CGA haya sido falsada, pero tampoco lo han sido las teorías NCS y NSC(P). Dada nuestra caracterización de la teoría CGA, es racional decir que nuestra creencia en ella, dadas las observaciones contradictorias, debería verse disminuida. Las teorías NCS permanecen tan ciertas como siempre, es decir, nuestras creencias en ellas no aumentan ni disminuyen, basándonos en esta nueva evidencia.

Podría ser, como ya he admitido, que nuestra caracterización de la afirmación de la teoría es equivocada. Otra caracterización fue ofrecida por el grupo de la universidad de Kiel, que posiblemente están sosteniendo que las temperaturas probablemente caerán o se mantendrán constantes hasta 2015, después de lo cual probablemente aumentarán. Digo “posiblemente” porque no queda claro cuál es su predicción exacta. Sin embargo, es posiblemente un buen resumen de ella.

Ahora bien, como las predicciones de “probablemente cayendo o permaneciendo constantes hasta 2015” son iguales a las predicciones realizadas por las teorías NCS y NCS(P), resulta obvio que la teoría de la universidad de Kiel y otras similares no tienen pericia. Es verdad que se podría decir que podrían tenerla, pero no lo sabremos hasta después del 2015.

Por mi parte, estaría contento de esperar hasta entonces para hacer algo.

Para anticipar la respuesta a esta conclusión, que discutiremos más ampliamente en alguna fecha posterior (queriendo decir no espero que esta contestación breve rebata plenamente a esa respuesta) de que si ustedes no han probado pericia, ¿porqué deberíamos hacer algo?, y si ustedes dicen que las consecuencias son demasiado horribles si no lo hacemos, preguntaría por qué también refutan el argumento de Pascal.

# # # # # # # # # # # # # # #

NOTAS Y COMENTARIOS

por Heber Rizzo

El argumento de Pascal al que se refiere el autor del artículo precedente, William M. Briggs, es una sugerencia del científico y filósofo francés Blaise Pascal. He aquí un poco más de información al respecto:

La Apuesta de Pascal): También llamada el Gambito o el Argumento de Pascal y publicada como la No. 233 de la recopilación de notas escrita durante los últimos años de vida del filósofo y publicada post-mortem con el título de “Pensées”, dice que aunque la razón no puede determinar la existencia o no de dios, una persona debería “apostar” a que ese dios existe, ya que viviendo y comportándose bajo esa suposición, tiene todo para ganar, y ciertamente nada para perder.

Blaise_Pascal

Blaise Pascal (1623-1662)

© Wikipedia

Para ser más exactos, la nota (aclaraciones agregadas) reza más o menos así: “Si se cree equivocadamente en Dios, no se pierde nada (asumiendo que la muerte es el fin absoluto”, mientras que si se cree correctamente en Dios, se gana todo (la felicidad eterna) . Pero si se descree correctamente en Dios, no se gana nada (con la muerte termina todo), mientras que si erróneamente se descree en Dios, se pierde todo (condenación eterna).

Esta sugerencia, por supuesto, ha tenido varias respuestas, tanto por ateos y escépticos como por teístas.

Por ejemplo, entre otras varias refutaciones, Theodore M. Drange dice: “Puede ser que dios no exista, y que en cambio otro ser gobierne el universo. Es ser puede molestarse enormemente e infligir un castigo infinito a quien crea en dios o que crea cualquier cosa por motivo de interés propio (como se recomiende en la Apuesta de Pascal). Por lo tanto, si una persona creyera en dios basada en esa premisa se encontraría con un montón de problemas, aún en el caso de que dios no existiera. La utilidad esperada en la situación del así creyente sería infinitamente peor que la del no creyente. Por lo tanto, la premisa es falsa”.

En su libro “El espejismo de dios”, Richard Dawkins sostiene su posición contraria de esta forma: “Supongamos que aceptamos que de hecho hay alguna pequeña posibilidad de que dios exista. De cualquier forma, se puede decir que se llevará una vida mejor y más completa si se apuesta sobre su no existencia, que si se apostara por ella y se dilapidara así un tiempo precioso en adorarlo, haciéndole sacrificios, luchando y muriendo por él, etc. ...Puedo decidir ir a la iglesia y recitar el Credo de Nicea, y puedo decidir jurar sobre un montón de biblias que creo cada palabra escrita en ellas. Pero nada de lo que haga puede hacerme creer sinceramente, si realmente no creo en él. La Apuesta de Pascal sería entonces únicamente un argumento para fingir que se cree en dios”.

Otros han argumentado también que, “habiendo más de 2 500 dioses cuya creencia está activa en la actualidad, ¿cómo saber cuál es el verdadero, y por lo tanto en cuál creer? Las posibilidades de acertar con el dios correcto, es decir, de estar en lo cierto, es de apenas 1 en 2 500, una muy mala apuesta, en realidad”.

Blaise Pascal: Matemático, físico y filósofo religioso francés, nacido en Clermont-Ferrand el 19 de junio de 1623 y fallecido en París el 19 de agosto de 1662. Fue un niño prodigio educado por su padre, un funcionario civil.

Sus trabajos iniciales fueron sobre la naturaleza y las ciencias aplicadas, donde realizó importantes contribuciones en la construcción de calculadoras mecánicas y en el estudio de los fluidos. Se lo considera el padre de las computadoras.

Clarificó los conceptos de presión y de vacío, popularizando el trabajo del italiano Evangelista Torricelli. Estudió la teoría matemática de la probabilidad, y fue también un defensor del método científico.

Una experiencia espiritual lo llevó a la filosofía y a comenzar a escribir una apología del cristianismo, llamada “Pensées” (“Pensamientos)”, de la cual solamente realizó una serie de notas y a la que nunca pudo terminar a causa de su temprana muerte, a los 39 años de edad.

# # # # # # # # # # # # # # #

”edad_de_hielo”


= = = = = = = = = = = = = = =
Artículo original: “Just what are falling temperatures evidence of?”
Autor: William M. Briggs
Fecha: Diciembre 09, 2008
Enlace con el artículo original:
aquí
IMPORTANTE: El contenido de la sección “NOTAS Y COMENTARIOS” es de responsabilidad exclusiva de Heber Rizzo, y no forma parte del artículo original.
= = = = = = = = = = = = = = =

sábado, diciembre 20, 2008

A la caza de exosatélites habitables

Las lunas de los exoplanetas gigantes comienzan a interesar a los científicos que buscan vida más allá de nuestro sistema solar.

¿Recuerdan a la mítica “luna de Endor”? Pues la imaginación hollywoodense podría haberse trasladado, finalmente, a la curiosidad científica.

Primero fueron los exoplanetas gigantes, detectados por diversos métodos indirectos. Después, hace poco, ya comenzamos las observaciones directas, con fotografías y estudios de sus atmósferas.

Ahora, parece haber llegado el momento de buscar grandes satélites en esos lejanos planetas, satélites que incluso podrían ser similares a nuestro planeta y hasta albergar vida.

Un científico del Universe College London (UCL), cuyo trabajo es financiado por el Consejo de Instalaciones Científicas y Tecnológicas (STFC = Science and Technology Facilities Council) del Reino Unido, ha calculado que esos exosatélites pueden ser descubiertos por el bamboleo de sus planetas primarios. Estos datos no solamente confirmarían la existencia del satélite, sino también deducir su masa y la distancia que lo separa del planeta que orbita, lo que a su vez determinaría la posibilidad de que puedan albergar vida.

exosatélite

Representación artística de un exoplaneta gigante con una luna habitable.

© Andy McLatchie

David Kipping, el científico en cuestión, dijo que “hasta ahora, los astrónomos solamente han examinado los cambios en la posición de un planeta mientras orbita su estrella. Esto ha hecho que sea difícil confirmar la presencia de un satélite, ya que esos cambios pueden ser causados por otros fenómenos, tales como un planeta más pequeño. Al adoptar este nuevo método y estudiar las variaciones de la posición y velocidad del planeta cada vez que pasa por frente a su estrella, obtenemos una información más confiable y generamos la capacidad de detectar una luna que tenga la masa de la Tierra alrededor de un planeta gaseoso tipo Neptuno”.

De los más de 300 exoplanetas descubiertos hasta ahora, casi 30 de ellos se encuentran en la zona habitable de su estrella (su región ”Ricitos de Oro”, como a algunos nos gusta decir), pero todos ellos son gigantes gaseosos que no pueden albergar vida, tal como la conocemos.

Pero si tienen satélites, entonces estos también estarán dentro de la zona habitable del sistema, y si esas lunas son del tipo rocoso terrestre, con un tamaño y una masa similares, entonces ellas sí tendrían el potencial de albergar vida del tipo terrestre.

De la misma forma en que el bamboleo de una estrella causado por la presencia de un exoplaneta gigante nos indica la presencia de éste, la detección de variaciones en la posición y velocidad del planeta mientras recorre su órbita serían causadas por el mismo planeta y su luna mientras giran alrededor de un centro de gravedad común. Si bien los métodos anteriores permitían a los astrónomos encontrar esas lunas, no les permitía determinar su masa o su distancia hasta el planeta.

El profesor Keith Mason, Jefe Ejecutivo del STFC, dijo que “resulta muy emocionante el que ahora podamos recoger tanta información sobre las lunas distantes, al igual que lo hacemos con los planetas lejanos. Si alguno de estos gigantes gaseosos que se encuentran más allá de nuestro sistema solar tienen lunas, como Júpiter y Saturno, hay una posibilidad de que alguna de ellas sea parecida a la Tierra”.

Con la continua aparición de nuevos métodos e instrumentos, el tema de la búsqueda de probabilidades de vida más allá del a Tierra se está haciendo cada vez más y más interesante, y quizás pronto tengamos noticias al respecto.

# # # # # # # # # # # # # # #

Ricitos_de_Oro

”¡Esta avena está demasiado caliente!”, dijo Ricitos de Oro. “¡Y esta otra está demasiado fría!”. Entonces probó el último cuenco y exclamó: “¡Ahhh, esta avena está perfecta!”, y se la comió toda.


= = = = = = = = = = = = = = =
Fuentes utilizadas:
- Universe Today
- STFC
= = = = = = = = = = = = = = =

miércoles, diciembre 17, 2008

Un rutilante ramillete de estrellas

Comunicado de Prensa ESO PR 48/08.

Este año, ESO nos regala como postal un árbol de navidad cósmico.

La estación festiva ha llegado para los astrónomos del Observatorio Austral Europeo (ESO = European Southern Observatory ) en forma de esta dramática nueva imagen. Muestra el gas que se arremolina en la región conocida como NGC 2264, un área del cielo que incluye las rutilantes burbujas azules del cúmulo estelar del Árbol de Navidad.

ESO_PR_Photo_48/08

ESO PR Photo 48/08 – NGC 2264 y el cúmulo del Árbol de Navidad.

Esta imagen de la región NGC 2264 fue creada con datos obtenidos a través de cuatro filtros diferentes (B, V, R y H-alfa) con la cámara gran angular WFI en el observatorio de La Silla, a 2400 metros de altitud sobre el desierto de Atacama, Chile, en las estribaciones de los Andes.

© ESO

NGC 2264 se encuentra a unos 2 600 años-luz de la Tierra, en la oscura constelación de Monoceros (el Unicornio), no muy lejos de la más familiar figura de Orión, el Cazador. La imagen muestra una extensión del espacio de unos 30 años-luz de diámetro.

William Herschel descubrió este objeto fascinante durante sus grandes prospecciones del cielo a fines del sigo XVIII. Notó por primera vez al luminoso cúmulo en enero de 1784 y a la parte más brillante de la visualmente más esquiva mancha de gas luminoso dos años más tarde, en Navidad.

El cúmulo es muy brillante y puede ser visto fácilmente con unos binoculares. Con un telescopio pequeño (cuyas lentes pondrán la imagen cabeza abajo) las estrellas se parecen a las centelleantes luces de un árbol de navidad. La deslumbrante estrella de la parte superior es lo suficientemente luminosa como para ser observada a simple vista. Es un sistema estelar múltiple que surgió del polvo y del gas hace apenas unos pocos millones de años.

Además del cúmulo, en el gas y en el polvo hay muchas estructuras curiosas e interesantes. En el fondo del cuadro, el oscuro rasgo triangular es la evocadora Nebulosa del Cono, una región de gas molecular inundada por la fuerte luz de los miembros más brillantes del cúmulo. La región a la derecha de la estrella más luminosa tiene una textura curiosa, como de una piel peluda, que ha llevado a denominarla como Nebulosa Piel de Zorro.

Buena parte de la imagen aparece rojiza porque las enormes nubes de gas resplandecen bajo la intensa luz ultravioleta proveniente de las energéticas estrellas jóvenes calientes. Las estrellas mismas muestran un color azul porque son más calientes, más jóvenes y más masivas que nuestro propio Sol. Una parte de esta luz azul es dispersada por el polvo, como puede verse que ocurre en la parte superior de la imagen.

Esta intrigante región es un laboratorio ideal para el estudio de cómo se forman las estrellas. Toda el área aquí mostrada es apenas una pequeña parte de una vasta nube de gas molecular que está en proceso de formar la próxima generación de estrellas.

Además del festín de objetos que se ven en esta imagen, hay muchos objetos interesantes escondidos detrás de la sombría densidad de la nebulosa. En la región que está entre la punta de la Nebulosa del Cono y la estrella más brillante en la parte superior de la fotografía hay varios caldos de cultivo donde están formándose estrellas. Incluso hay evidencia de los intensos vientos estelares de estos embriones juveniles surgiendo de las escondidas estrellas en formación.

Esta fotografía de NGC 2264, incluyendo al Cúmulo del Árbol de Navidad, fue creada con imágenes tomadas con la Cámara Gran Angular (WFI = Wide Field Imager), una cámara astronómica especializada adosada al telescopio Max-Planck Society/ESO de 2,2 metros del Observatorio de La Silla, en Chile. Localizado a casi 2 400 metros sobre el nivel del mar, en las montañas del desierto de Atacama, La Silla goza de algunos de los cielos más nítidos y oscuros de todo el planeta, lo que hace que el lugar se adapte idealmente al estudio de las profundidades más lejanas del universo.

Para lograr esta imagen, la WFI observó al cúmulo durante más de diez horas a través de una serie de filtros especiales, para poder así construir una fotografía a todo color de las enormes nubes de gas hidrógeno fluorescente.

# # # # # # # # # # # # # # #

Últimos comunicados de prensa de ESO publicados en este blog:

- ESO PR 47/08: La disección de un agujero negro supermasivo.
- ESO PR 46/08: Orbitando el centro galáctico.
- ESO PR 45/08: Exoplaneta descubierto por estudiantes.
- ESO PR 44/08: Omega Centauri, gigante reluciente de los cielos.
- ESO PR 42/08: Posible fotografía de exoplaneta en Beta Pictoris.

Observatorio_La_Silla

Observatorio de ESO en La Silla, desierto de Atacama, Chile.

© ESO


Telescopio_Max-Planck/ESO_de_2,2_metros

Telescopio Max-Planck/ESO de 2,2 metros, en La Silla, Chile.

© ESO


= = = = = = = = = = = = = = =
Artículo original: ESO Press Release 48/08.
Título: “A Sparkling Spray of Stars”
Fecha: Diciembre 16, 2008
Enlace con el artículo original:
aquí
= = = = = = = = = = = = = = =

domingo, diciembre 14, 2008

La disección de un agujero negro supermasivo

Comunicado de Prensa ESO PR 47/08.

Espejismo cósmico: una lente gravitatoria y lo que puede hacer.

Combinando una “lente de aumento” natural doble con el poder del Telescopio Muy Grande o VLT (Very Large Telescope = Telescopio Muy Grande) de ESO, los astrónomos han escudriñado las regiones interiores del disco que rodea a un agujero negro supermasivo que se encuentra a diez mil millones de años-luz de distancia. Pudieron así estudiar el disco con un nivel de detalle mil veces superior al de los mejores telescopios del mundo, proporcionando la primera confirmación observacional de los modelos teóricos prevalentes de tales discos.

ESO_PR_Photo_47a/08

ESO PR Photo 47a/08 – La Cruz de Einstein

La Cruz de Einstein y la galaxia que causan este “espejismo cósmico”, vistas por el instrumento FORS. Esta configuración en forma de cruz consiste en cuatro imágenes de una fuente muy distante, que son el resultado del efecto de lente gravitatoria predicho por Einstein. La fuente de luz es un quasar que se encuentra a 10 000 millones de años-luz de distancia, mientras que la galaxia “lente” está diez veces más cerca.

© ESO/F. Courbin et al.

El equipo de astrónomos europeos y estadounidenses estudió la “Cruz de Einstein”, un famoso espejismo cósmico. Esta configuración en forma de cruz es el resultado de una “lente cósmica” producido por una galaxia en primer plano, un efecto predicho por Albert Einstein como una consecuencia de su teoría de relatividad general.

La fuente de luz en la Cruz de Einstein es un quasar que se encuentra aproximadamente a unos diez mil millones de años-luz de distancia, mientras que la galaxia en primer plano que hace de lente se encuentra diez veces más cerca. La luz del quasar es curvada en su camino y magnificada por el campo gravitatorio de la galaxia lente.

Este efecto de magnificación, conocido como “macro-lente”, en el cual una galaxia juega el papel de una lente cósmica magnificadora o de un telescopio natural, prueba ser muy útil en astronomía ya que permite observar objetos distantes que de otra forma serían demasiado tenues como para explorar utilizando los telescopios actualmente disponibles.

“La combinación de esta magnificación natural con el uso de un gran telescopio nos proporciona los detalles más finos jamás obtenidos”, explica Frédéric Courbain, líder del programa que estudia la Cruz de Einstein con el Telescopio Muy Grande de ESO (European Southern Observatory = Observatorio Austral Europeo).

Además del efecto de lente producido por la galaxia, las estrellas de la misma actúan como lentes secundarias que producen una magnificación adicional. Esta magnificación secundaria se basa en el mismo principio que el de “macro-lente”, y como las estrellas son mucho más pequeñas que las galaxias, se lo conoce como efecto de “micro-lente”.

Como las estrellas se mueven en la galaxia lente, la magnificación micro-lente también cambia con el tiempo. Desde la Tierra, la luminosidad de las imágenes del quasar (cuatro en el caso de la Cruz de Einstein) parpadea alrededor de un valor promedio, debido al efecto micro-lente. El tamaño del área magnificada por las estrellas en movimiento es de unos pocos días-luz, es decir, comparable en tamaño con el disco de acreción del quasar.

El mecanismo de micro-lente afecta varias regiones de emisión del disco en formas diferentes, con las regiones más pequeñas siendo las más magnificadas. Como las regiones de tamaño diferente tienen también colores (o temperaturas) diferentes, el efecto neto de micro-lente es producir variaciones de color en las imágenes del quasar, además de las variaciones de luminosidad.

Al observar en detalle estas variaciones a lo largo de varios días, los astrónomos pueden medir cómo se distribuyen la materia y la energía alrededor del agujero negro que acecha dentro del quasar. Los científicos observaron la Cruz de Einstein tres veces por mes a lo largo de un período de tres años utilizando el VLT, monitoreando todos los cambios de color y luminosidad de las cuatro imágenes.

“Gracias a este conjunto único de datos, pudimos demostrar que la radiación más energética es emitida en el día-luz central a partir del agujero negro supermasivo y, lo que es más importante, que la energía disminuye con la distancia al agujero negro en una forma casi exactamente igual a la predicha por la teoría”, dice Alexander Eigenbrod, quien completó en análisis de los datos.

ESO_PR_Photo_47b/08

ESO PR Photo 47b/08 – La Cruz de Einstein, aumentada-

Acercamiento de la Cruz de Einstein, tal como fue observada por el instrumento SINFONI del VLT. SINFONI utiliza la técnica de óptica adaptable lo que elimina la distorsión atmosférica. La burbuja central es el núcleo de la galaxia lente, rodeada por las cuatro imágenes del lejano quasar.

© ESO/F. Courbin et al.

La utilización de los efectos de macro-lente y de micro-lente, unidos al ojo gigante del VLT, permitió a los astrónomos sondear regiones en escalas tan pequeñas como una millonésima de arcosegundo. Esto corresponde al tamaño de una moneda de un euro vista a una distancia de cinco millones de kilómetros, es decir, unas trece veces la distancia Tierra-Luna. “Esto es mil veces mejor de lo que puede ser obtenido utilizando técnicas normales con cualquier telescopio existente”, agrega Courbin.

La medición de la forma en que la temperatura se distribuye alrededor del agujero negro central es un logro único. Existen varias teorías para la formación y alimentación de los quasares, cada una de las cuales predice un perfil diferente. Hasta ahora, ninguna observación directa e independiente de un modelo había permitido a los astrónomos validar o invalidar cualquiera de estas teorías existentes, particularmente para las regiones centrales del quasar. “Esta es la primera medición directa y precisa del tamaño del disco de acreción del quasar con color, independiente de cualquier modelo”, concluye el miembro del equipo Georges Meylan.

# # # # # # # # # # # # # # #

Últimos comunicados de prensa de ESO publicados en este blog:

- ESO PR 46/08: Orbitando el centro galáctico.
- ESO PR 45/08: Exoplaneta descubierto por estudiantes.
- ESO PR 44/08: Omega Centauri, gigante reluciente de los cielos.
- ESO PR 42/08: Posible fotografía de exoplaneta en Beta Pictoris.
- ESO PR 41/08: Observan materia desgajada por agujero negro.

VLT

VLT de ESO en Paranal, Chile.

© ESO


= = = = = = = = = = = = = = =
Artículo original: ESO Press Release 47/08.
Título: “Astronomers Dissect a Supermassive Black Hole with Natural Magnifying Glasses”
Fecha: Diciembre 12, 2008
Enlace con el artículo original:
aquí
= = = = = = = = = = = = = = =

sábado, diciembre 13, 2008

Orbitando el centro galáctico

Comunicado de Prensa ESO PR 46/08.

Un prolongado esfuerzo de observación del área que rodea al agujero negro central de la Vía Láctea rinde resultados espectaculares.

En un prolongado estudio de 16 años y utilizando varios de los telescopios insignia de ESO, un equipo de astrónomos alemanes ha producido la imagen más detallada conseguida hasta ahora de los alrededores del monstruo que acecha en el corazón de nuestra galaxia: un agujero negro supermasivo.

La investigación ha develado los secretos ocultos de esta tumultuosa región al mapear las órbitas de casi 30 estrellas, un aumento de 500% sobre estudios previos. Una de estas estrellas ha completado ya una órbita completa alrededor del agujero negro.

ESO_PR_Photo_46/08

ESO PR Photo 46/08 – El centro de la Vía Láctea

Las regiones centrales de nuestra galaxia, la Vía Láctea, observadas en el infrarrojo por el instrumento NACO del VLT de ESO.

© ESO/S. Gillessen et al.

Al observar los movimientos de 28 estrellas orbitando alrededor de la región más central de la Vía Láctea con paciencia admirable y precisión asombrosa, los astrónomos pudieron estudiar al agujero negro supermasivo que allí se encuentra. Se lo conoce como “Sagitario A*” (se pronuncia “Sagitario A asterisco”). La nueva investigación marca la primera vez que las órbitas de tantas de estas estrellas centrales han sido calculadas con precisión y revela información sobre la enigmática formación de estos objetos, y sobre el agujero negro al que están unidas.

“El centro de la Vía Láctea es un laboratorio único donde se pueden estudiar los procesos fundamentales de la gravedad fuerte, de la dinámica estelar y de la formación de estrellas, que son relevantes para todos los otros núcleos galácticos, con un nivel de detalle que nunca será posible lograr más allá de nuestra galaxia”, explica Reinhard Genzel, líder del equipo proveniente del Instituto Max Planck de Física Extraterrestre en Garching, cerca de Munich.

El polvo interestelar que llena la galaxia bloquea nuestra visión directa en luz visible sobre la región central de la Vía Láctea, de modo que los astrónomos utilizaron longitudes de onda del infrarrojo que pueden penetrar el polvo para poder sondear la región. Si bien esto representa un reto tecnológico, bien vale el esfuerzo. “El centro galáctico alberga el agujero negro supermasivo más cercano que conocemos. Por lo tanto, es el mejor lugar para el estudio detallado de los agujeros negros”, sostiene el autor principal del artículo, Stefan Gillessen.

El equipo utilizó las estrellas centrales como “partículas de prueba” al observar como se mueven alrededor de Sagitario A*. De la misma forma en que las hojas capturadas en una ráfaga de viento invernal revelan una compleja red de corrientes de aire, el rastreo de las estrellas centrales muestra el nexo de las fuerzas que actúan en el centro galáctico.

Estas observaciones pueden ser utilizadas para inferir propiedades importantes del agujero negro mismo, tales como su masa y su distancia. El nuevo estudio demostró también que al menos un 95% de la masa que afectaba a las estrellas debía estar en el agujero negro. Por lo tanto, queda poco lugar para otra materia oscura.

“Indudablemente el aspecto más espectacular de nuestro estudio a largo plazo es que ha producido lo que ahora se considera la mejor evidencia empírica de que los agujeros negros supermasivos existen realmente. Las órbitas estelares del centro galáctico demuestran que la concentración central de masa equivalente a cuatro millones de masas solares debe ser un agujero negro, más allá de cualquier duda razonable”, dice Genzel. Las observaciones también permiten a los astrónomos definir con gran precisión la distancia que nos separa del centro de la galaxia, calculada ahora en 27 000 años-luz.

Para construir esta imagen sin paralelo del corazón de la Vía Láctea y calcular las órbitas de las estrellas individuales, el equipo debió estudiar las estrellas durante muchos años. Estos últimos resultados removedores representan 16 años de trabajo dedicado, que comenzó con observaciones realizadas en 1992 con la cámara SHARP adosada al Telescopio de Nueva Tecnología de 3,5 metros de ESO ubicado en el observatorio de La Silla, en Chile.

Posteriormente, desde 2002 se realizaron más observaciones utilizando dos instrumentos montados en el Telescopio Muy Grande (VLT) de ESO. Un total de aproximadamente 50 noches de tiempo de observación con telescopios de ESO, a lo largo de 16 años, han sido empleadas para completar este increíble conjunto de observaciones.

Este nuevo trabajo mejoró la precisión con la cual los astrónomos pueden medir las posiciones de las estrellas en un factor de seis, comparado con estudios previos. La precisión final es de 300 microarcosegundos, lo que equivale a ver una moneda de un euro desde una distancia de unos 10 000 km.

Por primera vez el número de órbitas estelares conocidas es lo suficientemente grande como para buscar en ellas propiedades comunes. “Las estrellas de la región interior tienen órbitas aleatorias, como un enjambre de abejas”, dice Gillessen. “Sin embargo, seis de las 28 estrellas orbitan el agujero en un disco. En este aspecto el nuevo estudio ha confirmado también de forma explícita trabajos anteriores en los cuales se había descubierto el disco, pero únicamente en un sentido estadístico. Movimiento ordenado más allá del mes-luz central, órbitas aleatorias más adentro… esta es la forma en que mejor se describe la dinámica de las estrellas jóvenes en el centro galáctico”.

Una estrella en particular, conocida como S2, orbita alrededor del centro de la Vía Láctea tan rápidamente que ha completado una revolución entera dentro del período de 16 años del estudio. La observación de una órbita completa de S2 representó una contribución clave para la gran precisión alcanzada y para la comprensión de esta región.

Sin embargo, todavía se mantiene el misterio sobre la forma en que estas estrellas jóvenes llegaron a estar en las órbitas que vemos hoy. Son demasiado jóvenes como para haber migrado largas distancias, pero parecería ser incluso más improbable que se hayan formado en sus órbitas actuales, donde actúan las fuerzas de marea del agujero negro. Se están planificando observaciones futuras para comprobar varios modelos teóricos que intentan resolver este acertijo.

“ESO todavía tiene mucho trabajo por delante”, dice Genzel. “Para los estudios futuros de la vecindad inmediata del agujero negro necesitamos una resolución angular mayor de la actualmente posible”.

Según Frank Eisenhauer, investigador principal del instrumental de próxima generación GRAVITY, ESO será pronto capaz de obtener esa muy necesaria resolución. “El próximo gran avance será combinar la luz de las cuatro unidades telescopio de 8,2 metros, una técnica conocida como interferometría. Esto mejorará la precisión de las observaciones en un factor de 10 a 100, sobre lo actualmente posible. Esta combinación tiene el potencial de comprobar directamente la teoría general de la relatividad de Einstein en la actualmente inexplorada región cercana a un agujero negro”.

NOTAS:

Estas observaciones son la culminación de 16 años de una larga campaña de monitoreo, comenzada en 1992 en el Telescopio de Nueva Tecnología de ESO con SHARP. Fue luego seguida en el Telescopio Muy Grande de ESO con los instrumentos NACO y SINFONI. Estos dos instrumentos se basan en el uso de la óptica adaptable, que permite a los astrónomos eliminar el efecto de distorsión de la atmósfera. Como el centro de la Vía Láctea está muy lleno de objetos, es necesario observar con la mayor resolución posible, de ahí la necesidad del uso de la óptica adaptable.

Desde el centro galáctico únicamente pueden llegar hasta nosotros señales de radio, luz infrarroja y rayos-X. Mientras que las observaciones de radio muestran principalmente gas, y los observatorios de rayos-X son sensibles a los procesos de alta energía, el infrarrojo nos permite observar a las estrellas.

Los primeros resultados obtenidos en el curso de esta campaña pueden encontrarse (en inglés) en ESO PR 17/02, ESO PR 26/03 y ESO PR 21/04.

# # # # # # # # # # # # # # #

Últimos comunicados de prensa de ESO publicados en este blog:

- ESO PR 45/08: Exoplaneta descubierto por estudiantes.
- ESO PR 44/08: Omega Centauri, gigante reluciente de los cielos.
- ESO PR 42/08: Posible fotografía de exoplaneta en Beta Pictoris.
- ESO PR 41/08: Observan materia desgajada por agujero negro.
- ESO PR 40/08: APEX examina una guardería estelar.

VLT

VLT de ESO en Paranal, Chile.

© ESO


Observatorio_La_Silla

Observatorio de ESO en La Silla, desierto de Atacama, Chile.

© ESO


= = = = = = = = = = = = = = =
Artículo original: ESO Press Release 46/08.
Título: “Unprecedented 16-Year Long Study Tracks Stars Orbiting Milky Way Black Hole”
Fecha: Diciembre 10, 2008
Enlace con el artículo original:
aquí
= = = = = = = = = = = = = = =

viernes, diciembre 12, 2008

Exoplaneta descubierto por estudiantes

Comunicado de Prensa ESO PR 45/08.

Tres jóvenes universitarios holandeses completan un excelente proyecto de investigación.

Tres estudiantes universitarios de la universidad de Leiden, en Holanda, han descubierto un planeta extrasolar. El extraordinario hallazgo, obtenido mientras realizaban su proyecto de investigación, es unas cinco veces más masivo que Júpiter. También es el primer planeta descubierto en órbita alrededor de una estrella caliente de rápida rotación.

ESO_PR_Photo_/08

ESO PR Photo 45a/08 – Un planeta alrededor de una estrella caliente.

Representación artística del planeta OBLE-TR-L9b. Girando alrededor de su estrella en unos 2,5 días, se encuentra a apenas un 3% de la distancia Tierra-Sol de su estrella. La estrella misma es la más caliente encontrada hasta ahora que posea un planeta.

© ESO/H. Zodet

Los estudiantes estaban probando un método de investigación automático de las fluctuaciones luminosas de miles de estrellas en la base de datos OGLE. Se descubrió que la luminosidad de una de las estrellas disminuía aproximadamente un uno por ciento
durante dos horas cada 2,5 días. Observaciones subsiguientes, realizadas con el Telescopio Muy Grande de ESO en Chile, confirmaron que este fenómeno era causado por un planeta que pasaba frente a la estrella, bloqueando parte de la luz estelar a intervalos regulares.

Según Ignas Snellen, supervisor del proyecto de investigación, el descubrimiento fue toda una sorpresa. “En realidad, el proyecto estaba destinado a enseñar a los estudiantes cómo desarrollar algoritmos de búsqueda. Pero lo hicieron tan bien que hubo tiempo de probar su algoritmo en una base de datos hasta entonces inexplorada. En algún punto vinieron a mi oficina y me mostraron esta curva de luz. ¡Quedé totalmente sorprendido!”.

Los estudiantes, Meta de Hoon, Remco van der Burg, y Francis Vuijsje, son muy entusiastas. “Resulta emocionante no encontrar simplemente un planeta, sino uno tan inusual como éste; resultó ser el primer planeta descubierto alrededor de una estrella de rotación rápida, sino que también es la estrella más caliente con un planeta”, dice Meta. “La computadora necesitó más de mil horas para realizar todos los cálculos”, continuó Remco.

ESO_PR_Photo_45b/08

ESO PR Photo /08 – Estudiantes descubren un planeta

De izquierda a derecha, los estudiantes universitarios Francis Vuijsje, Meta de Hoon y Remco van der Burg, descubridores del nuevo exoplaneta.

© ESO/Leiden Observatory

El planeta recibió el prosaico nombre de OGLE2-TR-L9b. “Pero entre nosotros lo llamamos ReMeFra-1, por Remco, Meta y yo”, dice Francis.

El planeta fue descubierto examinando las variaciones lumínicas de unas 15 700 estrellas que habían sido observadas por la prospección OGLE una o dos veces por noche a lo largo de cuatro años, entre 1997 y 2000.

Como los datos habían sido hecho públicos, eran un buen caso de prueba para el algoritmo de los estudiantes, que demostraron que en una de las estrellas observadas, OGLE-TR-L9, las variaciones podrían deberse a un tránsito, es decir, el pasaje de un planeta frente a su estrella. Más tarde, el equipo utilizó el instrumento GROND en el telescopio de 2,2 metros del Observatorio La Silla de ESO para continuar las observaciones y descubrir más sobre la estrella y el planeta.

“Pero para asegurarnos de que era un planeta y no una enana marrón o una pequeña estrella lo que estaba causando las variaciones lumínicas, debimos acudir a la espectroscopía, y para esto, estuvimos encantados de utilizar el Telescopio Muy Grande de ESO”, dice Snellen.

El planeta, que es una cinco veces más masivo que Júpiter, gira alrededor de su estrella central aproximadamente una vez cada 2,5 días. Se encuentra a apenas un tres por ciento de la distancia Tierra-Sol de su estrella, lo que lo hace ser muy caliente y mucho más grande que los planetas normales.

La espectroscopía también mostró que la estrella es muy caliente, casi 7 000 grados, o sea unos 1 200 grados más caliente que el Sol. Es la estrella más caliente descubierta hasta ahora que posea un planeta, y rota muy rápidamente. El método de velocidad radial, que fue utilizado para descubrir la mayoría de los planetas extrasolares conocidos, es menos eficiente con estrellas que tengan esas características. “Esto hace que el descubrimiento sea aún más interesante”, concluye Snellen.

# # # # # # # # # # # # # # #

Últimos comunicados de prensa de ESO publicados en este blog:

- ESO PR 44/08: Omega Centauri, gigante reluciente de los cielos.
- ESO PR 42/08: Posible fotografía de exoplaneta en Beta Pictoris.
- ESO PR 41/08: Observan materia desgajada por agujero negro.
- ESO PR 40/08: APEX examina una guardería estelar.
- ESO PR 39/08: Un mar de galaxias distantes.

VLT

VLT de ESO en Paranal, Chile.

© ESO


Observatorio_La_Silla

Observatorio de ESO en La Silla, desierto de Atacama, Chile.

© ESO


= = = = = = = = = = = = = = =
Artículo original: ESO Press Release 45/08.
Título: “Students Discover Unique Planet”
Fecha: Diciembre 04, 2008
Enlace con el artículo original:
aquí
= = = = = = = = = = = = = = =

domingo, diciembre 07, 2008

Las enanas marrones nacen como las estrellas comunes

Se define un viejo debate sobre el proceso de formación de estos objetos cósmicos.

enana_marrón_ISO-Oph_102

Representación artística de la enana marrón ISO-Oph 102. La enana marrón se forma acumulando material del disco de acreción que la rodea (en color naranja), y pierde momento angular al eyectar material en dos chorros opuestos (en rojo). Los arcos de choque en color azul indican el lugar donde los chorros interactúan con el medio interestelar.

© ASIA A

Las enanas marrones son objetos interesantes, y pueden ser únicamente clasificadas en una especie de periferia cósmica entre las estrellas y los planetas: son demasiado pequeñas como para ser consideradas como estrellas y demasiado grandes como para identificarlas con los planetas.

Hasta ahora, los astrónomos no habían podido estar seguros de si se formaban como estrellas, a partir del colapso gravitatorio de nubes de gas, o si se formaban como los planetas, donde el material rocoso se acumula hasta ser lo suficientemente masivo como para atraer al gas cercano.

Pero ahora ha surgido una fuerte evidencia de que las enanas marrones se forman como las estrellas comunes. Utilizando el Conjunto Submilimétrico Smithsoniano (SMA = Smithsonian's Submillimeter Array), los astrónomos detectaron moléculas de monóxido de carbono surgiendo de la enana marrón ISO-Oph 102. Este tipo de flujo molecular se observa típicamente proviniendo de estrellas jóvenes o de protoestrellas. Sin embargo, como este objeto tiene una masa estimada en 60 masas-Júpiter, es demasiado pequeño como para ser una estrella, y por lo tanto ha sido clasificado como una enana marrón, por lo cual este descubrimiento implica que las enanas marrones son más parecidas a las estrellas que a los planetas.

Típicamente, las enanas marrones tienen masas de entre 15 a 75 masas-Júpiter, y la masa mínima teórica para que una estrella pueda sustentar fusión nuclear es de 75 masas-Júpiter. Como resultado, las enanas marrones son a veces denominadas como estrellas fallidas.

Una estrella se forma cuando una nube de gas interestelar se condensa sobre sí misma a causa de la gravedad, haciéndose más densa y caliente hasta que comienza el proceso de fusión. Si la nube inicial de gas está girando, esta rotación se acelerará a medida que vaya colapsando, en forma similar a un patinador que aprieta sus brazos. Para poder seguir ganando masa, la joven protoestrella debe perder ese momento angular, y lo hace despidiendo material en direcciones opuestas, en un flujo bipolar.

enana_marrón_con_disco_de_acreción

Esta representación artística nos acerca a la enana marrón y su disco de acreción, con los dos chorros bipolares de material molecular.

© David A. Aguilar (CfA)

Una enana marrón es menos masiva que una estrella, de modo que hay menos gravedad disponible para su conformación. Como resultado, los astrónomos debatían sobre si un objeto de este tipo podía formarse de la misma forma en que lo hace una estrella común. Las observaciones previas proporcionaron indicios de que podía ser así. El fortuito descubrimiento del flujo molecular bipolar de ISO-Oph 102 ofrece la primera evidencia a favor de la formación de las enanas marrones a través del colapso gravitatorio.

“Estos hallazgos sugieren que las enanas marrones y las estrellas comunes no son diferentes por haberse creado en formas diferentes”, dijo Paul Ho, un astrónomo del Centro de Astrofísica Harvard-Smithsoniano y director de ASIAA (Academia Sinica Institute of Astronomy and Astrophysics = Instituto de Astronomía y Astrofísica de la Academia Sinica). Y continuó: “Comparten el mismo mecanismo de formación. Que el objeto termine siendo una enana marrón o una estrella común depende, aparentemente, de la cantidad de material disponible”.

El artículo sobre ISO-Oph 102 será publicado en el número del 20 de diciembre de la revista Astrophysical Journal Letters.

# # # # # # # # # # # # # # #

NOTAS Y COMENTARIOS

por Heber Rizzo

Conjunto Submilimétrico Smithsoniano (SMA): Este proyecto conjunto del Observatorio Astrofísico Smithsoniano (SAO) y del Instituto de Astronomía y Astrofísica de la Academia Sinica (ASIAA) explora el universo capturando radiación milimétrica y submilimétrica (entre 0,3 y 1,7 mm) a través de la combinación de seis antenas móviles de 6 metros de diámetro ubicadas en la cima del Mauna Kea, en Hawai, abriendo así una ventana al cosmos para el estudio de algunos de los objetos más fríos, polvorientos y distantes del universo.

Las observaciones del SMA ya han develado varios misterios. Por ejemplo, el caso de las galaxias submilimétricas, que habían sido descubiertas por el Telescopio James Clerk Maxwell, también ubicado en el Mauna Kea. Incluso las imágenes obtenidas con el Telescopio Espacial Hubble habían sido incapaces de discernir la naturaleza de estas galaxias primordiales estaban muy lejos o eran demasiado polvorientas. El SMA clarificó la situación, estableciendo que muchas de estas galaxias submilimétricas están pasando por intensos estallidos de formación estelar escondidos detrás de cantidades enormes de polvo.

Este descubrimiento sobre el origen de las enanas marrones se suma, entonces, a sus impresionantes logros.

Conjunto_Submilimétrico_(SMA)

Antenas del Conjunto Submilimétrico (SMA) sobre el Mauna Kea, Hawai.

© Jonathan Weintroub (CfA)



= = = = = = = = = = = = = = =
Artículo original: “Brown Dwarfs Form Like Stars”
Autora: Nancy Atkinson
Fecha: Diciembre 03, 2008
Enlace con el artículo original:
aquí
IMPORTANTE: El contenido de la sección “NOTAS Y COMENTARIOS” es de responsabilidad exclusiva de Heber Rizzo, y no forma parte del artículo original.
= = = = = = = = = = = = = = =

sábado, diciembre 06, 2008

Viajando en el tiempo con la supernova de Tycho

Una nueva visión de la supernova más famosa de la historia.

remanente_de_supernova_de_Tycho

Remanente de la supernova de Tycho.

© Spitzer, Chandra, Calar Alto

El 11 de noviembre de 1572 el astrónomo danés Tycho de Brahe y otros observadores del cielo vieron lo que ellos pensaron era una nueva estrella. Un objeto brillante apareció en la constelación de Casiopea, superando en luminosidad incluso a Venus, y se mantuvo allí durante varios meses, hasta que desapareció lentamente de la vista.

Lo que Tycho de Brahe había observado en realidad era una supernova, un suceso poco común en el cual la muerte violenta de una estrella despide una emisión extremadamente brillante de luz y energía. Los restos de ese evento pueden ser vistos todavía hoy como el remanente de la supernova de Tycho.

Recientemente, un grupo de astrónomos utilizó el telescopio Subaru para intentar una especie de viaje en el tiempo, observando la misma luz que Tycho de Brahe vio en el siglo XVI. Estudiaron los “ecos de luz” del suceso, en un esfuerzo de conocer más sobre la antigua supernova.

Un “eco de luz” es la radiación de la supernova original que rebota sobre las partículas de polvo que se encuentran en las nubes interestelares que la rodean, y que alcanza a la Tierra muchos años después que pasó la luz directa; en este caso, hace 436 años.

ecos_de_luz_de_la_supernova_de_Tycho

Los ecos de luz de la supernova de Tycho.

© Telescopio Subaru

Este mismo equipo utilizó en 2007 métodos similares para descubrir el origen del remanente de supernova Casiopea A. El astrónomo líder del proyecto en Subaru, Dr. Tomonori Usuda, dijo: “El uso de los ecos de luz en los remanentes de supernova es algo así como viajar en el tiempo, en el sentido que nos permite retroceder cientos de años para observar la primera luz de un evento supernova. Revivimos un momento histórico significativo y lo observamos tal como lo hizo, hace cientos de años, el famoso astrónomo Tycho de Brahe. Más importante aún, podemos ver cómo se comporta una supernova de nuestra propia galaxia desde su mismo origen”.

El 4 de septiembre de 2008, utilizando la Cámara y Espectrógrafo para Objetos Tenues (FOCAS = Faint Object Camera and Spectrograph) de Subaru, los astrónomos examinaron las firmas de los ecos de luz para ver los espectros que estaban presentes cuando estalló la supernova de 1572. Pudieron así obtener información sobra la naturaleza de la explosión original y determinar su origen y su tipo exacto, y relacionar esa información con lo que vemos actualmente en su remanente. También estudiaron el mecanismo del estallido.

Lo que descubrieron fue que el evento de la supernova de 1572 resultaba muy típico de las supernovas Tipo Ia. Comparando esta supernova con otras supernovas tipo Ia de fuera de nuestra galaxia, pudieron demostrar que la supernova de Tycho pertenece a la clase mayoritaria de las Tipo Ia normales y que, por lo tanto, es ahora la primera supernova confirmada y clasificada con precisión en nuestra galaxia.

Este hallazgo resulta significativo porque las supernovas Tipo Ia son la fuente principal de elementos pesados en el universo, y juegan un papel importante como indicadores cosmológicos de distancia, ya que como su nivel de luminosidad es siempre el mismo para este tipo de supernova, sirven como “candelas estándar”.

Para el caso de las supernovas Tipo Ia, la fuente típica es una enana blanca en un sistema binario cercano, y a medida que el gas de la estrella compañera se acumula sobre la enana blanca, esta última se comprime progresivamente hasta que al final se dispara una reacción nuclear desbocada que termina causando un estallido supernova cataclísmico.

Sin embargo, como últimamente se ha informado sobre supernovas Tipo Ia que son más luminosas en algunos casos, y menos luminosas en otros, que las estándar, las ideas sobre el mecanismo de estallido han sido puestas en debate. A los efectos de explicar la diversidad de supernovas Tipo Ia, el equipo Subaru estudió en detalle el mecanismo ocurrido en este caso.

Esta investigación de Subaru estableció la forma en que los ecos de luz pueden ser utilizados en una forma espectroscópica para el examen de un estallido ocurrido hace cientos de años. Los ecos de luz observados en ángulos diferentes con respecto a la fuente, permitieron al equipo ver a la supernova en un aspecto tridimensional.

El estudio indicó que la supernova de Tycho fue una explosión asférica/no-simétrica. En el futuro, este aspecto 3D acelerará el estudio del mecanismo de explosión supernova basado en su estructura espacial, lo que hasta ahora había resultado imposible con las supernovas distantes ubicadas en otras galaxias más allá de la Vía Láctea.

Los resultados de este estudio fueron publicados en el número del 4 de diciembre de 2008 de la revista científica Nature.

Telescopio_Subaru

Telescopio Subaru, en la cima del Mauna Kea, Hawai.

© NAOJ



= = = = = = = = = = = = = = =
Artículo original: “Astronomers ‘Time Travel’ to 16th Century Supernova”
Autora: Nancy Atkinson
Fecha: Diciembre 03, 2008
Enlace con el artículo original:
aquí
= = = = = = = = = = = = = = =

viernes, diciembre 05, 2008

Omega Centauri, gigante reluciente de los cielos del sur

Comunicado de Prensa ESO PR 44/08.

El Observatorio Austral Europeo nos ofrece otra hermosa imagen celeste.

Omega Centauri es una de las joyas más delicadas del cielo nocturno del hemisferio sur, como lo demuestra bellamente la última y sorprendente imagen de ESO. Conteniendo millones de estrellas, este cúmulo globular está localizado aproximadamente a unos 17 000 años-luz de la Tierra, en la constelación del Centauro.

ESO_PR_Photo_44/08

ESO PR Photo 44/08 – El gigante reluciente

Omega Centauri capturado en todo su esplendor por la cámara WFI del Observatorio de La Silla. La imagen muestra solamente la parte central del cúmulo, aproximadamente del tamaño de la luna llena (medio grado). El norte está arriba, y el este a la izquierda.

© ESO/EIS

Con su chispeante magnitud de 3,7 y con casi el tamaño de la luna llena, Omega Centauri es visible a simple vista desde un lugar de observación límpido y oscuro. Incluso a través de un telescopio pequeño de aficionado, el cúmulo se revela como una increíble esfera densamente compactada de estrellas relucientes. Pero los astrónomos necesitan utilizar toda la capacidad de los telescopios profesionales para descubrir los asombrosos secretos de este hermoso cúmulo globular.

Esta nueva imagen se basa en datos recogidos con la Cámara Gran Angular (WFI = Wide Field Imager) montada sobre el telescopio Max-Planck/ESO de 2,2 metros, localizado en el observatorio de La Silla, en lo alto de las áridas montañas del austral desierto de Atacama en Chile. Omega Centauri tiene unos 150 años-luz de diámetro y es el más masivo de los cúmulos globulares de la Vía Láctea. ¡Se cree que contiene algo así como diez millones de estrellas!

Omega Centauri ha sido observado a todo lo largo de la historia: tanto el gran astrónomo Ptolomeo como más tarde Johann Bayer lo catalogaron como una estrella. No fue hasta mucho después, a principios del siglo XIX, que un inglés, el astrónomo John Frederick William Herschel (hijo del descubridor de Urano), comprendió que Omega Centauri era de hecho un cúmulo globular. Estos objetos se encuentran entre las más antiguas agrupaciones estelares que se pueden encontrar en los halos que rodean a las galaxias como nuestra Vía Láctea. Se cree que Omega Centauri tiene unos doce mil millones de años de edad.

Investigaciones recientes sobre este intrigante gigante celestial sugieren que en su centro hay un agujero negro de tamaño medio. Las observaciones realizadas por el Telescopio Espacial Hubble y el Observatorio Géminis mostraron que las estrellas del centro del cúmulo se estaban moviendo a una velocidad inusual; los astrónomos concluyeron que era el efecto gravitatorio de un agujero negro masivo con una masa de aproximadamente 40 000 Soles.

La presencia de este agujero negro es apenas una de las razones por las cuales algunos astrónomos sospechan que Omega Centauri es un impostor. Algunos de ellos creen que, de hecho, es el corazón de una galaxia enana que fue destruida en su mayor parte a causa de un encuentro con la Vía Láctea. Otras evidencias apuntan a las varias generaciones de estrellas presentes en el cúmulo, algo inesperado en un cúmulo globular típico, que según se piensa contienen únicamente estrellas formadas al mismo tiempo.

Cualquiera que sea la verdad, este deslumbrante objeto celestial proporciona a los astrónomos profesionales y aficionados por igual una vista increíble en las noches oscuras y límpidas.

# # # # # # # # # # # # # # #

Últimos comunicados de prensa de ESO publicados en este blog:

- ESO PR 42/08: Posible fotografía de exoplaneta en Beta Pictoris.
- ESO PR 41/08: Observan materia desgajada por agujero negro.
- ESO PR 40/08: APEX examina una guardería estelar.
- ESO PR 39/08: Un mar de galaxias distantes.
- ESO PR 37/08: El enorme corazón de una nube color vino.

telescopio_Max_Planck/ESO

Telescopio Max-Planck/ESO de 2,2 metros.

© ESO

Observatorio_de_La_Silla

Observatorio de ESO en La Silla, desierto de Atacama, Chile.

© ESO


= = = = = = = = = = = = = = =
Artículo original: ESO Press Release 44/08.
Título: “Omega Centauri — the glittering giant of the southern skies”
Fecha: Diciembre 02, 2008
Enlace con el artículo original:
aquí
= = = = = = = = = = = = = = =