Wednesday, December 28, 2011

La misión Kepler descubre regiones anormalmente iluminadas en un planeta extrasolar del tamaño de la Tierra



El pasado 20 de diciembre, la NASA anunciaba el descubrimiento de los dos primeros planetas extrasolares de un tamaño similar a la Tierra. Ambos orbitan una estrella de características semejantes al sol, que ha sido bautizada como Kepler-20, dado que el descubrimiento ha sido llevado a cabo por la misión Kepler, destinada la búsqueda de planetas extrasolares habitables.
Los dos nuevos planetas, Kepler-20e y Kepler-20f, forman parte de un sistema con al menos cinco planetas orbitando su estrella. Kepler-20e es algo más pequeño que Venus, mientras Kepler-20f es ligeramente más grande que la Tierra (1,03 radios terrestres). Los otros tres planetas son sensiblemente mayores que nuestro mundo,  aunque más pequeños que Neptuno. Los nuevos planetas han sido descubiertos por el método de tránsito, que detecta la disminución de brillo de la estrella cuando el planeta se interpone entre ésta y la Tierra.
Ambas “exotierras” se encuentran demasiado próximas a su estrella madre como para poder albergar vida, dado que dificilmente podría conservarse agua en estado líquido debido a la alta temperatura que presentan.  Sin embargo, el espectrómetro de combinación de bandas (MSA), una de las innovaciones que incorpora el observatorio Kepler, ha revelado zonas con una luminosidad anormalmente elevada en las zonas nocturnas de ambos polos del planeta Kepler-20f, el que se encuentra más alejado de la estrella.
Tránsito de Kepler-20f sobre su estrella
Tránsito de Kepler-20f por delante de su estrella (Imagen: NASA/JPL)
Las imágenes obtenidas tradicionalmente mediante la técnica de tránsito no ofrecen detalle alguno, dado que únicamente reflejan la disminución de luminosidad de la estrella cuando el planeta se interpone entre ésta y el telescopio. Por ello, este metodo resulta más fiable cuanto mayor tamaño presenta el planeta, por lo que la detección de cuerpos de un diámetro terrestre es mucho más complejo; a no ser que se encuentren muy cerca de la estrella madre, como es el caso de Kepler-20e y Kepler-20f.
Hasta aquí, el descubrimiento ya representa un hito en la búsqueda de exoplanetas habitables, dado que se trata de los primeros cuerpos de tamaño terrestre que han sido confirmados. Sin embargo, los resultados presentados ayer por la agencia espacial norteamericana han revelado una importante sorpresa: también por primera vez, nos hemos podido asomar a la superficie de un planeta extrasolar, aunque haya sido de forma muy limitada.
Esto ha sido posible mediante una nueva técnica de análisis espectral denominada MSA (análisis multiespectral de combinación de bandas), capaz de combinar digitalmente en una única imagen distintas longitudes de onda con un desplazamiento asincrónico, lo cual permite visualizar de forma artificial aquella radiación que resulta invisible al ojo humano (como el infrarrojo o incluso las ondas de radio), junto con el espectro de luz visible.
Dado que la única parte del cuerpo planetario que resulta visible desde la Tierra durante el tránsito es la cara que queda hacia nuestro planeta, esta región es la única que puede ser analizada. El problema consiste en que precisamente esta parte se encuentra siempre sumida en la oscurdad, ya que lo que en realidad estamos viendo es un eclipse estelar.
En estas condiciones, el análisis multiespectral puede permitir el estudio de una hipotética atmósfera del planeta, llegando incluso a detectar trazas de oxígeno u otros elementos atmosféricos relacionados con la vida. Sin embargo, el sensor de la Kepler ha captado algo más sorprendente: unos patrones irregulares de lo que parece ser iluminación anómala en la cara oscura de Kepler-20f.
Imagen compuesta mediante MSA de Kepler-20f en tránsito sobre su estrella.
Kepler-20f en tránsito sobre su estrella. Imagen obtenida por extrapolación digital mediante análisis multiespectral de combinación de bandas. (Foto: NASA/JPL)
Con objeto de aumentar la resolución, el equipo investigador realizó una composición a partir de 1.200 imágenes tratadas, lo que reveló que la distribución de supuestos puntos luminosos no sigue un patrón regular o esperable de una disposición al azar, por lo que la primera posibilidad de que se estuvieran registrando reflejos atmosféricos ha sido prácticamente descartada, según los autores.
Composición digital en falso color de varias imágenes obtenidas mediante MSA.
Composición digital en falso color de varias imágenes obtenidas mediante MSA.
El comunicado publicado por la NASA no adelanta ninguna interpretación sobre estas anomalías, señalando que “son necesarios muchos más análisis y el registro de un numero más elevado de imágenes para poder establecer alguna hipótesis de trabajo“, para lo cual “es preciso esperar al próximo tránsito de Kepler-20f por delante de su estrella, lo que tendrá lugar el próximo 8 de enero, al ser su período orbital de 19,5 días“.
Sin embargo, algunos miembros del equipo investigador han sido algo más aventurados, adelantando una posibilidad que sin duda alguna está en la mente de todos: ¿Podría el observatorio Kepler haber registrado la primera señal de una civilización extrasolar?. Donald W. Murray, uno de los astrofísicos de la misión, opina que “la distribución no azarosa de estas marcas luminosas es compatible con estructuras iluminadas de forma artificial con gran magnitud, lo que podría significar el mayor descubrimiento de la historia de la humanidad: una civilización tecnológica en un planeta distinto a la Tierra“.
Como señala el propio Dr. Murray, “en un planeta tan próximo a su estrella únicamente existe posibilidad de encontrar ambientes que permitan el mantenimiento de la vida en las regiones polares, donde la radiación solar se ve muy atenuada, especialmente si el eje de rotación planetario es completamente perpendicular a la eclíptica o si el movimiento de traslación se encuentra sincronizado con el de rotación, de tal forma que el planeta siempre ofrece la misma cara hacia la estrella, como ocurre con nuestro Mercurio. En este caso, las temperaturas de la cara oscura serían mucho más suaves, especialmente en los polos“.
Un dato que aún hace más apasionante esta hipótesis es que el observatorio Kepler no localizó la estrella Kepler-20 de forma accidental, sino que dirigió su mirada hacia el punto de origen de una legendaria transmisión de radio registrada en 1977 por el telescopio Big Ear de la Universidad Estatal de Ohio, dentro del programa SETI de búsqueda de inteligencia extraterrestre. Esta señal, de 72 segundos de duración, es conocida internacionalmente como señal “WOW”, por la anotación que el entonces profesor Jerry R. Ehman realizó al margen del registro en papel contínuo de la que ha sido hasta ahora la única candidata a señal emitida por una inteligencia extraterrestre.
Recreación artística de los polos Norte (izquierda) y Sur (derecha) de Kepler-20f
Recreación artística de los polos Norte (izquierda) y Sur (derecha) de Kepler-20f

Tuesday, October 04, 2011

El tiempo no es la cuarta dimensión ni fluye por su propia cuenta: Fisicos


Los científicos en el Centro de Investigación Científica Bistra en Ptuj, Eslovenia, han teorizado que la idea newtoniana del tiempo como una cantidad absoluta que fluye por su propia cuenta, junto con la idea de que el tiempo es la cuarta dimensión del espacio-tiempo, son incorrectas. Se propone sustituir estos conceptos de tiempo con el fin de que se correspondan más exactamente con el mundo físico: el tiempo como una medida de la orden numérico de cambio.

En dos artículos recientes en Ensayos de Física, Amrit Sorli, Fiscaletti Davide y Klinar Dusan, comienzan explicando la forma en que suele asumirse que el tiempo es una cantidad absoluta física que desempeña el papel de la variable independiente (tiempo, t, es a menudo el x- en los ejes en las gráficas que muestran la evolución de un sistema físico).

Pero, como señalan los autores, nunca realmente se puede medir t. Lo que hacemos es medir la frecuencia de un objeto y su velocidad. Pero, por sí mismo, t sólo tiene un valor matemático, y no la existencia física primaria.

Este punto de vista no significa que el tiempo no existe, pero más bien que el tiempo tiene más que ver con el espacio que con la idea de un tiempo absoluto.

Así, mientras que el espacio-tiempo de 4D es por lo general se considera que consta de tres dimensiones espaciales y una dimensión del tiempo, la vista de los investigadores sugiere que es más correcto imaginar el espacio-tiempo de cuatro dimensiones del espacio. En otras palabras, como se suele decir, el Universo es “atemporal”. “el espacio de Minkowski no es 3D + T, es 4D”, escriben los científicos en su artículo más reciente.

“El punto de vista que considera el tiempo como una entidad física, en el que se produzcan cambios sustanciales es aquí sustituido por una visión más conveniente de momento, por el orden numérico de cambio de material. Esta visión se corresponde mejor con el mundo físico y tiene más poder explicativo en la descripción de los fenómenos físicos inmediatos: la gravedad, la interacción electrostática, la transferencia de información por el experimento EPR ??son fenómenos físicos efectuados directamente por el espacio en el que ocurren los fenómenos físicos “.

“La idea del tiempo como la cuarta dimensión del espacio no trajo grandes avances en la física y está en contradicción con el formalismo de la relatividad especial “, dijo. “Ahora estamos desarrollando un formalismo del espacio 3D cuántico basado en el trabajo de Planck. Parece que el Universo está en 3D tanto a nivel macro como a nivel micro con el volumen de Planck, que por el formalismo es en 3D.

En este espacio 3D no hay “contracción de la longitud,” no hay “dilatación del tiempo”. Lo que realmente existe es que la velocidad de cambio del material es “relativo” en el sentido de Einstein. ” Los investigadores dan un ejemplo de este concepto de tiempo imaginando un fotón que se mueve entre dos puntos en el espacio. La distancia entre estos dos puntos se compone de las distancias de Planck, cada una de ellas es la distancia más pequeña en que el fotón se puede mover. (La unidad fundamental de este movimiento es tiempo de Planck.)

Cuando el fotón se mueve una distancia de Planck, se mueve exclusivamente en el espacio y no en el tiempo absoluto, explican los investigadores. El fotón puede considerarse como el movimiento del punto 1 al punto 2, y su posición en el punto 1 “antes de” su posición en el punto 2 en el sentido de que el número 1 se presenta antes que el número dos en el orden numérico.

El Orden numérico no es equivalente al orden temporal, es decir, el número 1 no existe antes de que el número 2 en el tiempo, sólo numéricamente. Sin necesidad de utilizar el tiempo como la cuarta dimensión del espacio-tiempo, el mundo físico puede ser descrito con mayor precisión. Como dice el físico Enrico Prati quien señaló en un reciente estudio, que la dinámica de Hamilton (ecuaciones de la mecánica clásica) es robusta bien definida sin el concepto de tiempo absoluto.

Otros científicos han señalado que el modelo matemático del espacio-tiempo no se corresponde con la realidad física, y proponen que un eterno “espacio de estado” proporciona un marco más preciso. Los científicos también investigaron la falsabilidad de las dos nociones de tiempo. El concepto de tiempo como la cuarta dimensión del espacio – como una entidad física fundamental en el que un experimento se produce – pueden ser falsificados por un experimento en el que el tiempo no existe, según los científicos.

Un ejemplo de un experimento en el que el tiempo no está presente como una entidad fundamental es el experimento de Coulomb, matemáticamente, este experimento se lleva a cabo sólo en el espacio. Por otro lado, en el concepto del tiempo como un orden numérico de los cambios que tienen lugar en el espacio, el espacio es la entidad fundamental de física en la que un experimento dado se produce.

Aunque este concepto puede ser falsificado por un experimento en el que el tiempo (medido por los relojes) no es el orden numérico de cambio de material, cuando un experimento todavía no se conoce. “La teoría de Newton sobre el tiempo absoluto no es falsable, no se puede probar o refutar que – usted tiene que creer en ella “, dijo Sorli.
“La teoría del tiempo como la cuarta dimensión del espacio es falsable y en nuestro último artículo podemos probar que hay fuertes indicios de que podría estar equivocada. Sobre la base de datos experimentales, el tiempo es lo que medimos con relojes: con relojes que miden el número de orden de cambio de material, es decir, el movimiento en el espacio “.
Además de proporcionar una descripción más precisa de la naturaleza de la realidad física, el concepto del tiempo como un orden numérico de cambio también puede resolver la paradoja de Zenón sobre Aquiles y la tortuga. En esta paradoja, el más rápido de Aquiles le da a la tortuga una ventaja en la carrera. Pero a pesar de Aquiles puede correr diez veces más rápido que la tortuga, nunca puede superar la tortuga, ya que, por cada unidad de distancia que Aquiles corre, la tortuga también recorre un décimo de esa distancia.

Así que cuando Aquiles llega a un punto donde la tortuga ha pasado, la tortuga también se ha movido un poco hacia delante. A pesar de la conclusión de que Aquiles nunca podrá superar la tortuga. ello es evidentemente falso, hay muchas explicaciones diferentes proponen por qué el argumento es erróneo.

La paradoja puede ser resuelta mediante la redefinición de velocidad, de modo que la velocidad de los dos corredores se deriva del orden numérico de su movimiento, en lugar de su desplazamiento y dirección en el tiempo. Desde esta perspectiva, el movimiento de Aquiles y la tortuga en el espacio es único, y Aquiles puede superar la tortuga en el espacio, aunque no en tiempo absoluto.

Algunos estudios recientes han cuestionado la teoría de que el cerebro representa el tiempo con una interna “reloj” que emite las garrapatas neural ( el “marcapasos-acumulador” del modelo) y sugieren que el cerebro representa el tiempo de una manera distribuida espacialmente, mediante la detección de la activación de diferentes poblaciones neuronales.

A pesar de que percibimos los acontecimientos que se produzcan en el futuro el pasado, presente, o, estos conceptos sólo pueden ser parte de un marco psicológico en el que experimentamos cambios materiales en el espacio.

Nobel de Física para descubridores de la aceleración en la expansión del universo

El Premio Nobel de Física ha sido concedido a los estadounidenses Saul Perlmutter, Brian P. Schmidt y Adam G. Riess por el descubrimiento de la aceleración en la expansión del universo a través de la observación de supernovas distantes.

fisicanobel

¿Cómo terminará el mundo?. Algunos creen que en fuego, otros creen en hielo, pero si todo va de acuerdo a lo que plantean los galardonados con el Nobel de Física de este año, todo terminará en hielo porque el universo se expande a una tasa sumamente acelerada.

El universo se empezó a expandir hace unos 14,000 millones de años, tras el Big Bang, a partir de entonces, su velocidad de expansión se fue reduciendo paulatinamente. Sin embargo, unos miles de millones de años después, repentinamente todo cambió y el universo empezó a acelerar su velocidad de expansión.

Este incremento en la tasa de expansión implica que el universo está siendo empujado de alguna manera, pero ¿cómo?, si todo lo que vemos allá afuera son estrellas y galaxias, quienes por su gran masa y su fuerza gravitacional deberían impedir que dicha tasa de expansión aumente, es más, la gravedad debería atraerlas unas a otras. Es aquí donde nace el concepto de energía oscura, la cual se cree que conforma el 70% de toda la energía del universo y hasta ahora la física no ha podido entenderla ni explicarla.

La expansión del universo ya se conocía desde los años 1920’s, cuando Vesto Slipher,  Carl Wirtz, Knut Lundmark,  Georges Lemaître y Edwin Hubble lo descubrieron en el Telescopio del Monte Wilson —el más potente de la época. Sin embargo, en el año 1998 se publicaron dos artículos independientes con resultados similares los cuales remecieron los cimientos de la cosmología. Saul Perlmutter, líder del Supernova Cosmology Project instaurado en el año 1988 y Brian Schmidt líder del High-z Supernova Search Team, proyecto competidor instaurado en 1994 donde también investiga Adam Riess, se pusieron a hacer un mapa del universo usando como puntos de referencia las supernovas —explosión de estrellas— más distantes.

Usando potentes telescopios, los investigadores establecieron la distancia de las supernovas y la velocidad a la que se alejan de nosotros, y con estos datos, pretendieron predecir el destino del universo. Ellos esperaban encontrar que la tasa de expansión del universo se hacía cada vez más lenta, tal como lo habían propuesto otros astrofísicos del pasado. Su sorpresa fue grande cuando encontraron el efecto opuesto —el universo se expandía cada vez más rápido.

universo-expansion

Cuando Einstein propuso la Teoría General de la Relatividad en 1915, plantó los cimientos de un universo dinámico —o bien se expandía o bien se contraía. Esta inquietante conclusión llegó una década antes del descubrimiento de la expansión del universo por Hubble y sus colegas. A Einstein le perturbaba saber que el universo no era estático, así que para poner un freno a dicha expansión añadió una constante a sus ecuaciones, algo que más tarde se arrepintió y lo consideró como uno de los mayores errores de su vida. Quién iba a pensar que con las observaciones publicadas en 1998 por los galardonados del presente Nobel de Física, la constante cosmológica puesta por razones equivocadas por Einstein sería, en realidad, una genialidad.

Existen tres formas de ver el universo: abierto, cerrado y plano. En un universo abierto, la fuerza gravitacional de las estrellas y galaxias no es lo suficientemente fuerte como para impedir que el universo se expanda, se diluya, volviéndose cada vez más frío y vacío. En un universo cerrado, la fuerza gravitacional es lo suficientemente fuerte como para revertir su expansión, todo se vuelve a acercar y condensar hasta formar algo opuesto al Big Bang, o sea, un “Big Crunch”. Un universo plano es la forma más sencilla de ver el Universo, donde la expansión se reduce poco a poco. Pero, con la presencia de una constante cosmológica, así se considere un universo plano, la tasa de expansión seguirá en aumento.

Los galardonados con el Nobel de este año, en realidad, quisieron medir la tasa a la que la velocidad de expansión del universo se reducía, pero a diferencia de los estudios realizados en los años 1920’s, los cuales usaban un tipo de estrellas conocidas como cefeidas para establecer las distancias y velocidades de movimiento, los laureados usaron las supernovas porque estas grandes explosiones estelares podían ser captadas a mayores distancias que las estrellas, profundizando el campo de visión a lugares más recónditos del universo. Las supernovas, en pocas semanas, pueden emitir más luz que toda una galaxia entera. 

La técnica empleada por los equipos de investigación era “relativamente sencilla”. El truco era comparar dos fotos de la misma porción del cielo y analizar cada uno de los puntos brillantes que hay en ellas con el fin de encontrar diferencias mínimas entre ellas —tan sólo un píxel de diferencia era más que suficiente— para así identificar galaxias o supernovas que se movían una con respecto a la otra [Figura inferior]. Los investigadores sólo consideraron en los datos a las supernovas distantes y en base a las imágenes les calcularon la velocidad a la cual se alejaban unas de otras.

universo-expansion2

A pesar de lo sencilla e inteligentes de la técnica, el proceso fue un dolor de cabeza para los investigadores. El principal problema fue extraer la luz de fondo de las galaxias que las albergaban, las cuales interferían con la luminosidad propia de la supernova. Además, debían hacer las correcciones de luminosidad porque el polvo cósmico que hay entre la supernova y nuestro planeta las opacaba.

Finalmente, los resultados tomados de 50 supernovas distantes mostraron que luz de las supernovas eran más tenues de los esperado, lo que indicaría que el universo no sólo se estaba expandiendo, sino lo hacía cada vez más rápido. Entonces, debía haber una energía oscura responsable de este proceso. Fue así que se reconsideró la constante cósmica propuesta y rechazada por el mismo Einstein. Cuando Einstein la propuso, consideraba a esta constante como una fuerza anti-gravitacional que evitaba que el universo se expanda manteniéndolo estático. Sin embargo, si el valor de esta constante es mayor a lo considerado previamente, todo cambia!, y en vez de mantener todo en equilibrio, hace que la velocidad de expansión del universo se acelere.

Pero ¿por qué en los primeros miles de millones de años de vida del universo, éste parecía reducir su velocidad de expansión, y de pronto, empezó a acelerarla?. Los investigadores creen que hace unos 6,000 millones de años, la fuerza gravitacional generada por la materia ya no era lo suficientemente fuerte como para reducir la velocidad de expansión del universo porque las distancias entre estrellas y galaxias ya sería muy grande. Es así que en este punto, la misteriosa energía oscura fue superior a la fuerza gravitacional, y el universo empezó a acelerar su velocidad de expansión.

Por ahora no se sabe mucho acerca de la energía oscura, solo se estima que conforma las 3/4 partes del universo. Por su parte, la materia de la cual estamos hechos nosotros, los planetas, las estrellas, nebulosas y galaxias, sólo comprende el 5% del universo, el otro 20% es la materia oscura, la cual también desconocemos y sólo sabemos de ella a través del efecto que causan sobre la materia. En otras palabras, desconocemos el 95% de todo el universo que nos rodea y gracias a los galardonados con el Nobel en Física de este año, sabemos algo más de ese misterioso 95%.

Monday, October 03, 2011

ALMA abre los ojos

El telescopio más poderoso del mundo en longitudes de onda milimétricas y submilimétricas comienza sus operaciones científicas y muestra su primera imagen

El observatorio astronómico terrestre más complejo del mundo, el Atacama Large Millimeter/submillimeter Array (ALMA), abrió oficialmente sus puertas a los astrónomos. La primera imagen revelada por este telescopio, que aún se encuentra en construcción, ofrece una vista del universo imposible de obtener con los telescopios que observan luz visible e infrarroja. Miles de científicos de todo el mundo han competido para estar entre los primeros investigadores que podrán explorar algunos de los más oscuros, fríos y ocultos secretos del cosmos con esta nueva herramienta astronómica.


Galaxias de las Antenas © Crédito: ESO

Alrededor de un tercio de las 66 antenas de radio previstas de ALMA –por ahora ubicadas a solo 125 metros de distancia entre sí, aunque su separación máxima puede alcanzar los 16 kilómetros– conforman el creciente conjunto instalado actualmente a 5000 metros de altura en el llano de Chajnantor, en el norte de Chile. Pese a estar aún en construcción, ALMA ya es el mejor telescopio de su clase, como lo demuestra la extraordinaria cantidad de astrónomos que solicitó tiempo de observación con ALMA.

“Incluso en esta fase tan temprana, ALMA ya supera a todos los conjuntos submilimétricos que existen. Alcanzar este hito es un homenaje al notable esfuerzo de muchos científicos e ingenieros de regiones de todo el mundo asociadas con ALMA, quienes hicieron esto posible”, dijo Tim de Zeeuw, Director General de ESO, el socio europeo en ALMA.

ALMA observa la luz del universo en longitudes de onda milimétricas y submilimétricas, aproximadamente mil veces más largas que las longitudes de onda de luz visible. La observación de estas longitudes de onda largas permite a los astrónomos estudiar objetos muy fríos en el espacio, como las densas nubes de polvo cósmico y gas donde se forman estrellas y planetas, así como objetos muy distantes en el Universo primitivo.

ALMA es completamente diferente de los telescopios ópticos e infrarrojos. Es un conjunto de antenas interconectadas que funcionan como un solo telescopio gigante, capaz de detectar longitudes de onda mucho más largas que la luz visible. Por lo tanto, las imágenes que capta son bastante distintas a las que conocemos del cosmos.

El equipo de ALMA ha trabajado intensamente en los últimos meses probando los sistemas del observatorio, preparándose para la primera ronda de observaciones científicas conocida como Ciencia Inicial. Uno de los resultados de estas pruebas es la primera imagen publicada por ALMA, si bien falta mucho para que el telescopio alcance todo su potencial. La mayoría de las observaciones utilizadas para crear esta imagen de las Galaxias de las Antenas se obtuvo usando solo 12 antenas interconectadas —muchas menos de las que se usarán para las primeras observaciones científicas— y con separaciones mucho menores entre ellas, por lo cual no es más que un atisbo de lo que está por venir. A medida que el observatorio crezca y se vayan incorporando nuevas antenas, aumentará exponencialmente la precisión, eficiencia y calidad de sus observaciones.

Las Galaxias de las Antenas son un dúo de galaxias en colisión con formas extraordinariamente distorsionadas. Mientras la observación en luz visible permite ver las estrellas de las galaxias, ALMA revela objetos invisibles en esa longitud de onda, como las densas nubes de gas frío donde se forman las estrellas. Esta es la mejor imagen que se haya obtenido de las galaxias de las Antenas en ondas milimétricas y submilimétricas.

Se descubrieron concentraciones masivas de gas no solo en el corazón de ambas galaxias, sino también en la caótica zona donde entran en colisión. Allí, la cantidad de gas supera en miles de millones de veces la masa de nuestro Sol, lo que constituye una rica reserva de material para las futuras generaciones de estrellas. Este tipo de observaciones abren una nueva ventana en el Universo submilimétrico, y serán vitales para ayudarnos a comprender cómo las colisiones de galaxias pueden provocar el nacimiento de estrellas. Este es sólo un ejemplo de cómo ALMA revela partes del Universo que no pueden ser observadas por los telescopios ópticos e infrarrojos.

ALMA pudo aceptar solo un centenar de proyectos para los primeros nueve meses de Ciencia Inicial. Sin embargo, más de 900 propuestas fueron presentadas por astrónomos de todo el mundo en los últimos meses. Tener nueve veces más propuestas de las que se otorgan es un récord para un telescopio. Los proyectos ganadores fueron seleccionados en base al mérito científico, la diversidad regional, y su relevancia para el logro de las grandes metas científicas de ALMA.

“Estamos viviendo un momento histórico para la ciencia, en especial para la astronomía, y tal vez también para la humanidad ya que comenzamos a usar el mayor  observatorio en construcción hasta la fecha”, dijo Thijs de Graauw, Director de ALMA.

Uno de los proyectos elegidos para la Ciencia Inicial es el de David Wilner del Harvard-Smithsonian Center for Astrophysics de Cambridge (Massachusetts). Wilner explica: “Mi equipo busca los componentes básicos de los sistemas solares, y ALMA es la mejor herramienta que existe para detectarlos”.
El objetivo elegido por el equipo es AU Microscopii, una estrella que se encuentra a 33 años luz de distancia y tiene apenas un 1% de la edad de nuestro Sol. “Usaremos ALMA para captar imágenes del anillo donde nacen los planetesimales, el que, según creemos, orbita alrededor de esta joven estrella. Sólo con ALMA, sin embargo, podemos tener la esperanza de descubrir agrupaciones en estos cinturones de polvo y asteroides, que podrían constituir la materia prima de planetas aún no descubiertos”, agrega. Wilner y su equipo compartirán los datos obtenidos con un equipo europeo que también solicitó a ALMA realizar observaciones de esta estrella con anillo de polvo.

Cualquier búsqueda de planetas habitables alrededor de otras estrellas normalmente comienza con la búsqueda de agua en esos distantes sistemas solares. También se cree que los discos de residuos, esas aglomeraciones de polvo, gas y roca que gravitan alrededor de las estrellas, contienen intrincados trozos de hielo con agua congelada en su interior, gas y quizá incluso moléculas orgánicas, todos elementos de la astroquímica de la vida.

Simón Casassus, de la Universidad de Chile, y su equipo usarán ALMA para observar el disco de gas y polvo que rodea HD142527, una joven estrella que se encuentra a 400 años luz de distancia. “El disco de polvo alrededor de esta estrella tiene un espacio vacío muy grande, que podría haber sido causado por la formación de planetas gigantes”, explica Casassus. “Fuera del espacio vacío, el disco contiene gas suficiente para producir una docena de planetas del tamaño de Júpiter. Si existe material gaseoso disponible, dentro de dicho espacio podría estar formándose un joven planeta gigante gaseoso”. Sus observaciones con ALMA permitirán medir la masa y las características físicas del gas presente dentro del espacio vacío. “Así, ALMA nos da la oportunidad de observar la formación de un planeta, o sus rastros más recientes”, indica Casassus.

Aún más lejos, a 26 000 años-luz de nosotros, en el centro de nuestra galaxia, se encuentra Sagittarius A*, un agujero negro supermasivo que tiene cuatro millones de veces la masa de nuestro Sol. El gas y el polvo presentes entre nosotros y el agujero negro impiden observarlo con telescopios ópticos. ALMA, en cambio, es capaz de penetrar la oscuridad galáctica y proporcionarnos una impresionante vista de Sgr A*.
Heino Falcke, astrónomo de la Radboud University Nijmegen de Holanda, afirma: “ALMA nos permitirá observar las llamaradas de luz alrededor de este agujero negro supermasivo y tener imágenes de las nubes de gas atrapadas por su inmensa fuerza. Así podremos estudiar los desordenados hábitos alimentarios de ese monstruo. Creemos que parte del gas puede estar escapando de sus garras, a una velocidad cercana a la de la luz”.

Como las líneas negras de los cuadernos de los niños, el polvo cósmico y el gas frío definen las estructuras internas de las galaxias, aunque no podamos verlas claramente. En los límites de nuestro Universo visible se encuentran las misteriosas galaxias de formación estelar, verdaderas islas brillantes en un cosmos que de otra manera estaría sumido en la calma y la oscuridad. Aquí ALMA buscará rastros de gas frío, a distancias tan lejanas que se remontan a unos pocos millones de años después del Big Bang, durante la era que los astrónomos llaman “amanecer cósmico”.

Masami Ouchi, de la Universidad de Tokio (Japón), usará ALMA para observar Himiko, una galaxia muy distante que cada año genera estrellas equivalentes unos 100 Soles y que está rodeada por una nebulosa gigante y brillante. “Los demás telescopios no nos muestran por qué Himiko es tan brillante y cómo se ha desarrollado para convertirse en una enorme nebulosa caliente, cuando todo lo que la rodea está tranquilo y oscuro”, comenta Ouchi. “ALMA puede mostrarnos el gas frío presente en las profundidades de la nebulosa con formación estelar Himiko, monitoreando los movimientos y la actividad en su interior, los que finalmente nos permitirá ver cómo se formaron las galaxias masivas durante el amanecer cósmico”.

Durante las observaciones de Ciencia Inicial, la construcción de ALMA seguirá adelante en los Andes chilenos, en las alturas del llano de Chajnantor, situado en el inhóspito desierto de Atacama. Cada nueva antena, diseñada para resistir las duras condiciones climáticas, se incorporará al conjunto y se conectará a las demás mediante cables de fibra óptica. Los datos obtenidos por estas antenas, distantes entre sí, son combinados por el supercomputador más rápido del mundo, un correlacionador fabricado especialmente para ALMA, capaz de realizar 17 mil billones de operaciones por segundo.

En 2013, ALMA será un conjunto de 66 antenas de radio ultra precisas que trabajará al unísono en una extensión de 16 kilómetros, construido por los socios multinacionales de ALMA en Norteamérica, Asia del Este y Europa.

El Atacama Large Millimeter/submillimeter Array (ALMA), una instalación astronómica internacional, es una alianza entre Europa, Norteamérica y Asia del Este en colaboración con la República de Chile. ALMA es financiado en Europa por el Observatorio Europeo Austral (ESO); en Norteamérica por la Fundación Nacional de Ciencias de EE.UU. (NSF) en cooperación con el Consejo Nacional de Investigación de Canadá (NRC) y el Consejo Nacional de la Ciencia (NSC) de Taiwán, y en Asia del Este por el Instituto Nacional de Ciencias Naturales de Japón (NINS, en colaboración con la Academia Sinica de Taiwán. La construcción y operaciones de ALMA son dirigidas en nombre de Europa por ESO, en nombre de Norteamérica por el Observatorio Radioastronómico Nacional (NRAO), administrado a su vez por Associated Universities, Inc. (AUI), y en representación de Asia del Este por el Observatorio Astronómico Nacional de Japón (NAOJ).

Un agujero en la capa de ozono cinco veces más grande que Alemania preocupa a los científicos


Un agujero de una dimensión equivalente a cinco veces la superficie de Alemania se abrió en la capa de ozono sobre el Ártico, igualando por primera vez al que existe sobre la región antártica, anunciaron este domingo los científicos.

Provocado por un frío excepcional en el Polo Norte, este agujero récord se desplazó durante unos quince días sobre Europa del Este, Rusia y Mongolia, exponiendo en algunos casos a las poblaciones a niveles elevados de radiaciones ultra-violetas, agregaron.

El ozono, una molécula compuesta de tres átomos de oxígeno, se forma en la estratosfera donde filtra los rayos ultravioletas que dañan la vegetación y pueden provocar cáncer de la piel o cataratas.

Este escudo natural es atacado regularmente a nivel de los polos en Invierno y primavera, en parte debido a los compuestos conteniendo cloro (clorofluorocarbonos o CFC) utilizados por el hombre en los sistemas de refrigeración o los aerosoles.

La producción de CFC es ahora casi nula, gracias al protocolo firmado en 1985 en Montreal.
El frío intenso sigue siendo el factor principal de la destrucción del ozono. Por efecto del frío, el vapor de agua y las moléculas de ácido nítrico se condensan para formar nubes en la capas bajas de la estratosfera. En esas nubes se forma cloro el cual finalmente provoca la destrucción del ozono.

Habitualmente, el agujero en la capa de ozono es mucho más importante en la Antártica que en el Ártico pues allí hace mucho más frío. Las mediciones efectuadas hasta ahora en el Polo Norte indican que la disminución de ozono es muy variable y mucho más limitada que en el hemisferio sur.

Observaciones de satélites efectuadas entre el invierno de 2010 y la primavera de 2011 mostraron sin embargo que la capa de ozono había sido afectada a una altura comprendida entre 15 y 23 kilómetros.
La pérdida más importante – más de 80% – fue registrada entre los 18 y los 20 kilómetros de altura.

“Por primera vez, la disminución fue suficiente para que se pueda hablar razonablemente de agujero en la capa de ozono en el Ártico”, estima el estudio publicado el domingo en la revista científica británica Nature.

El responsable es un fenómeno conocido como “vortex polar”, un ciclón masivo que se produce en cada invierno en la estratosfera ártica y que el año pasado nació debido a un frío extremo, explicó a la AFP Gloria Manney, del Jet Propulsion Laboratory, en California (Estados Unidos).

“La destrucción del ozono comenzó en enero, luego se aceleró a un punto tal que las concentraciones de ozono en la región del vortex polar eran bien inferiores que el año pasado”, dijo.

Valores particularmente bajos fueron observados “durante 27 días en marzo y a comienzos del mes de abril, en una superficie de más o menos dos millones de kilómetros cuadrados, es decir unas cinco veces Alemania o California”, precisó la científica.

Una cifra equivalente a la destrucción del ozono en la Antártica a mediado de los años 80.
Durante el mes de abril durante unos quince días, el vortex se desplazó hacia regiones más densamente pobladas de Rusia, de Mongolia y de Europa del Este.

Mediciones efectuadas a nivel del suelo indicaron “valores desacostumbradamente elevados” de radiación ultravioleta antes de que el vortex se disipara, según Gloria Manney.

Un premio Nobel refuta el experimento de los neutrinos


Tras la presentación, hace unos días, de los sorprendentes resultados del experimento Opera, según los cuales los neutrinos viajan más rápido que la luz, los físicos de partículas se han aplicado rápidamente a estudiar esa supuesta velocidad superlumínica y ya se han presentado más de 20 artículos científicos sobre el asunto. En uno de estos trabajos, Andrew G. Cohen y Sheldon L. Glashow (Premio Nobel de Física y una de las grandes autoridades en partículas elementales), ambos de la Universidad de Boston (EE UU), afirman que si estas partículas superasen la velocidad de la luz, los datos registrados en el detector Opera serían bien distintos de lo que sus responsables han anunciado.

Dicho de manera muy sencilla, el análisis de estos dos físicos indica que unos neutrinos superlumínicos perderían energía muy rápidamente y el Opera habría detectado solo los de energía inferior a un cierto límite, mientras que en los resultados que se han presentado hay neutrinos por encima de ese límite. "Por lo tanto, refutamos la interpretación superlumínica de los resultados de Opera", escriben Cohen y Glashow en su análisis, titulado Nuevas restricciones a las velocidades del neutrino.

Los datos del experimento, que han dado la vuelta al mundo por las implicaciones que tendrían si fueran ciertos, indican que los neutrinos que se lanzan desde un acelerador del Laboratorio Europeo de Física de Partículas (CERN), junto a Ginebra, recorren 730 kilómetros hasta llegar al Ópera (en el laboratorio de Gran Sasso, bajo los Apeninos) a una velocidad superior a la de la luz. El revuelo provocado por el anuncio de estos datos se debe a que, según la teoría de la Relatividad Especial de Einstein, de 1905, nada puede ser más rápido que la luz.

Los científicos de Opera fueron prudentes el pasado día 23 al presentar su trabajo en el CERN y se ciñeron a sus resultados, afirmando que habían detectado una velocidad superlumínica de los neutrinos. Pero la opinión general entre los especialistas ha sido, desde el primer momento, que algo falla en dicho experimento. Además, como siempre en ciencia, hay que reproducir el ensayo y obtener los mismos resultados en otra instalación diferente para darlos por buenos. Un experimento en Japón y otro en Estados Unidos, al menos, tienen capacidad de hacerlo.

Cohen y Glashow también recomiendan reproducir el experimento en otro sitio, pero ahora, en su análisis, sustentado en investigaciones anteriores de Sidney R. Coleman y el propio Glasgow, no se refieren a las medición de tiempos y distancias u otros parámetros técnicos del trabajo realizado en el Opera que pudieran inducir falsos resultados sobre la velocidad de los neutrinos, sino, como físicos teóricos que son, se basan en puras leyes de la física bien establecidas y contrastadas.

Su argumento parte del hecho de que una partícula no puede desintegrarse en sí misma más otras partículas, porque el resultado de la desintegración sería más masivo, o de mayor energía, que la partícula original. Sin embargo, si los neutrinos fueran superlumínicos, se podrían desintegrar en otras partículas, incluidos esos mismos neutrinos con una energía inferior. Esto sucedería exclusivamente a los neutrinos con una energía superior a un determinado umbral: se desintegrarían en el camino desde el CERN y no llegarían a Gran Sasso. En Opera, por el contrario, se han detectado neutrinos de energía alta y baja, es decir, que los primeros no se han desintegrado.

La idea es que si uno viaja a tanta energía se frena porque va irradiando y se queda en la energía más baja. Esto implica, según Cohen y Glashow, que la interpretación superlumínica de los datos de Opera es inconsistente, sin necesidad de acudir a más observaciones que las del propio experimento Opera.

Dichos autores han dado a conocer su artículo (igual que los científicos de Opera) en el sitio de Internet donde suelen hacerlo los físicos antes de que su trabajo pase por el proceso de revisión entre pares obligado para su publicación en las revistas científicas. Pero este procedimiento de adelantar los trabajos en internet agiliza el escrutinio entre colegas de los resultados. El error en el análisis de los datos Opera, si lo hay, está por descubrir.

Los seres humanos podriamos convertirnos en seres cuánticos: Randy D. Allen.

La posibilidad de desarrollar una conciencia cuántica y convertirnos finalmente en “seres cuanticos” depende de numerosas variables, y exige que no seamos primero exterminados por el impacto de un asteroide, una supernova cercana, o gigantescas erupciones volcánicas, o que nuestra civilización no sea diezmada por una guerra mundial, o bien por la escasez de recursos exacerbadas por el cambio climático .


La vida como la conocemos, se basa en la química, pero qué tal si la vida en otros lugares no se basa en la química, pero en la mecánica cuántica?, se pregunta Randy D. Allen, del Departamento de Bioquímica y Biología Molecular, de la Universidad Estatal de Oklahoma.

Una forma de vida alienígena que puede manipular las partículas subatómicas como nuestras células manipulará los compuestos químicos. Los seres humanos han existido como especie por menos de un millón de años y somos, por lo que sabemos, la única especie en la Tierra que tiene incluso la menor idea de la física.

Sólo se descubrió el átomo y se aprendió a dar rienda suelta a su poder, Allen observa, en el siglo pasado: “Nuestra comprensión de la mecánica cuántica fue rudimentaria, en el mejor de los casos, sin embargo, estamos a punto de desarrollar computadoras cuánticas prácticas que prometen potencia de cálculo ilimitada.

Allen observó. “Es concebible que, en los miles de millones de años desde el Big Bang, otros organismos evolucionaron en algún momento y un lugar que ya dominan la mecánica cuántica. “Digamos que son inteligentes, organismos sociales, con una química basada en el metabolismo, en el fondo no muy diferentes de nosotros mismos, se desarrollaron en un planeta en algún lugar del universo”, añadió Allen.

“Su insaciable curiosidad acerca del universo (o, como nosotros, su deseo insaciable de su explotación) los llevó a desarrollar eficientes ordenadores cuánticos. Se dieron cuenta de que, con estos equipos, la totalidad de su existencia puede ser computarizada, todos los recuerdos y experiencias de su vida, todas las emociones y motivaciones, podría ser trasladadas a un colectivo  “cerebro cuántico”.

En efecto, su “especie”, aunque biológicamente en extinción, podría llegar a ser inmortal. No es metabolizada por más ineficiente que sea y requiere la entrada de energía enorme, no hay cuerpos químicamente derivados, no hay reproducción, no existe la muerte, ni los impuestos. Sólo una supermasiva y paralela conciencia colectiva con capacidades ilimitadas.

Tal vez, a través de supersimetría o entrelazamiento, pueden “ver” o “sentir” todo el universo. Tal vez, han adquirido la capacidad de manipular las partículas elementales y pueden controlar su evolución y su destino. “podemos afirmar que sin necesidad de competir por los recursos, los seres cuánticos es más probable que estén en paz y sólo quieren lo mejor para el universo y sus habitantes.

Pueden ser conscientes de nuestra existencia, dice Allen, pero no se preocupan por nosotros, por mucho que ignoran la mayor parte “baja” de los organismos que nos rodean.

Por otra parte, tal vez han notado nuestra evolución biológica, social y tecnológica y darse cuenta de que los seres humanos pueden unirse a sus filas algún día y convertirse finalmente en seres cuántica.

Varios de los principales pensadores del mundo creen que con el aumento exponencial de los conocimientos humanos estámos en camino de tener una inteligencia artificial que podrá superar el potencial humano para el año 2040 o antes.

Hugo Vernor Vinge,  galardonado autor de “Un Fuego sobre la parte más profunda y Arco Iris”, sostiene que el crecimiento exponencial de la tecnología llegará a un punto más allá del cual no podemos ni siquiera  especular. “Estamos en el borde de un cambio comparable a la aparición de la vida humana en la Tierra. Dentro de los treinta años, tendremos los medios tecnológicos para crear inteligencia sobrehumana”.

Nobel de Medicina o Fisiología a los descubridores de la inmunidad innata y adaptativa

Este año, el Nobel de Medicina o Fisiología fue entregado a Bruce A. Beutler (EEUU) y Jules A. Hoffmann (Luxemburgo) por sus descubrimientos concernientes a la activación de la inmunidad innata y a Ralph M. Steinman (Canadá) por el descubrimiento de las células dendríticas y su rol en la inmunidad adaptativa.

nobel-medicina

Estos descubrimientos han permitido entender cómo se defiende nuestro organismo ante el ataque de diversos agentes infecciosos. Beutler & Hoffmannn descubrieron las proteínas receptoras que reconocen a los microbios y activan la inmunidad innata, que es el primer paso en toda respuesta inmune. Steinman, por su parte, descubrió las células dendríticas y su capacidad única de activar y regular la inmunidad adaptativa, el segundo paso y el más largo de toda respuesta inmune ya que se debe garantizar que el microorganismo sea eliminado del cuerpo y no vuelva a entrar más adelante. Pero, ¿qué son la inmunidad innata y la adaptativa?

Vivimos en un mundo peligroso, amenazados constantemente por una gran cantidad de microorganismos patogénicos —virus, bacterias, hongos, helmintos y otros parásitos—, muchos de ellos mortales. Sin embargo, nosotros no estamos indefensos, contamos con un mecanismo de respuesta sumamente poderoso. En la primera línea de defensa tenemos a la inmunidad innata, quien es la responsable de destruir a los microorganismos invasores una vez ingresen a nuestro cuerpo, activando procesos inflamatorios que es el lugar donde se librará la batalla y se contendrá al enemigo. 

Pero muchas veces nuestra inmunidad innata no puede contener el ataque de los microbios, así que en este momento entra en acción la inmunidad adaptativa. Las células B y T se activan y empiezan a producir los anticuerpos que reconocerán y marcarán a los agentes infecciosos para que puedan ser identificados por las células asesinas naturales quienes las destruirán. Después de salir vencedores, el sistema inmune debe “recordar” de alguna forma quién fue el responsable de este ataque, para ello crea una memoria inmunológica facilitando el reconocimiento del agente infeccioso la próxima vez que quiera irrumpir nuestra tranquilidad.

nobel-medicina1

Si bien es un mecanismo de defensa eficiente, éste debe ser capaz de reconocer quiénes son los agentes infecciosos y quienes no, ya que podrían activarse y matar a nuestras propias células generando así las conocidas enfermedades autoinmunes, por ejemplo: el lupus

Jules Hoffmann, en 1996, fue el pionero en investigar cómo se activa la respuesta inmune a través del estudio del mecanismo de defensa de la mosca de la fruta. Hoffmann y sus colaboradores les mutaron diferentes genes y probaron si su respuesta inmune se veía afectada o no. Cuando el gen Toll era mutado, la mosca perdía su capacidad de respuesta ante la infección de hongos y bacterias y finalmente moría. Fue así que descubrió la importancia de los receptores tipo Toll (TLR) en la activación de la inmunidad innata gracias a su capacidad para detectar la presencia de los agentes infecciosos.

Bruce Beutler, por su parte, se dedicó a buscar la proteína receptora que reconocía y se unía a los lipopolisacáridos (LPS), unas moléculas producidas por las bacterias Gram negativas y que son responsables del choque séptico. En 1998, Beutler y sus colaboradores descubrieron un ratón que era resistente a los LPSs. Al analizar su perfil genético identificaron una mutación en un gen similar al Toll de la mosca de la fruta. Cuando el TLR no estaba presente (TLR mutante), el ratón era insensible al LPS y no generaba una respuesta inflamatoria ni el choque séptico que se da cuando la concentración de LPS son muy altas. De esto pudo deducir la importancia de los TLR en los procesos inflamatorios y que los mamíferos y la mosca de la fruta usaban las mismas moléculas para activar la inmunidad innata.

A partir de ahí empezaron a aparecer un centenar de estudios relacionados con la inmunidad innata, cada año se descubrían nuevos TLRs tanto en ratones como en humanos, cada uno con la capacidad de reconocer distintos tipos de moléculas comunes en muchos agentes infecciosos. Individuos con mutaciones en estos genes veían afectado su sistema inmune, aumentaban su riesgo a contraer infecciones y algunas veces sufrían de inflamaciones crónicas.

Sin embargo, por raro que parezca, la inmunidad adaptativa fue descubierta casi 20 años antes de los trabajos de Beutler y Hoffmann. En 1973, Ralph Steinman descubrió un nuevo tipo de células caracterizada por tener muchas ramificaciones por lo cual las llamó dendríticas. Él sospechaba que estas células cumplían un rol importante en la respuesta inmune a través de la activación de las células T, encargadas de matar a los agentes infecciosos y generar la memoria inmunológica. Usando cultivos celulares, Steinman y sus colaboradores demostraron que la presencia de las células dendríticas eran necesarias para la activación de las células T, un descubrimiento que en ese entonces fue visto con bastante escepticismo.

Más adelante, Steinman y sus colaboradores respondieron a una de las preguntas más intrigantes de la inmunología de ese entonces, ¿cómo hacía el sistema inmune adaptativo para decidir si activarse o no ante la presencia de diferentes moléculas?. Steinman demostró que las células dendríticas se activaban al reconocer las señales liberadas por la inmunidad innata, de esta manera, ponía a las células dendríticas como el punto de conexión entre la inmunidad innata y adaptativa.

nobel-medicina2

Ahora vemos la importancia de estos trabajos y sin dudas el Nobel para estos tres investigadores en merecido, claro que hay muchos investigadores que también han hecho importantes aportes y descubrimientos en el campo de la inmunología, pero fueron estos tres descubrimientos la clave de todo lo que ahora se conoce sobre la activación y regulación del sistema inmune.

Friday, September 30, 2011

Los cigarros contienen plutonio 210 pero las tabacaleras lo han ocultado desde 1959

 Las compañías tabacaleras sabían que los cigarrillos contienen una sustancia radiactiva llamada polonio-210, que es cancerígena, pero ocultaron sobre ello ante la opinión pública durante más de cuatro décadas, según un estudio de documentos históricos que lo revelan.


Científicos de la Universidad de California, en Los Angeles, revisaron 27 documentos previamente no analizados y se encontró que las empresas tabacaleras conocían el contenido radiactivo de los cigarrillos en 1959. Las empresas estudiaban el polonio en toda la década de 1960, sabían que causa “tumores cancerosos” en los pulmones de los fumadores, e incluso calcularon la cantidad de radiación que un fumador habitual consume en más de 20 años.

Luego, mantuvieron el secreto de los datos. Hrayr Karagueuzian, autor principal del estudio, dijo que el nivel de las empresas con respecto al engaño le sorprendió. “Ellos no sólo sabían de la presencia de polonio, sino también de su potencial de causar cáncer”, dijo.

Karagueuzian y su equipo replican los cálculos que los científicos de las empresas tabacaleras describen en estos documentos se encontró que los niveles de radiación en los cigarrillos podría representar hasta 138 muertes por cada 1.000 fumadores durante un período de 25 años.

El estudio aparece en línea en la revista Investigación de la Nicotina y el Tabaco. Cheryl Healton, es el CEO de la American Legacy Foundation, la organización creada a partir de la resolución 1998 legales contra las compañías tabacaleras.

Dijo que el conocimiento de que los cigarrillos contienen la radiación es preocupante hoy, pero habría sido aún más inquietante para los estadounidenses en medio de la Guerra Fría, con la mentalidad de los años 1950 y 1960. “Esto fue cuando se arrastraban debajo de nuestros escritorios durante la radiación de la escuela ejercicios y pensando en la construcción de refugios antiaéreos en nuestros patios traseros “, dijo Healton.

“Es probable que no podía imaginar un momento más idóneo en el que se ha maximizado el impacto de esa información. Sin duda, este hecho hubiera reducido el porcentaje de fumadores si se hubiera dado a conocer.” , agregó que la mayoría de los estadounidenses aún no saben que los cigarrillos contienen radiación.

El polonio 210 es un material radiactivo que emite partículas peligrosas llamadas partículas alfa. Hay bajos niveles de esta en el suelo y la atmósfera, pero el fertilizante utilizado para cultivar plantas de tabaco contribuye a los niveles de polonio en los cigarrillos.

El Dr. John Spangler, profesor de medicina familiar en la Wake Forest Baptist Medical Center en Carolina del Norte, dijo que cuando los fumadores inhalan, las partículas radiactivas dañan el tejido de la superficie de los pulmones, la creación de “puntos calientes” con daños. Cuando se combina con otras sustancias químicas cancerígenas en el tabaco, Spangler dijo que el daño de la radiación es potente.

“Los dos juntos incrementan su riesgo de cáncer de pulmón”, dijo Spangler. “Así que el humo del tabaco es aún más peligroso de lo que pensaba antes.”

David Sutton, vocero de Philip Morris EE.UU., el mayor fabricante de EE.UU. de tabaco, dijo que la comunidad de salud pública ha tenido conocimiento del polonio en el tabaco durante décadas. “El polonio 210 es una forma natural de un elemento que se encuentra en el aire, el suelo y el agua y por lo tanto, se puede encontrar en las plantas, incluido el tabaco “, dijo Sutton.

Todos los productos del tabaco en el mercado hoy en día todavía contienen el polonio. En 1980, los científicos descubrieron que un proceso llamado “lavado ácido” elimina hasta un 99 por ciento de polonio-210 del tabaco. Los documentos revisados ??por científicos de UCLA revela que las empresas tabacaleras sabían de esta técnica, pero se negaron a utilizar para eliminar el material radiactivo de sus productos.