Friday, September 30, 2011

Los cigarros contienen plutonio 210 pero las tabacaleras lo han ocultado desde 1959

 Las compañías tabacaleras sabían que los cigarrillos contienen una sustancia radiactiva llamada polonio-210, que es cancerígena, pero ocultaron sobre ello ante la opinión pública durante más de cuatro décadas, según un estudio de documentos históricos que lo revelan.


Científicos de la Universidad de California, en Los Angeles, revisaron 27 documentos previamente no analizados y se encontró que las empresas tabacaleras conocían el contenido radiactivo de los cigarrillos en 1959. Las empresas estudiaban el polonio en toda la década de 1960, sabían que causa “tumores cancerosos” en los pulmones de los fumadores, e incluso calcularon la cantidad de radiación que un fumador habitual consume en más de 20 años.

Luego, mantuvieron el secreto de los datos. Hrayr Karagueuzian, autor principal del estudio, dijo que el nivel de las empresas con respecto al engaño le sorprendió. “Ellos no sólo sabían de la presencia de polonio, sino también de su potencial de causar cáncer”, dijo.

Karagueuzian y su equipo replican los cálculos que los científicos de las empresas tabacaleras describen en estos documentos se encontró que los niveles de radiación en los cigarrillos podría representar hasta 138 muertes por cada 1.000 fumadores durante un período de 25 años.

El estudio aparece en línea en la revista Investigación de la Nicotina y el Tabaco. Cheryl Healton, es el CEO de la American Legacy Foundation, la organización creada a partir de la resolución 1998 legales contra las compañías tabacaleras.

Dijo que el conocimiento de que los cigarrillos contienen la radiación es preocupante hoy, pero habría sido aún más inquietante para los estadounidenses en medio de la Guerra Fría, con la mentalidad de los años 1950 y 1960. “Esto fue cuando se arrastraban debajo de nuestros escritorios durante la radiación de la escuela ejercicios y pensando en la construcción de refugios antiaéreos en nuestros patios traseros “, dijo Healton.

“Es probable que no podía imaginar un momento más idóneo en el que se ha maximizado el impacto de esa información. Sin duda, este hecho hubiera reducido el porcentaje de fumadores si se hubiera dado a conocer.” , agregó que la mayoría de los estadounidenses aún no saben que los cigarrillos contienen radiación.

El polonio 210 es un material radiactivo que emite partículas peligrosas llamadas partículas alfa. Hay bajos niveles de esta en el suelo y la atmósfera, pero el fertilizante utilizado para cultivar plantas de tabaco contribuye a los niveles de polonio en los cigarrillos.

El Dr. John Spangler, profesor de medicina familiar en la Wake Forest Baptist Medical Center en Carolina del Norte, dijo que cuando los fumadores inhalan, las partículas radiactivas dañan el tejido de la superficie de los pulmones, la creación de “puntos calientes” con daños. Cuando se combina con otras sustancias químicas cancerígenas en el tabaco, Spangler dijo que el daño de la radiación es potente.

“Los dos juntos incrementan su riesgo de cáncer de pulmón”, dijo Spangler. “Así que el humo del tabaco es aún más peligroso de lo que pensaba antes.”

David Sutton, vocero de Philip Morris EE.UU., el mayor fabricante de EE.UU. de tabaco, dijo que la comunidad de salud pública ha tenido conocimiento del polonio en el tabaco durante décadas. “El polonio 210 es una forma natural de un elemento que se encuentra en el aire, el suelo y el agua y por lo tanto, se puede encontrar en las plantas, incluido el tabaco “, dijo Sutton.

Todos los productos del tabaco en el mercado hoy en día todavía contienen el polonio. En 1980, los científicos descubrieron que un proceso llamado “lavado ácido” elimina hasta un 99 por ciento de polonio-210 del tabaco. Los documentos revisados ??por científicos de UCLA revela que las empresas tabacaleras sabían de esta técnica, pero se negaron a utilizar para eliminar el material radiactivo de sus productos.

Thursday, September 29, 2011

Cúmulos de galaxias validan la Teoría de Einstein

Poner a prueba la gravedad es simple: salta desde la ventana del segundo piso y mira qué pasa. Es mucho más difícil poner a prueba la teoría de la gravedad de Albert Einstein – la Teoría de la Relatividad General – que dice que la gravedad de un objeto curva el espacio y el tiempo a su alrededor. Aunque los investigadores han demostrado la relatividad general en la escala del sistema solar, la validación a escalas cósmicas ha sido más difícil. Eso es exactamente lo que ha hecho ahora un grupo de astrofísicos en Dinamarca.

Los investigadores, encabezados por Radek Wojtak del Instituto Niels Bohr en la Universidad de Copenhague, se propusieron poner a prueba una predicción clásica de la relatividad general: que la luz pierde energía conforme escapa de un campo gravitatorio. Cuanto más fuerte sea el campo, mayor será la pérdida de energía sufrida por la luz. Como resultado, los fotones emitidos desde el centro de un cúmulo de galaxias – un objeto masivo que contiene miles de galaxias – debería perder más energía que los fotones que llegan desde el borde del cúmulo, ya que la gravedad es más fuerte en el centro. Y así, la luz que emerge del centro debe tener una longitud de onda más larga que la luz procedente de los bordes, moviéndose hacia el extremo rojo del espectro de luz. El efecto se conoce como desplazamiento gravitatorio al rojo.

                                    Abell 2744, el Cúmulo de Pandora © by thebadastronomer

Wojtak y sus colegas sabían que la medición del desplazamiento gravitatorio al rojo dentro de un único cúmulo de galaxias sería difícil, debido a que el efecto es muy pequeño y tiene que separarse del desplazamiento al rojo causado por la velocidad orbital de las galaxias individuales dentro del cúmulo y el desplazamiento al rojo provocado por la expansión del universo. Los investigadores abordaron el problema haciendo un promedio de los datos recopilados a partir de 8000 cúmulos de galaxias por el Sloan Digital Sky Survey. Se tenía la esperanza de detectar el desplazamiento gravitatorio al rojo “mediante el estudio de las propiedades de la distribución de desplazamiento al rojo de galaxias en los cúmulos, en lugar de mirar los desplazamientos al rojo de galaxias individuales por separado”, explica Wojtak.

Efectivamente, los investigadores descubrieron que la luz de los cúmulos estaba desplazada hacia el rojo en proporción a la distancia desde el centro del cúmulo, según lo predicho por la relatividad general. “Pudimos medir pequeñas diferencias en el desplazamiento al rojo de las galaxias y ver que la luz procedente de las galaxias en el centro de un cúmulo tenía que ‘arrastrarse’ a través del campo gravitatorio, mientras que la luz de las galaxias exteriores surgía con mayor facilidad”, comenta Wojtak. Los hallazgos aparecen on-line hoy en Nature.

Además de confirmar la relatividad general, los resultados apoyan el modelo del universo de Materia Oscura Fría Lambda, un modelo cosmológico ya popular según el cual la mayor parte del cosmos se compone de un material invisible que no interactúa con la materia que forma estrellas y planetas. La prueba también presta apoyo a la energía oscura, la misteriosa fuerza que parece estar separando el universo.

David Spergel, astrofísico de la Universidad de Princeton, felicita a Wojtak y sus colegas por “combinar inteligentemente” un gran conjunto de datos de cúmulos para detectar un “efecto sutil”. Spergel comenta que: “Ésta es otra victoria para Einstein. … Esta prueba sobre los cúmulos sugiere que vivimos en un universo extraño con materia y energía oscuras, pero uno en el que la Teoría de la Relatividad de Einstein es válida a gran escala”.

Wednesday, September 28, 2011

Stephen Hawking y el Papa Benedicto XVI


El papa Benedicto XVI no está dispuesto a dejar que cale la idea de que Dios no es necesario para explicar el origen del universo, como asegura el físico Stephen Hawking en su último libro, El gran diseño. "El universo no es resultado del azar, como algunos quieren hacernos creer".


Hawking despertó un importante revuelo en sectores religiosos al asegurar en su libro, publicado en septiembre, que "no es necesario invocar a Dios para que encienda la mecha y ponga el universo en funcionamiento".

Según explicó el Papa en su alocución del 06/01/2011, las teorías científicas que, como el Big Bang, explican el origen del universo, se quedan cojas si no se recurre a Dios: "No debemos dejarnos limitar la mente con teorías que siempre llegan sólo hasta cierto punto y que, si nos fijamos bien, no están en competencia con la fe, pero no pueden explicar el sentido último de la realidad".

"El universo no es resultado del azar, como quieren hacernos creer" 


 Benedicto XVI rechaza hallazgos científicos que ayudan a comprender el origen de las cosas, como los que se darán en el CERN, el laboratorio de investigación en física de partículas de Ginebra, donde la colisión de protones casi a la velocidad de la luz trata de imitar las condiciones en las que se formó el universo. 

"Teorías científicas como el Big Bang limitan la mente" 



En su lugar, Ratzinger propone "descubrir en la belleza del universo la sabiduría del Creador", pero no mirando con "cualquier telescopio, sino con los ojos profundos de la razón". El Papa comenzó sus reflexiones sobre ciencia y fe con una alusión al ilustre astrónomo Kepler, que trató de explicar el fenómeno de la estrella de Belén.
 

"Kepler, por ejemplo, creía que se trataba de una nova o una supernova, que es una de esas estrellas que normalmente emiten una luz tenue, pero que de repente tienen una violenta explosión interna que produce una gran luz. Cierto, ideas interesantes, pero eso no nos lleva a lo que es esencial para comprender esa estrella", zanjó Benedicto XVI ante 10.000 personas.  

Los individuos religiosos son más felices en las sociedades pobres

La relación positiva entre religiosidad y bienestar radica en el apoyo social, revela un estudio 

 


Gran Mezquita de Damasco. Fuente: Wikimedia Commons.
Gran Mezquita de Damasco. Fuente: Wikimedia Commons.
En los últimos tiempos, varios estudios han analizado la relación entre felicidad y religión, con conclusiones diversas.

La última de estas investigaciones ha sido la realizada por psicólogos de la Universidad de Illinois, en Estados Unidos, cuyos resultados sugieren que en sociedades sometidas a situaciones de presión hay más personas religiosas que no religiosas, y que las primeras son más felices que las segundas.

Por el contrario, cuando las sociedades viven en paz y plenitud, la participación religiosa suele ser más baja y todos los ciudadanos son más felices en general, independientemente de si son religiosos o no.

Primer análisis a escala global

Para el presente estudio fueron analizados datos de la Encuesta Gallup del periodo 2005-2009, recogidos en más de 150 países del planeta.

Según explica el director del estudio, el psicólogo Ed Diener, en un comunicado emitido por la Universidad de Illinois, éste sería por tanto el primer estudio que analiza la religión y su relación con la felicidad en una escala global.

La Encuesta Gallup, que consiste en sondeos de opinión que con frecuencia son usados por los medios de comunicación masivos para representar a la opinión pública, aplica típicamente un método de muestreo aleatorio simple, para mantener al mínimo los niveles de parcialidad.

Los datos de la Encuesta Gallup revisados en este caso fueron los referidos a cuestiones como la afiliación religiosa, la satisfacción vital, el respeto, el apoyo social o los sentimientos negativos y positivos de los encuestados. Los investigadores también analizaron datos de la Encuesta Gallup 2009, referidos concretamente a Estados Unidos.

Depende de la sociedad

Diener explica que, los resultados de estudios anteriores, muchos de éstos centrados en Estados Unidos, habían sugerido que la gente religiosa tendía a ser más feliz que la no religiosa.

Las constataciones realizadas en este nuevo estudio, sin embargo, indican que la religiosidad y la felicidad estarían estrechamente ligadas a las características de las sociedades en que la gente vive.

Ed Diener. Fuente: Universidad de Illinois.
Ed Diener. Fuente: Universidad de Illinois.
Según Diener, de hecho, “las circunstancias predicen la religiosidad. Circunstancias difíciles propician que la gente sea religiosa. Y en las sociedades religiosas que además se pasan circunstancias difíciles, las personas religiosas son más felices que las no religiosas”.

Las afiliaciones religiosas parecen fomentar la felicidad y el bienestar en sociedades que no proporcionan a sus ciudadanos una alimentación adecuada, oportunidades laborales, atención médica, seguridad o una buena educación.

Las personas religiosas de las sociedades religiosas son más propensas a informar de que se sienten respetadas, de que reciben un mayor apoyo social o de que tienen más sentimientos positivos que negativos, en comparación con las personas no religiosas que habitan estas mismas sociedades.

Pero, añade Diener, “en las sociedades no religiosas o más benignas, en las que las necesidades individuales están cubiertas, las personas religiosas no son las más felices: todos los individuos son más felices”.

En las sociedades seculares, que en muchos casos son las más saludables y las que presentan más cantidad de recursos sociales, tanto los individuos religiosos como los no religiosos experimentan un mayor bienestar y más sentimientos positivos.

En estas mismas sociedades, las personas religiosas señalan más a menudo que sufren sentimientos negativos que las no religiosas.

Pobreza y religiosidad

Esta misma tendencia pudo observarse en diversos Estados estadounidenses, según pudieron constatar los investigadores.

En los Estados más pobres del país, con menores recursos para la atención social, hubo más gente que afirmó ser religiosa. En este caso, también se constató que las afiliaciones religiosas ayudaban a los ciudadanos de estas regiones a aumentar su bienestar y sus sentimientos positivos, en comparación con las personas no religiosas de las mismas zonas.

Las diferencias religiosas entre los Estados del país fueron muy pronunciadas, señalan los investigadores. El Estado de Misisipi es el más religioso de todo Estados Unidos (un 88% de los encuestados informó de que la religión era una parte importante de sus vidas) y el de Vermont fue el menos religioso (sólo el 44% de los encuestados señaló que la religión era una parte importante de sus vidas cotidianas).

Factores sociales

A nivel global, Diener y sus colaboradores calculan que un 68% de las personas encuestadas en todo el mundo afirmaría que la religión es importante para su vida, es decir, 4.600 millones de los más de 6.000 millones de habitantes de nuestro planeta.

A pesar de este dato, los habitantes de los países económicamente desarrollados están abandonando rápidamente las religiones organizadas. ¿Por qué?, se preguntan los investigadores en el Journal of Personality and Social Psychology.

Según ellos, la razón radica en que la religiosidad aporta bienestar porque garantiza el apoyo social, propicia el sentirse respetado y le da sentido a la vida. En las naciones en que las condiciones de vida son más difíciles, la religiosidad juega por tanto un papel que en las sociedades más benignas juegan otros sistemas o infraestructuras.

Cierto componente social en la relación positiva entre religión y bienestar individual ha sido también constatado por investigadores de la Universidad de Harvard, en otro estudio reciente.

La vacuna española MVA-B contra el sida (VIH) logra una respuesta inmune del 90%

Un ensayo clínico en fase I revela la eficacia inmunitaria del candidato español MVA-B a vacuna preventiva contra el virus de la inmunodeficiencia humana (VIH). El 90% de los voluntarios sometidos al compuesto, elaborado y patentado por el Consejo Superior de Investigaciones Científicas (CSIC), ha desarrollado una respuesta inmune al virus y el 85% de ellos la ha mantenido durante, al menos, un año. Su seguridad y eficacia son descritas en sendos artículos en las revistas Vaccine y Journal of Virology.

En 2008, la MVA-B demostró una alta eficacia en ratones y macacos, y protección contra el virus de la inmunodeficiencia del simio (SIV). Este hallazgo ha motivado la ejecución del ensayo clínico en 30 voluntarios sanos, dirigido por el Hospital Clínic de Barcelona y con el Gregorio Marañón de Madrid. Gracias a su alta respuesta inmunológica en humanos, el equipo iniciará con la Red de Investigación del Sida un ensayo clínico en fase I con voluntarios infectados con VIH para comprobar su eficacia como vacuna terapéutica.

El éxito del tratamiento se basa en que el sistema inmunológico puede quedar entrenado para responder frente a partículas del virus y células infectadas de forma duradera. El investigador en el Centro Nacional de Biotecnología del CSIC Mariano Esteban, responsable del desarrollo del compuesto, explica: “MVA-B ha demostrado que es tan potente o mejor que las vacunas actualmente en estudio”.

En lo relativo a la seguridad de MVA-B, “los efectos secundarios que se han producido son los que cabe esperar en cualquier tipo de vacunación, principalmente de tipo local en la zona de inyección”, asegura el responsable del equipo del Hospital Gregorio Marañón, el doctor Juan Carlos López Bernaldo de Quirós. Y añade: “No ha existido ningún efecto adverso que haya comprometido la salud de los voluntarios”.

“Los resultados deben ser tomados con cautela ya que el tratamiento sólo se ha probado en 30 voluntarios y, aunque estimula una respuesta potente en la mayoría de los casos, es pronto para predecir si las defensas inducidas prevendrán la infección”, matiza el doctor responsable del equipo de investigación del Clínic, Felipe García.

El origen del arma

En 1999, el equipo de investigación de Esteban comenzó a trabajar en el desarrollo y preclínica de MVA-B, que recibe su nombre de su composición a partir del virus Vaccinia Modificado de Ankara (MVA). Se trata de un virus atenuado que se usó para erradicar la viruela y que sirve de modelo en la investigación de múltiples vacunas. La B procede del subtipo de VIH contra el que lucha, el más prevalente en Europa.

El desarrollo de la MVA-B se basa en la introducción de cuatro genes del VIH (Gag, Pol, Nef y Env) en la secuencia genética de vaccinia. Un sistema inmunitario sano reacciona frente al MVA, y los genes de VIH insertados en su ADN no son capaces de infectar a seres humanos, lo que garantiza la seguridad del ensayo clínico.

Un total de 24 voluntarios recibió el tratamiento con MVA-B mientras que los otros 6 recibieron un placebo, según un proceso de doble ciego. La vacuna se administró en tres dosis por vía intramuscular en las semanas 0, 4 y 16, desde el inicio, y sus efectos se evaluaron en sangre periférica hasta la semana 48, cuando concluyó el ensayo.

Batallón de combate

La inoculación de la vacuna en un voluntario sano pretende entrenar su sistema inmunológico para detectar y aprender a combatir esos componentes del virus. Según Esteban, “es como si le enseñáramos una foto del VIH para que sea capaz de reconocerlo si se lo encuentra en el futuro”.

Las células principales de este experimento son los linfocitos T y B. Son los soldados encargados de detectar las sustancias extrañas que se introducen en el organismo y enviar la señalización necesaria para destruirlas. “Nuestro organismo está repleto de linfocitos, cada uno programado para luchar contra un patógeno diferente”, comenta Esteban. Por ello, “es necesario someterlos a un entrenamiento cuando se trata de un patógeno al que no pueden vencer de forma natural, como es el VIH”, añade.

Los linfocitos B son los responsables de la respuesta inmunológica humoral, cuya producción de anticuerpos actúa sobre las partículas del VIH antes de que penetren e infecten una célula. Se anclan a su estructura superficial y lo bloquean. Los análisis de sangre en la semana 48 del tratamiento revelan que el 72,7% de los voluntarios tratados mantienen anticuerpos específicos contra el VIH.

Por su parte, los linfocitos T controlan la respuesta inmunológica celular, encargada de detectar y destruir a las células infectadas con VIH. Para comprobar su respuesta defensiva frente a la vacuna, se midió su producción de la proteína inmunitaria interferón gamma. Los análisis realizados en la semana 48 del tratamiento, 32 semanas después de la última inoculación de la vacuna, revelan que dicha producción por parte de los linfocitos T CD4+ y CD8+ del grupo vacunado es del 38,5% y 69,2% respectivamente, frente al 0% del grupo control.

Acción en varios frentes

A parte del interferón gamma, la presencia de un patógeno en el organismo produce otras proteínas inmunitarias (citoquinas y quimiocinas), cada una de las cuales tiende a atacar al enemigo por un frente distinto. Cuando la acción defensiva de los linfocitos T es capaz de generar varias de estas proteínas, dicha acción es conocida como polifuncional. El investigador del CSIC destaca: “La importancia de la polifuncionalidad radica en la capacidad de los patógenos para desarrollar resistencia a los ataques del sistema inmunitario; a mayor polifuncionalidad, menor resistencia”.

El espectro defensivo de acción de los linfocitos T sometidos a la vacuna se midió en función de su producción de otras tres proteínas inmunitarias. Los resultados indican que la vacuna genera hasta 15 tipos de poblaciones diferentes de linfocitos T CD4+ y CD8+. De ellas, el 25% de las CD4+ y el 45% de las CD8+ son capaces de producir dos o más proteínas inmunitarias diferentes, lo que demuestra su polifuncionalidad.

Veteranos de guerra

Para que una vacuna sea verdaderamente efectiva, aparte de la capacidad defensiva del sistema inmunitario, requiere poder generar en él una respuesta duradera contra futuros ataques. Para ello, el organismo debe ser capaz de mantener un nivel básico de linfocitos T de memoria. Dichos linfocitos, generados a raíz de un primer ataque por parte de un patógeno, son soldados veteranos que pueden circular durante años por el organismo preparados para responder ante una nueva incursión del enemigo.

Los análisis en los individuos vacunados en la semana 48 revelan que más del 50% de los linfocitos T CD4+ y CD8+ eran de efecto memoria. Este dato concuerda con el 85% de los pacientes que mantuvo su respuesta inmunitaria en este punto del ensayo.

Esteban asegura: “El perfil inmunitario de MVA-B satisface, en principio, los requerimientos de una prometedora vacuna contra el VIH, como inducción de anticuerpos y activación de las células clave en defensa contra patógenos como son los linfocitos T CD4 y CD8”. Así, la respuesta inmune inducida por la vacuna podría mantener controlada la infección, ya que “si el virus penetra en el organismo e intenta expresarse en una célula, el sistema inmunitario estará preparado para inactivar el virus y destruir la célula infectada”, añade. Según el investigador del CSIC, “para poder comercializarse, el cóctel genético debe superar aún todas las pruebas de futuros ensayos clínicos en fase II y III”.

Rolf Heuer, director del CERN pide prudencia hasta que se hagan más estudios de comprobación

El mundo de la Física anda agitado estos días. La comunidad científica se muestra prudente ante los resultados obtenidos por un equipo de investigadores del detector subterráneo Opera, en el laboratorio italiano de Gran Sasso, en los que se afirma haber detectado neutrinos –partículas elementales– moviéndose a mayor velocidad que la luz. Este dato, de ser cierto, haría tambalearse la teoría de la Relatividad de Eisntein.

Según Rolf Heuer, director general de la Organización Europea para la Investigación Nuclear (CERN), “hay que esperar y no especular”. El físico alemán lo tiene claro: “no creo que Eistein esté equivocado”. Añade, “en estos momentos sólo tenemos un experimento y un resultado. Las cosas no hay que creerlas sólo con un experimento. Primero hay que verificarlo y, cuando tengamos varios o al menos dos estudios comprobando lo mismo, podremos empezar a debatir el tema”.

El director del CERN se encuentra en Granada, donde más de 350 científicos de 30 países, debaten, esta semana, sobre Física. Más concretamente, sobre el papel de los futuros aceleradores lineales de partículas, diferentes a los actuales construidos de forma circular. En estas instalaciones los científicos colisionan entre sí partículas subatómicas para estudiar los componentes elementales de la materia y así poder obtener respuestas sobre cuestiones fundamentales de la Física.

Esta próxima generación de aceleradores vendrá a completar el trabajo que desarrolla el Gran Colisionador de Hadrones (LHC), ubicado en Ginebra (Suiza), cuyos resultados, según Rolf Heuer, “son muy buenos” y que tiene un objetivo concreto: “Una de las preguntas fundamentales que el LHC debe resolver es cómo las partículas obtienen su masa. La mejor propuesta que tenemos para saber cuál es el origen de la masa de las partículas es el “bosón de Higgs” y hasta finales de este año no podemos saber si existe o no existe”. Comprobar su existencia aportará un mayor conocimiento sobre el inicio del Universo, aunque habrá que esperar, años o décadas, para conocer sus aplicaciones prácticas.
Un gran reto

El proyecto del próximo acelerador lineal de partículas supone un gran reto para la comunidad científica internacional. En la actualidad siete centros de investigación y universidades españolas participan en los dos proyectos existentes, el Colisionador Lineal Internacional (ILC) y el Colisionador Lineal Compacto (CLIC). En total, más de 1.600 investigadores de 300 laboratorios del mundo participan en su desarrollo. Su ubicación y construcción se decidirá entre 2012 y 2014 y tendrá 35 kilómetros de longitud.

Es la primera vez que se celebra en España un Congreso Mundial de estas características, lo que supone un reconocimiento al papel que está desempeñando la comunidad científica española en el proceso de construcción del futuro acelerador lineal. Esta cita con la investigación está organizada por el Departamento de Física Teórica y del Cosmos de la Universidad de Granada, con el apoyo del Consejo Superior de Investigaciones Científicas y del Centro Nacional de Física de Partículas, Astropartículas y Nuclear.

El cometa Elenin ha desaparecido, afirma su descubridor Leonid Elenin

El cometa Elenin, que se iba a acercar a la Tierra en octubre próximo y era muy popular entre los pregoneros del fin del mundo, debe de haberse desintegrado y no causará daño alguno a nuestro planeta, afirmó hoy Leonid Elenin, el astrónomo ruso que lo descubrió en diciembre de 2010.

El científico explicó que “el cometa debía de aparecer en las fotos del observatorio espacial SOHO pero no está”. “Es probable que se haya desintegrado y que veamos en octubre, a través de telescopios terrestres, algunos fragmentos suyos que aún siguen la misma trayectoria”, dijo el científico, colaborador del Instituto ruso de Matemáticas Aplicadas Keldish.

Agregó que ese objeto celeste “no va a causar ningún daño a nuestro planeta, ni podía haberlo hecho”.
Elenin descubrió el cometa C/2010 X1, que más tarde recibió su nombre, en diciembre de 2010, mientras examinaba las imágenes transmitidas de áreas cercanas a Júpiter por el observatorio automatizado ISON-NM.
Una cámara de la sonda STEREO-B de la NASA obtuvo en agosto pasado las primeras imágenes de ese cometa que, según las expectativas, se iba a acercar a la Tierra a una distancia mínima, de 34,9 millones de kilómetros, el próximo 16 de octubre.

El cometa Elenin se hizo muy popular entre los sectarios del fin del mundo que dieron una interpretación apocalíptica a su nombre: “Ele”, por las siglas en inglés de “extinction level event”, o “extinción total”, y “nin”, de “Nibiru in November”, en alusión al mítico planeta Nibiru cuya aproximación a la Tierra provocaría supuestamente una catástrofe.

La desaparición de cometas es un fenómeno frecuente. Astrónomos han registrado la desintegración de seis cometas en este último decenio, por no hablar ya de centenares de rasantes del Sol de la familia Kreutz.

Las bacterias que causan caries dentales estan implicadas en daño cerebral


Las bacterias que causan caries dentales están implicadas en daños cerebrales severos, afirman investigadores japoneses.

Koichiro Wada de la Universidad de Osaka, Japón y colegas, revelaron que después de entrar en los vasos sanguíneos del cerebro, las bacterias de la caries no permiten que el cuerpo “repare” roturas capilares y de arterias.

Los investigadores encontraron en tejidos cerebrales de personas que murieron por hemorragias, la bacteria Streptococcus mutans, que vive en la boca y se considera el principal culpable de la caries dental.
Según el estudio, el estreptococo puede influir en la formación de placas de colesterol que se comprimen dañando el cerebro. Para comprobar su teoría, los biólogos inyectaron cepas infectadas de bacterias a ratones sanos de laboratorio.

Posteriormente dañaron algunos conductos en los cerebros de los roedores para causarles una apoplejía artificial. Horas más tarde la mayoría de los ratones murieron.

Los científicos determinaron que el sangrado se agrava por el hecho de que el Streptococcus mutans unido a las cadenas de proteína en la parte dañada del cerebro, a que por lo general “se pega” colesterol.

Las placas de colesterol que cubren las zonas afectadas no impiden el crecimiento de nuevos vasos sanguíneos. Lo que no sucede en caso de contaminación de Streptococcus mutans, razón por la cual el tejido del cerebro se llena de sangre.

Según la Organización Mundial de la Salud, los accidentes cerebro vasculares matan a 5,5 millones de personas al año. Se cree que la obesidad, la diabetes, los malos hábitos, y la hipertensión aumenta las posibilidades de los insultos en adultos o ancianos.

Una mancha solar de 62.000Km de diámetro está lanzando gigantes erupciones solares

Una mancha solar de 62.000 kilómetros de diámetro – tan grande que la Tierra es una enana – está lanzando gigantescas erupciones solares que en teoría podrían causar estragos en las comunicaciones eléctricas que van desde la electrónica de mano, como en iPhones y en secciones de la red eléctrica.

La NASA ha detectado dos X-clases de erupciones solares 1302 – la más extrema posible – en la última semana. Que se produjo el 24 de septiembre y causó un espectáculo de luces increíbles sobre Inglaterra ayer por la noche – pero está lejos de terminar, debido a que la mancha todavía no está directamente alineada con la Tierra.

Los Expertos de la NASA han dicho que “todo lo eléctrico” puede verse afectada por dicha actividad.
Conocida como “Región Activa 1302 ‘, la mancha está produciendo explosiones de radiación tan intensa que las auroras espectaculares, causadas por las partículas del sol chocan contra la atmósfera, se han visto tan al sur como en Oxfordshire.

El astrónomo Dr. Ian Griffin, director ejecutivo de Ciencia de Oxford, dijo a MailOnline: “La Región Activa 1302 es la fuente de todas las auroras vistas ayer, y bien puede ser el origen de las auroras que se presentarán poco más en las próximas noches.

“El clima espacial, los meteorólogos estiman una probabilidad de 40 por ciento de que las erupciones continúen durante las próximas 24 horas. Cualquier erupciones sería dirigida hacia la Tierra, en tanto la mancha solar cruza el centro del disco solar.

“En pocas palabras, sin luna en el cielo, y una región activa en el sol, las noches siguientes podría ser muy interesante para los observadores del cielo en Gran Bretaña.”

Hay un cierto peligro, también, que con la actividad solar se alteran los sistemas de comunicación, especialmente en las latitudes superiores, como el norte de Canadá y Escandinavia.

Una mancha solar se produce cuando los fuertes campos magnéticos en el Sol suben a la superficie y se enfrian, según la NASA. Las grandes manchas se puede ver claramente con el uso de telescopios y cámaras de gran alcance.

La intensa actividad magnética en una mancha solar con frecuencia produce erupciones solares – cuanro mayor son las manchas solares, más grandes y más intensas son las llamaradas.

El diámetro de la AR 1302 se ha medido en la friolera de 62.000 millas, varias veces más grande que la Tierra.

¿Cómo sería tener a otros planetas como satélites en el lugar de nuestra Luna?


Agárrame esos neutrinos


El experimento anunciado el pasado viernes en el CERN ha causado una conmoción dentro y fuera de la comunidad científica. La posibilidad de que los neutrinos viajen más rápido que la luz tiene difícil encaje con la teoría de la Relatividad Especial de Einstein y la mayoría de físicos se inclina por pensar que existe un error. Estos son los detalles del experimento y los escenarios que se barajan.

Agárrame esos neutrinos: guía para entender el experimento del CERN

Tuesday, September 27, 2011

¿El universo se expande de forma asimétrica?

Recientes exámenes de la velocidad de supernovas sugieren que el universo puede estar expandiéndose de manera no uniforme en su aceleración, lo que implica que las leyes de la física puede variar a través del cosmos.

Los físicos que trabajan con el conjunto de datos Union2 del Proyecto de Cosmología de Supernovas (Supernova Cosmology Project), han sugerido que la expansión del universo parece mostrar un eje preferente, lo que significa que el universo se está expandiendo más rápidamente en una dirección que en cualquier otra.

Crédito: NASAblueshift

Esta expansión asimétrica se conoce como anisotropía, que es la propiedad de ser dependiente direccionalmente, y difiere de la isotropía, que implica propiedades idénticas en todas las direcciones.
El resultado es inconsistente con el modelo cosmológico estándar, que se basa en el principio cosmológico que requiere que el universo sea isotrópico y homogéneo, a saber: que tenga la misma estructura y principios subyacentes que operen en todos sitios, y parezca idéntico en todas las direcciones.

Desafiando la comprensión isotrópica

Publicado a principios de 2010, el conjunto de datos Union2 consta de 557 supernovas de Tipo 1a – las supernovas más brillantes conocidas, que son el resultado de las violentas explosiones de estrellas enanas blancas en el final de sus vidas.

A finales de 2010, dos cosmólogos de la Universidad de Ioannina, en Grecia, publicaron un desafío al principio cosmológico en Journal of Cosmology and Astroparticle Physics proporcionando pruebas estadísticas que apoyan la idea de un eje preferente de expansión.

A principios de este mes otro de tales desafíos se publicó en la página web de arXiv por parte de Rong-Gen Cai y Tuoy Zhong-Liang, cosmólogos del Instituto de Física Teórica de la Academia China de Ciencias. Su artículo también explora la expansión acelerada no uniforme del cosmos.

“Este resultado actual es muy interesante, dado que una de las ideas clave que subyacen a nuestra comprensión del universo es que es isotrópico y que debería tener el mismo aspecto en todas las direcciones”, comentó el astrofísico Geraint Lewis de la Universidad de Sídney.

“En los próximos años, el número de observaciones de supernovas lejanas se incrementará y se sabrá a ciencia cierta si este resultado es correcto”.
 
El modelo cosmológico actual

Desde el descubrimiento de la aceleración cósmica en 1998, respaldado por las observaciones de las supernovas de tipo Ia (SNIa) que eran más débiles de lo esperado, estas explosiones estelares se han convertido en una herramienta importante en la determinación de los parámetros cosmológicos y la tasa de expansión de nuestro universo.

Se forjó un modelo cosmológico estándar mediante consenso general de físicos y cosmólogos, utilizando el análisis conjunto de datos de SNIa en combinación con otras observaciones, tales como la estructura a gran escala del universo y el fondo cósmico de microondas (CMB) – la radiación térmica que se cree que impregna nuestro universo observable.

El modelo actual sugiere que las leyes de la física son las mismas para todos los lugares del universo – excepto en los lugares extremos, como el interior de un agujero negro – y la expansión acelerada del universo sucede de manera uniforme, adhiriéndose a la isotropía y homogeneidad, que es esencialmente el principio cosmológico.
 
¿Socavando el principio cosmológico?

Estos nuevos estudios – de verificarse – significarían que las leyes de la física puede variar dependiendo de dónde te encuentres en el universo, lo que haría extremadamente difícil de comprender plenamente la evolución del universo y sus orígenes.

Por ejemplo, si las leyes de la física fuesen diferentes en otras partes, significaría que todo lo que entendemos sobre la naturaleza quedaría limitado a nuestra pequeña parte del universo y el resto del cosmos seguiría siendo un enigma.

Ambos equipos llevaron a cabo un análisis del hemisferio, comparando velocidades de supernovas en el hemisferio norte respecto a las del hemisferio sur. Estos hemisferios se definieron a partir del plano orbital galáctico de la Vía Láctea como ecuador de referencia.

El análisis determinó un eje preferente de anisotropía en el hemisferio norte. Esto sugiere que una parte del cielo del norte representa una parte del universo que se expande hacia el exterior, con una aceleración mayor que en otros lugares.

En lugar de un universo en expansión, similar a una burbuja esférica perfecta, sería más como una expansión en forma de huevo o asimétrica, lo que significa que el extremo visible de nuestro universo observable estaría a distinta distancia en función de la dirección.

Análisis estadístico

Ambos equipos han declarado que el análisis estadístico no se corresponde necesariamente con resultados significativos, pero refuerza sus resultados apelando a otras anomalías en los datos del fondo cósmico de microondas (CMB).

De forma aislada, los resultados no son estadísticamente significativos, pero poniendo todas estas anomalías en conjunto, surge de alguna manera un significado consolidado que no era evidente en el aislamiento. En otras palabras, cada pequeño elemento de los estudios no es significativo por sí mismo, pero junto a muchos otros elementos surge, en efecto, un resultado significativo.

Otros investigadores, como el cosmólogo John Webb de la Universidad de Nueva Gales del Sur en Sídney, están trabajando en problemas similares. “Hay varias observaciones independientes que apuntan hacia grandes desviaciones de la isotropía. Por lo tanto, permanece la posibilidad de que el principio cosmológico sea sólo aproximadamente correcto”.

Es demasiado pronto para decir si estos resultados son definitivos. Otros investigadores tienen distintas opiniones en cuanto a cuál podría ser el origen de la anisotropía, o la propiedad de ser dependiente de la dirección.

Tamara Davis es la cosmólogo principal del equipo Australian WiggleZ Dark Energy Survey y mantiene reservas: “Parece sospechoso que la alineación sea directamente perpendicular a la Vía Láctea, por lo que bien puede ser un efecto de la observación que no comprendemos bien.

Además, los resultados son consistentes con el modelo de energía oscura, que ha sido confirmado recientemente por nuestro equipo, pero son incompatibles con las primeras semillas de la fluctuación del universo”, comentó.

Hoy habrá superluna oscura: No habrá efectos gravitatorios ni catástrofes

Hoy por la noche la luna se acercará de nuevo a la Tierra, dando lugar a la segunda Super-Luna del año, pero ésta tendrá el poder de la invisibilidad, será oscura (“Dark Supermoon”) o nueva, pero no tendrá efectos gravitatorios de consideración ni será causa de desastres naturales.

Debido a que la órbita de la luna es en forma de huevo, hay veces en que en el ciclo lunar la luna está en su perigeo, es decir la distancia más cercana a la Tierra, o en su apogeo, su distancia de la Tierra es mayor.

“La superluna ocurre cuando la luna está en el perigeo y está en una fase ya sea llena o nueva,” dijo Singh Raminder Samra, un astrónomo del Centro Espacial HR MacMillan en Vancouver, Canadá.

En marzo los observadores del cielo fueron agasajados con una luna llena en el perigeo, lo cual hizo de la luna llena la más grande vista en 18 años .

Una nueva luna ocurre cuando la órbita lunar se coloca entre la Tierra y el Sol, de modo que el lado de la luna que mira hacia la Tierra está sin luz.

“La luna próxima del 27 de septiembre de 2011, se establece que es en el perigeo y en la nueva etapa”, dijo Samra, “por lo que no se podrá presenciar el evento, debido a que la luna y el sol estará en la misma región del cielo “y el disco lunar estará completamente oscuro.

¿Las superlunas afectan las mareas de la Tierra?

Debido a que el tamaño de la órbita de la Luna también varía un poco, cada perigeo, no siempre se encuentra a la misma distancia de la Tierra.

Cuando la luna se encuentra en el perigeo, la Luna está a aproximadamente a 18.640 millas (30.000 kilómetros) cerca de la Tierra menos que su distancia media de aproximadamente 240.000 millas (385.000 kilometros). Cuando el perigeo se produce durante la luna llena, el disco lunar pueden aparecer alrededor del 14 por ciento más grande en el cielo, dijo Samra.

La superluna oscura del martes estará a sólo 222,175 millas (357,557 kilometros) de distancia de la Tierra.
Algunas personas han especulado que esta proximidad lunar puede tener efectos gravitatorios inusuales en la Tierra, provocando dramáticos acontecimientos tales como terremotos.

Pero la verdad es que sólo hay una correlación muy pequeña entre las lunas llena o nueva, y la actividad sísmica, dijo Jim Todd, director del planetario en el museo de Oregon de Ciencia e Industria .

“Las fuerzas de marea causadas por la alineación del sol y la luna puede poner más estrés sobre las placas tectónicas”, dijo Todd.

“Sin embargo, los sismólogos no han encontrado pruebas que relacionen el perigeo lunar a la actividad sísmica mayor. La Tierra constantemente almacena energía y la libera en cualquier momento, de forma que la energía acumulada se vuelve demasiado grande.”

Cuando e encuentra tan cerca la Luna son bien conocidos los efectos por causar ligeramente superiores mareas del océano, por lo que cualquier inundación localizadas en una superluna sería más evidente alrededor de las playas y otras zonas bajas.

Pero la vinculación de la supermoon a los efectos más allá de que es poco probable, Samra el HR MacMillan Space Centre, dijo.

“Si bien la superluna se cree que provoca los diversos desastres naturales en la Tierra”, dijo, “tales afirmaciones son exageradas, ya que simplemente no hay evidencia científica sobre ellos.”

Hoy se supera el límite de recursos que los humanos podemos consumir de la naturaleza: Catástrofe alimentaria en 2030

La humanidad avanza gradualmente hacia la muerte de la civilización, pero el Apocalipsis no ocurrirá en 2012, como algunos creen. La muerte de la humanidad será un proceso largo, relacionado principalmente con el gasto excesivo de los recursos. De hecho hoy, 27 de septiembre del 2011, se ha superado el limite de recursos disponibles para el consumo y la supervivencia.


Según un estudio de la organización estadounidense Global Footprint Network, la humanidad comienza a vivir en deuda con la naturaleza. El límite se superará de nuevo hoy  27 de septiembre 2011. Desde estee día la especie humana va a gastar más recursos de los que la naturaleza puede restaurar.

La peor plaga de langostas: el hombre

La humanidad consume en nueve meses lo que la Tierra tarda en producir algo más de 12. Este triste panorama, se relaciona especialmente con el agua, los bosques y los peces.
Como resultado, se altera radicalmente el equilibrio medioambiental, que infundía esperanzas al desarrollo de la civilización. Según los analistas, si el ritmo actual de consumo continúa, para satisfacer el apetito de las personas hambrientas en 2030 se necesitaría una segunda Tierra.

Los estadounidenses, los más ‘glotones’

Los mayores derrochadores de recursos son Estados Unidos. Si toda la humanidad comenzara a seguir el estilo de vida norteamericano –casa grande, dos automóviles, un enorme consumo de energía per cápita-, la población mundial necesitaría unos cinco planetas como la Tierra para satisfacer sus necesidades.
Por el contrario, si todo el mundo se controlara, como los habitantes de la India, entonces podríamos vivir con menos de la mitad de los recursos biológicos de la Tierra. Sin embargo, según los expertos, la India y China intentan cada vez más vivir al estilo estadounidense, lo que significa que el consumo per cápita se incrementará. De hecho, hoy en día, China es el principal emisor de gases de efecto invernadero.

La catástrofe: 2030

El autor del conocido modelo de límites del crecimiento, Dennis Meadows, advirtió en 1972 que la situación más miserable se dará entre 2030 y 2050. El mundo sufrirá un colapso total de la pesca y una enorme reducción de los bosques, lo que repercutirá en todas las esferas de la vida.

Alerta de aurora boreal por tormenta solar hoy 27 de Septiembre

Observadores del cielo en el norte de Europa ya están viendo algún tipo de actividad de aurora boreal debido una tormenta solar fuerte y grave geomagnética, de acuerdo con el Centro Espacial de NOAA de Previsión del Tiempo y SpaceWeather.com.


El combustible de esta tormenta fue una eyección de masa coronal el fin de semana que ha llegado a la Tierra. Esta es una gran noticia para los observadores del cielo, ya que tanto las luces del Norte y del Sur deben ser espectaculares. Pero esto no es una noticia tan buena para las empresas de satélites.

El Laboratorio de Clima Espacial Goddard ha informado de una compresión “fuerte” de la magnetosfera de la Tierra. Las simulaciones indican que el plasma del viento solar [ha penetrado] cerca de la órbita geoestacionaria a partir de las 13:00 UT. Los “Satélites geoestacionarios por lo tanto, podrían estar directamente expuestos a plasma del viento solar y los campos magnéticos.

La región activa en el Sol señaló directamente a la Tierra en pocos días ya que el Sol rota, lo que podría ser una semana de alta actividad de las auroras.

Predicciones para los Premios Nobel 2011


Al igual que en los Oscar, los Emmy, los Globos de Oro o los MTV Movie Awards; en los premios Nobel también se suelen hacer predicciones de los posibles ganadores en cada una de las seis categorías. De todas las predicciones, la que elabora la Thomson Reuters desde el año 1989 es la más tradicional y aceptada de todas. La forma como elaboran sus predicciones se basa en el impacto científico y social de las publicaciones de diferentes investigadores del mundo, el cual se contabiliza en función al número de citas durante los últimos 30 años y el número de artículos publicados en las revistas de mayor impacto.
Para este año las predicciones de las tres categorías de ciencias son:

Premio Nobel en Fisiología o Medicina (Nobel que en mi opinión debería ser de Biología):
Anuncio
: Lunes 3 de Octubre 

  1. Robert L. Coffman & Timothy R. Mosmann por su descubrimiento de los dos tipos de linfocitos T (Th1 y Th2) y su papel en la regulación de la respuesta inmune del hospedero. Resulta que nuestros linfocitos T tienen una polarización funcional en respuesta hacia distintos agentes infecciosos. Cuando nos infecta una bacteria o nos hacemos una herida entran en acción las células T tipo Th1 quienes activan los macrófagos para devorar (fagocitar) a los agentes infecciosos; mientras que cuando nos infectan parásitos gastrointestinales o helmintos (gusanos) entran en acción las células T tipo Th2 quienes activan una respuesta inmune mediada por anticuerpos. Estas dos funciones actúan de manera recíproca —una inactiva las funciones de la otra.
     
  2. Brian J. Druker, Nicholas B. Lydon & Charles L. Sawyers por desarrollar el imatinib y el desatinib, dos potentes agentes anticancerígenos —ambos inhibidores de la tirosin kinasa—que revolucionaron la medicina y permitieron tratar la leucemia mieloide crónica, la leucemia linfoblástica aguda, y otros tipos de cáncer, salvando la vida de miles de personas en el mundo.
     
  3. Robert S. Langer & Joseph P. Vacanti por ser los pioneros en la investigación sobre la ingeniería de tejidos y la medicina regenerativa, a través del uso de medios de cultivo en 3D, desarrollo de armazones biocompatibles para la regeneración de órganos y cultivo de células madre con el fin de generar órganos a partir de cultivos celulares para generar y trasplantar órganos complejos compatibles con el paciente.
     
  4. Jacques F. A. P. Miller por descubrir la función del timo y la identificación de las células T y B en diferentes especies de mamíferos. El timo es parte importante de nuestro sistema inmune porque es ahí donde maduran los linfocitos T. Estos linfocitos son los encargados de coordinar la respuesta inmune con los linfocitos B que son los responsables de la producción de anticuerpos.
Premio Nobel en Física
Anuncio:
Martes 4 de Octubre
  1. Alain Aspect, John F. Clauser & Anton Zeilinger por sus análisis de las desigualdades de Bell y sus investigaciones en el entrelazamiento cuántico. Bueno, mi nivel de física no me permite explicarlo de manera adecuada, pero más o menos dice que cuando se crean dos partículas cuánticas correlacionadas (donde la acción sobre una ejerce un efecto sobre la otra), el estado de uno estará influenciado por el del otro, así que si tenemos dos electrones correlacionados, en dos puntos diferentes, y modificamos el espín de uno, entonces el otro modificará su espín de manera instantánea [Se usó el espín porque no es una variable continua, sólo puede tomar dos valores: +1/2 y –1/2], esto quiere decir que la información entre ellas dos viajó mucho más rápido que la luz (entrelazamiento cuántico), algo que Einstein no aceptaba porque el creía en el realismo local y la teoría de variables ocultas, donde cada electrón tendrá propiedades bien definidas.
     
  2. Sajeev John & Eli Yablonovitch por la invención y desarrollo de los materiales fotónicos de banda prohibida. Estos materiales ópticos afectan el movimiento de los fotones de luz, permitiendo controlar y manipular el flujo de la luz. Están hechos de nanoestructuras dieléctricas que definen bandas de energía permitidas y prohibidas, dando lugar a la inhibición de la emisión espontánea de fotones, los espejos de alta reflexión omnidireccionales, y la localización y control de propagación de la luz (Ej. en los LED). En la naturaleza lo podemos observar en los ópalos y las alas de ciertas mariposas y otros insectos.
     
  3. Hideo Ohno por sus contribuciones al ferromagnetismo en semiconductores magnéticos diluidos. Los materiales semiconductores tradicionales pasan de un estado no conductor o de alta resistencia (0) a un estado conductor o de baja resistencia (1), aplicando una pequeña corriente eléctrica, pueden ser usados para gestionar información en un formato binario, siendo la base de los microprocesadores actuales. Sin embargo, para mantener dicha información se requiere que la tensión eléctrica sea aplicada continuamente, porque si se apaga, todo vuelve a un estado inicial no conductor y la información se pierde. Esto acarrea un alto consumo de energía. Por su parte, los materiales magnéticos se basan en un eje de fácil imanación, donde el material tomará dos orientaciones (0 y 1) en función a un campo magnético empleado al escribir la “información”, siendo la base de los discos duros. Consumen mucho menos energía pero el problema es que tardan más en leer o escribir la información. Entonces, lo que desarrolló Ohno fue una mezcla de los dos para obtener materiales rápidos y con demandas de energía más bajas, introduciendo impurezas magnéticas en los semiconductores que modificarán el espín de los electrones (que pueden tomar uno de dos valores y obtener un sistema de información binario).
Premio Nobel en Química
Anuncio:
Miércoles 5 de Octubre
  1. Allen J. Bard por el desarrollo y la aplicación de la microscopía de barrido electroquímico. Este equipo, al ser un microscopio de barrido, analiza las superficies de la muestra ubicada dentro de una solución electrolítica usando un microelectrodo de platino u oro, que cuantifica la cantidad de corriente que atraviesa por la superficie de una muestra a diferentes distancias.
     
  2.  Jean M. J. Fréchet, Donald A. Tomalia & Fritz Vögtl por la invención y desarrollo de los polímeros dendríticos (dendrímeros). Estos polímeros tienen una arquitectura tridimensional sumamente ramificada y nanoestructurada, son sumamente versátiles y de bajo costo, y pueden ser desarrollados con propiedades físicas y químicas específicas para cada aplicación (Ej.: revestimientos, catalizadores, modificadores de viscosidad, termoplásticos, portadores de fármacos, vectores en terapia génica, etc.).
     
  3. Martin Karplus por ser el pionero en la simulaciones de la dinámica de las moléculas biológicas. Junto a su equipo de trabajo en Harvard, analizan la estructura electrónica, la geometría molecular, la dinámica molecular de sustancias con importancia química y biológica, entrando en el campo de la mecánica cuántica semi-empírica y la mecánica estadística teórica y computacional.
     
  4. Robert S. Langer & Joseph P. Vacanti (otra vez) por ser los pioneros en la investigación sobre la ingeniería de tejidos y la medicina regenerativa, a través del uso de medios de cultivo en 3D, desarrollo de armazones biocompatibles para la regeneración de órganos y cultivo de células madre con el fin de generar órganos a partir de cultivos celulares para generar y trasplantar órganos complejos compatibles con el paciente.

Las nebulosas planetarias también pueden


  Imagen de HST de Mz 3, la nebulosa planetaria de la Hormiga

Vivimos en un mundo regido por átomos. Utilizamos uranio para obtener energía en las centrales nucleares, o combinamos carbono con oxígeno en las de carbón. Durante siglos hemos medido la riqueza por la cantidad de oro y plata que se poseía; antes de eso, por la de un enlace iónico de cloro y sodio (en otras palabras, sal). Fabricamos objetos duraderos con aleaciones de hierro, carbono, aluminio y cromo. Nos matamos los unos a los otros con plomo acelerado mediante la explosión de una mezcla de carbono, azufre, oxígeno, nitrógeno y potasio. Usamos mercurio para tomarnos la temperatura, tenemos relojes con núcleo de cuarzo y nos comunicamos mediante dispositivos cuyo corazón es de silicio y cobre. Nosotros mismos estamos formados por miles de cuatrillones de átomos de oxígeno, carbono, hidrógeno, nitrógeno, calcio, fósforo, potasio…

Inmersos como estamos en la vida cotidiana, sin embargo, casi nunca nos paramos a pensar de dónde vienen esos elementos. Y es que todos los átomos de todos los elementos químicos que existen en todo el Universo —salvo por el hidrógeno, una pequeñísima fracción del helio y una fracción ridícula de elementos más pesados que resultaron del Big Bang— fueron forjados en el interior de estrellas que ya no existen como tal, y expulsados al espacio interestelar en forma de nubes de gas al morir aquellas. Una vez allí, las nubes se agregaron poco a poco en grumos más y más densos por pura y simple atracción gravitatoria, hasta que el núcleo de cada una de las nubes alcanzó tal temperatura y tal presión que se encendió como un horno. Así nació una nueva estrella, alrededor de la cual el disco residual de gas se condensó y enfrió hasta formar planetas.

Sí, las estrellas son unos bichos de lo más curioso: nacen, crecen, mueren… y se reproducen.
 
Fusión termonuclear de 4 núcleos de hidrógeno (protones) en uno de helio (2 neutrones y 2 protones). | Fuente: Astro Bob, adaptada de Bob King.

Alquimia estelar

Pero centrémonos en cómo se forman los elementos. Mientras usted lee estas líneas, el Sol hace realidad el sueño de todo alquimista medieval: fabricar unos elementos a partir de otros diferentes. Y como todo alquimista que se precie, el Sol tiene un horno, su zona central, donde tiene lugar el proceso. Nuestra estrella toma cuatro núcleos de hidrógeno —el elemento más ligero de la tabla periódica, formado por un protón con un electrón a su alrededor—, y los aprieta bien juntos hasta convertirlos en uno de helio —dos protones y dos neutrones orbitados por cuatro electrones—. El excedente de esta reacción son dos positrones, dos neutrinos electrónicos (necesarios para desposeer a dos de los protones de su carga y convertirlos en neutrones), y, lo más importante, energía en forma de radiación electromagnética (luz, para entendernos). El nuevo núcleo de helio, al pesar más, se deposita en el centro, donde se va acumulando paulatinamente. Esto es lo que el Sol lleva haciendo casi cinco mil millones de años, y lo que hará durante los próximos cinco mil.

¿Por qué lo hace? No hay una razón, pero si la hubiera, no sería para alumbrarnos, créame, sino para sobrevivir: necesita la presión de radiación de la luz que se produce en la reacción para empujar las capas exteriores de la estrella y mantenerlas en su sitio; de lo contrario, su descomunal peso haría que la estrella se derrumbase sobre sí misma.

Todas las estrellas tienen este tipo de reacciones nucleares en su interior (el mecanismo de fusión que he descrito es, del puñado que hay, el más sencillo). Fusionan hidrógeno para crear helio, y más tarde fusionan helio para fabricar carbono, nitrógeno, oxígeno, etc. Cuanto más masiva sea la estrella, más pesados serán los elementos que será capaz de sintetizar.

De este modo se libra su particular guerra entre gravedad y presión de radiación. Habrá ocasiones en que una de las dos gane alguna batalla, y la estrella se hinche o se contraiga como si sufriera de alguna enfermedad tiroidea. De todas estas ocasiones, hay una especialmente crítica: si la masa de la estrella es unas cuantas veces la del Sol, llegará a un punto en el que sintetize hierro y lo acumule en su núcleo.


Imagen HST de la Nebulosa del Cangrejo. 

Si la estrella tiene más de 8 veces la masa de nuestro Sol, se verá con un núcleo de hierro que debería fusionar para obtener la energía necesaria para equilibrar su peso. Pero aquí se encuentra con un gravísimo problema: la fusión del hierro en algo más pesado no produce energía, sino que la requiere (es decir, no es exotérmica, sino endotérmica). Se ve así con una materia prima que no le sirve para nada y la gravedad gana la partida: la estrella se hunde sobre sí misma en cuestión de segundos, tan rápido que las capas exteriores rebotan contra el núcleo y la estrella muere en una gigantesca explosión, como supernova de tipo II (o tipo Ib o Ic, pero no una de tipo Ia como la que tuvo lugar en la galaxia M101 el mes pasado; eso es algo diferente). Las capas exteriores son expulsadas al exterior para formar nuevas estrellas, y colorín colorado…

¿Un momento, y los elementos más pesados que el hierro? Efectivamente, si echamos un vistazo a la tabla periódica, veremos que el hierro, Fe, con número atómico 26 no es, ni mucho menos, el elemento pesado. ¿De dónde salen entonces los casi 100 que nos faltan?

El proceso-r: Tormenta de neutrones

La respuesta habitual es que hay otro proceso, llamado de captura de neutrones rápida (proceso-r), capaz de crear cantidades importantes de elementos pesados en los segundos que dura el colapso de la estrella. El mecanismo es el siguiente: el interior de la estrella está tan caliente y sometido a tal presión que muchos de sus átomos son despedazados, literalmente, y se producen cantidades ingentes de neutrones. Muchos de estos neutrones son capturados e incorporados a los núcleos de los átomos ya presentes, convirtiéndolos en diferentes isótopos ((las variantes de un elemento dado, donde cambia el número de neutrones en su núcleo) de elementos más pesados.

Si ahora pudiéramos convertir alguno de esos neutrones de más en protones, tendríamos un núcleo estable de un elemento más pesado que el original. Pongamos el hierro, por ejemplo, con sus 26 protones y sus 30 neutrones (56Fe). Si le añadimos 3 neutrones tendremos un isótopo muy pesado del hierro (59Fe), al que bastará cambiar un neutrón por un protón para convertirlo en un núcleo de cobalto de libro de texto (59Co). Eso, la conversión de un protón en un neutrón (o viceversa) —y la producción, como residuo, de partículas como electrones, positrones, neutrinos y antineutrinos—, es justamente lo que hace de manera espontánea la desintegración beta.

En resumen, ponga neutrones a toda mecha, y la estrella recorrerá la tabla periódica en un santiamén.


no me negarán que estas cuatro nebulosas planetarias (imágenes de HST) son al menos igual de espectaculares. Desde arriba a la izquierda y en sentido horario: M2-9 (la Mariposa), nebulosa de la Hélice, MyCn 18 (el reloj de arena), y NGC6543 (el Ojo de Gato).

Las grandes olvidadas

Comúnmente se asume que el proceso-r de captura de neutrones es el único capaz de fabricar elementos más pesados que el hierro, es decir, que todos los elementos pesados que hay en el Universo provienen de las supernovas. Así, al menos, nos lo aprendimos todos en clase de Ciencias. Sin embargo, esto no es así, es una simplificación similar a la que hacían al decirnos que no existían las raíces cuadradas o los logaritmos de números negativos.

Las estrellas que acaban sus días como nebulosa planetaria no sólo producen la mayor parte del carbono, nitrógeno y oxígeno del Universo, sino que las más masivas de ellas son capaces de sintetizar elementos más pesados que el hierro. ¿Cómo? Mediante la captura lenta de neutrones o proceso-s.

El proceso-s: Parece que chispea

El proceso-s es mucho mas lento que el proceso-r. Sin embargo es mucho más seguro para las estrellas que lo siguen, pues no requiere dar la vida a cambio.


Libro de recetas para conseguir antimonio (122Sb) a partir de plata (108Ag) por captura lenta de neutrones (proceso-s). Z es el número atómico (protones) y N el número másico (neutrones+protones)

La principal diferencia está en el ritmo de captura de neutrones. Las estrellas que siguen este proceso, cuando se encuentran en una fase llamada rama asintóntica de las gigantes, tienen a su disposición billones de veces menos neutrones por segundo que las supernovas durante su colapso. Esto tiene dos consecuencias: en primer lugar, fabricar elementos pesados lleva miles de años en lugar de segundos, y, en segundo lugar, el ritmo establece un tope en el elemento más pesado hasta el que puede llegar. Este máximo es el bismuto (209Bi), debido a la inestabilidad de los núcleos más pesados que él (que son radioactivos, como el uranio, 238U), que se desintegran en núcleos más ligeros antes de haber tenido tiempo para capturar otro neutrón. (Este ritmo más pausado tiene, sin embargo, sus ventajas: hay algunos isótopos de ciertos elementos a los que se puede llegar por el proceso-s y no mediante el proceso-r, y viceversa.)

¿Y cual es la proporción de elementos pesados fabricados así respecto a los sintetizados en las supernovas? Pues una fracción mucho menor, de ahí que no sea un asunto muy conocido. Claro que, y aquí está el quid de la cuestión, las estrellas poco masivas son legión: suponen hasta el 90% del total de estrellas del Universo. Eso hace que este tipo de estrellas produzca aproximadamente la mitad de los elementos más pesados que el hierro que hay en el Universo, contribuyendo tanto como las populares supernovas al enriquecimiento químico de nuestra Galaxia.

Así que la próxima vez que se tome un café, piense que la materia —tanto del café como de las monedas con que lo paga— bien puede haber sido un regalo post-mortem de una estrella, que, miles de millones de años atrás, acabó sus días con el suave suspiro de una nebulosa planetaria.