• La paradoja de Fermi

    Todo el mundo siente algo cuando está en un sitio desde el que se ven muy bien las estrellas en una noche especialmente estrellada y mira hacia arriba y ve esto. El físico Enrico Fermi también sintió algo: ”¿Dónde está todo el mundo?”...

  • Grandes imágenes de la ciencia

    Una colección de 20 imágenes que hicieron historia en diversos campos de la ciencia.

  • ¿Qué te hace a tí?

    Cuando dices la palabra "yo", probablemente entiendes bastante claro lo que eso significa. Pero cuando te detienes y realmente piensas en ello por un minuto, y reduces a su núcleo al "YO" , las cosas comienzan a ponerse bastante extrañas.

  • Porque se niegan a salvar animales en peligro de extinción

    Cada 50–100 millones de años, en la Tierra se produce la muerte masiva de hasta el 95 % de todas las especies que la habitan. Los científicos están de acuerdo en que ahora estamos en proceso de experimentar otra extinción. Y, por eso, algunos expertos creen que salvar las especies que peligran en estas circunstancias no tiene sentido, porque todo debe seguir su propio curso.

  • Hechos que inspiraron la Tierra Media

    John Ronald termina de revisar el texto, tacha con su pluma los errores y lo puntúa con la precisión milimétrica que le caracteriza. Lo deja a un lado, es el vigesimoquinto examen que corrige y su mente empieza a cansarse. Algo le hace volver a los exámenes y, sobre el primero del montón, plasma con su pluma una pequeña idea: “En un agujero en el suelo, vivía un hobbit”.

El lado oscuro de los vegetarianos: ni más ecológicos ni más sanos


Así lo asegura Lierre Keith, autora de 'El mito vegetariano', que sostiene que, frente a la creencia de los veganos, la agricultura está haciendo un daño incalculable al planeta
"La agricultura es carnívora: lo que come son ecosistemas y los ingiere enteros", explica la escritoria, quien fue vegana 20 años... hasta que su dieta le pasó factura
Ni fertilizantes ni antibióticos: así es el granjero más revolucionario del mundo

«La capacidad de crecimiento de la población es infinitamente mayor que la capacidad de la tierra para producir alimentos para el hombre». Lo dijo un tal Thomas Malthus allá por 1798. Según sus cálculos, 1880 era la fecha estimada para que la situación fuera insostenible. Pero no tuvo en cuenta hambrunas ni guerras, que diezmaron la población mundial, ni el desarrollo exponencial de las revoluciones industriales que estaban por llegar. Y, sin embargo, esa guillotina sigue ahí, amenazando con cortarnos la cabeza por culpa de un crecimiento que no parece conocer límites.


Esos límites existen y ya los hemos rebasado. Tal y como está montado el tinglado, en 2050 seremos cerca de 10.000 millones de habitantes en este maravilloso y loco planeta. Según varios estudios, la producción de alimentos deberá crecer hasta un 50% para poder satisfacer las demandas de la población. ¿Cómo podemos frenar antes de llegar a ese punto de no retorno? Si, según la FAO, 815 millones de personas pasan hambre hoy en día, ¿cuántas morirán de inanición en 2050? Intentamos adentrarnos en este laberinto de datos, predicciones catastrofistas, modas alimentarias y el poder omnímodo de la industria alimentaria.


La solución mágica para mejorar la alimentación, la salud y combatir los daños que sufre el medio ambiente reside en los vegetales. O eso afirman algunos. Era algo indudable para Lierre Keith, escritora feminista y ecologista, autora de El mito vegetariano (Capitán Swing), un libro a medio camino entre el diario personal, el ensayo y la llamada a las armas. Keith se agarró a esa idea como algo irrefutable durante los 20 años que fue vegana, hasta que su cuerpo dijo basta. Lo que ahora pretende poner en cuestión es la identidad construida en torno al vegetarianismo, tratando de desmontar las razones morales, políticas y de salud que esgrimen los veganos. No siempre lo consigue, pero al disparar contra todo y contra todos provoca al menos un debate que se antoja necesario.


«La gente que más se preocupa por la destrucción medioambiental no entiende que son parte del problema», explica por teléfono desde California. «Hasta que no comprendamos qué es lo que está causando esa destrucción no seremos capaces de pararla. Estoy hablando específicamente de la agricultura». La mayoría de veganos creen que su dieta a base de vegetales es lo mejor que pueden hacer para detener el desastre ecológico. «Y están completamente equivocados, no por sus valores, que son perfectamente válidos, sino porque no entienden que la agricultura es la cosa más destructiva que los humanos le han hecho al planeta», subraya.


Los veganos que esgrimen argumentos éticos para no comer animales se aferran a la idea de que no participan en la muerte de ningún ser vivo. Sus manos no están manchadas de sangre y, por tanto, su conciencia está tranquila. «Los monocultivos arrasan a los habitantes originales para que los invasores puedan hacerse con la tierra», afirma en el libro. «Es una limpieza biológica, un biocidio. No es pacífico. No es sostenible. Y cada pequeña porción de alimento está cargada de muerte». La agricultura industrial acaba con la riqueza del suelo, desplaza y extingue especies, modifica los cauces de los ríos, los deseca y contamina: «La agricultura es carnívora: lo que come son ecosistemas y los ingiere enteros»






LOS VEGANOS NO ENTIENDEN QUE LA AGRICULTURA ES LO MÁS DESTRUCTIVO QUE LOS HUMANOS LE HAN HECHO AL PLANETA  Lierre Keith, autora de 'El mito vegetariano' 



Keith es consciente de que hasta el 70% del grano que se produce en el mundo está destinado al consumo animal, una manera eficaz de engordar al ganado para producir carne barata pero no exenta de riesgos y consecuencias devastadoras. «Todo lo que dicen sobre la ganadería industrial es verdad. Es una actividad cruel, despilfarradora y destructiva». Pero, sostiene Keith, comerse una hamburguesa de tofu y una de ternera no difiere tanto en cuanto al impacto que eso tiene en el medio ambiente y en la biodiversidad. 


¿Es cierto que cuanta más carne comemos más huella de carbono tiene nuestra alimentación? 

El problema real es que sólo se tienen en cuenta los costes medioambientales de la carne de ganadería industrial, que tiene una gigantesca huella de carbono porque está alimentando a los animales erróneamente. Sobre todo se utiliza maíz, que contribuye directamente al calentamiento global, porque todos sus fertilizantes están hechos a base de petróleo y gas. Pero el maíz no es el alimento natural de los rumiantes, sino la hierba. En el momento en el que pones de nuevo al ganado a comer pasto, recuperas un sistema biológico que funciona a la perfección y que absorbe carbono en vez de liberarlo. El problema no son los rumiantes, sino la dependencia del ser humano de los combustibles fósiles. 



Luis Ferreirim, portavoz de Agricultura de Greenpeace, está de acuerdo con Keith en que «uno de los grandes problemas de la agricultura industrial es la uniformidad. Son cultivos que generan una dependencia brutal de fertilizantes y plaguicidas sintéticos, lo que provoca desequilibrios ecológicos muy grandes. Eso tiene graves consecuencias sobre el medio ambiente, desde la contaminación directa de suelos y agua, hasta poner en riesgo especies tan fundamentales para la agricultura como los polinizadores».


Eso sí, Ferreirim prefiere poner el foco en el desperdicio alimentario: «La propia FAO asume que la Revolución Verde, que se diseñó para incrementar de forma exponencial la producción de alimentos, es un modelo agotado y nos ha dejado una herencia terrible. Ese modelo productivista nos ha llevado a producir tal cantidad de cereales que al final estamos tirando una tercera parte, un excedente con el que se podría alimentar a la población que tendremos en 2050».

Chúpate ésa, Malthus.


La Revolución Verde de la que habla el portavoz de Greenpeace se inició a finales de los años 60 y estaba basada en variedades de alto rendimiento de granos de cereales, distribución de semillas híbridas, fertilizantes sintéticos y pesticidas. La iniciativa se vio reforzada en EEUU, sostiene Keith, «por una política pública que defendía que todo el mundo debía adoptar una dieta baja en grasas y alta en carbohidratos. Fue un experimento llevado a cabo con toda la población estadounidense. 50 años después, podemos decir que todo lo que consiguieron fue hacernos más gordos, más enfermos y más estúpidos. Y no son insultos, sino la descripción de una realidad. Es algo que nos ha destruido».


Ahora llegamos al otro caballo de batalla de la autora de El mito vegetariano, la principal razón por la que se lanzó a escribir el libro: su deteriorada salud. Tras 20 años de dieta vegana, desarrolló una enfermedad degenerativa articular (espondilosis) que la acompañará el resto de su vida. A eso hay que sumarle episodios de hipoglucemia, agotamiento, náuseas, ansiedad, depresión, desaparición de la regla... Síntomas que se encarga de ligar a las deficiencias de su dieta en las páginas del libro. 



LA AGRICULTURA ES CARNÍVORA: LO QUE COME SON ECOSISTEMAS Y LOS INGIERE ENTEROS. ES UN BIOCIDIO. CADA PEQUEÑA PORCIÓN DE ALIMENTO ESTÁ CARGADA DE MUERTE 



¿Culpa a la alimentación vegana de todas sus enfermedades? 

Sí, porque todas mejoraron cuando dejé de serlo. Algunas desaparecieron por completo, otras son permanentes, pero al menos sufro mucho menos dolor que antes. Para mí no hay duda alguna: comer una dieta con presencia de grasas de animales que yo misma crío ha hecho mi vida mejor y más sana. Es muy habitual que me escriban veganos y ex veganos. Y muchos de ellos sufren exactamente los mismos problemas de salud que yo tuve. Puedes darte cuenta de cuando una ideología anula la realidad física porque la gente es capaz de hacer cosas terribles por un supuesto bien común. Algunos de ellos son fanáticos, y aunque ven con sus propios ojos cómo se deteriora su salud y la de sus hijos, siempre anteponen su ideología. 


Para confrontar su versión, consultamos la opinión de Aitor Sánchez, dietista-nutricionista del Centro de Alimentación Aleris y autor del libro Mi dieta cojea (Ediciones Paidós). «Es posible tener una dieta vegana que no afecte a la salud o que sea beneficiosa si está bien planificada. ¿Cuál es el conflicto? Que mucha gente adopta esta dieta por su cuenta y riesgo, como quien sigue una dieta omnívora mal diseñada y acaba con problemas de salud como los que se ven en nuestro entorno».


En el día a día recibimos un bombardeo constante. Aliméntate a base de quinoa y aguacate como si no hubiera un mañana (a pesar del impacto que eso pueda tener en los productores locales). No te olvides del bífidus y los omega-3. Come menos carne y lácteos. Estos consejos nos llegan de todas las fuentes posibles, algunas fiables, otras no tanto. ¿En quién confiar? «Conviene dejarse guiar por el sentido común y el rigor científico, y eso a veces no es nada fácil», apunta Sánchez. «Si no son gurús, te está intentando timar la industria alimentaria, o puede que des con sanitarios desactualizados y con anuncios de televisión que dicen barbaridades. Hay demasiados intereses privados de por medio. Los dietistas-nutricionistas nos dedicamos a esto pero sucede, como en cualquier otra profesión, que el hecho de serlo no te garantiza tener buenas pautas. Conviene fiarse de profesionales actualizados, rigurosos e independientes».


Lierre Keith asume que las decisiones personales no van a transformar el ritmo vertiginoso al que agotamos los recursos y la fertilidad del suelo. La catástrofe malthusiana sigue ahí, acechando sobre nuestras cabezas. Lo que defiende, y en esto están de acuerdo los tres entrevistados, es que la respuesta tiene que proceder de técnicas agrícolas que garanticen la diversidad. La ganadería extensiva, el policultivo de plantas vivaces y el consumo de proximidad son las armas más eficaces, según ellos, en esta lucha por la sostenibilidad del planeta y sus habitantes.

FUENTE:EL MUNDO
Share:

El hombre que en 1938 “descubrió” el calentamiento global pero nadie quiso escuchar

El ingeniero británico canadiense Guy Stewart Callendar tomó la meteorología como un pasatiempo y fue el primero en descubrir que la temperatura del planeta había aumentado. Murió en 1966, sin recibir el reconocimiento por su profecía de la catástrofe que se viene.


El aumento de la temperatura global ya es de 1,1 grados respecto de la era preindustrial y podría incrementarse a entre 1,5°C y 2°C para 2030, Callendar pensó que esto podría ocurrir dentro de cientos de años





Faltaba un año para que se desatara la Segunda Guerra Mundial cuando Guy Stewart Callendar, un científico británico canadiense, notó mientras observaba a través de las estaciones meteorológicas del mundo que las temperaturas se habían incrementado a lo largo de los últimos años. Fue una señal tenue pero a la vez concreta. Estaba pasando.

Eso lo llevó a buscar en el archivo de las investigaciones sobre una posible causa, y todo lo que leyó apuntaba a las emisiones de dióxido de carbono, consecuencia directa de la Revolución Industrial. Pensó que si se duplicaban las concentraciones del CO2 el mundo podría girar y girar hacia un aumento de 2°C con el paso de los siglos. Lo llamó “efecto Callendar”, e incluso en ese momento creyó que un poco más de clima cálido podía ser beneficioso para el planeta.

No pasó ni siquiera un siglo. Ochenta y tres años más tarde, la humanidad y el resto de los seres vivos de la Tierra ya estamos amenazados por aquello que Callendar detectó solo. La última cumbre COP 26 en Glasgow, Escocia, días atrás, dejó la preocupación en nivel de alerta máxima. El cambio climático ya complica la vida en todas las regiones del planeta.

El Panel Intergubernamental de Cambio Climático de la ONU (IPCC) presentó un informe en agosto pasado con predicciones catastróficas si no se logran disminuir las emisiones de CO2 y de gas metano ni se detiene la deforestación: el aumento de la temperatura global ya es de 1,1 grados respecto de la era preindustrial y podría incrementarse a entre 1,5°C y 2°C para 2030. El año que se termina, de hecho, dejó cientos de muertes por inundaciones, olas de calor, huracanes e incendios forestales. Estos eventos son cada vez más comunes y más intensos. Y según los científicos es consecuencia del cambio climático.

Callendar, nacido en Montreal, Canadá en 1898, lo vio, con las limitaciones técnicas de la época, en 1938, a sus 40 años. Ingeniero especialista en tecnología de vapor, tomó la meteorología como un pasatiempo y desde ahí empezó a escuchar y leer comentarios sobre otras personas que al mirar el historial meteorológico veía ciertos aumentos de temperatura. Entonces comparó los registros de 147 estaciones meteorológicas de todo el mundo y pudo constatar que las temperaturas efectivamente habían aumentado durante el siglo anterior, el XIX.

“Callendar fue el primero en descubrir que el planeta se había calentado. Recopiló mediciones de la temperatura mundial y sugirió que este calentamiento estaba relacionado con las emisiones de dióxido de carbono”, explicó el profesor Phil Jones, de la Universidad de East Anglia en Norwich, que estudió el legado del científico.


Guy Stewart Callendar, ingeniero especialista en tecnología de vapor, tomó la meteorología como un pasatiempo y fue el primer en descubrir que la temperatura del planeta había aumentado


El científico concluyó que durante los últimos cien años la concentración del gas había aumentado aproximadamente el 10%. Callendar entendió que el aumento podría explicar el calentamiento detectado. Él había leído a sus colegas del siglo anterior, que se dieron cuenta de que los gases de la atmósfera provocan un “efecto invernadero” que afecta la temperatura del planeta. Ellos estaban interesados principalmente en la posibilidad de que un nivel más bajo de gas de dióxido de carbono pudiera explicar las edades de hielo del pasado distante.

Entre ellos estaba el sueco Svante Arrhenius, quien calculó que las emisiones de la industria humana podrían traer algún día un calentamiento global, pero muchos de sus colegas descartaron su idea, la consideraron errónea. En 1896 completó un trabajoso cálculo numérico que sugirió que reducir a la mitad la cantidad de CO2 en la atmósfera podría bajar la temperatura en Europa unos 4 ó 5°C, es decir, a un nivel de la Edad de Hielo.

Pero esta idea solo podría responder al enigma de las edades de hielo si realmente fueran posibles cambios tan grandes en la composición atmosférica. Para esa pregunta, Arrhenius contactó a un colega, Arvid Högbom, quien había compilado estimaciones sobre cómo el dióxido de carbono circula a través de procesos geoquímicos naturales, incluida la emisión de los volcanes o la absorción por los océanos.

En el camino se le ocurrió una idea extraña, casi increíble para la época: calcular las cantidades de CO2 emitidas por las fábricas y otras fuentes industriales. Así, descubrió que las actividades humanas estaban agregando dióxido de carbono a la atmósfera a una velocidad aproximadamente comparable a los procesos geoquímicos naturales que emitían o absorbían el gas. Otro científico lo resumiría una década más tarde: la humanidad estaba “evaporando” las minas de carbón en el aire. El CO2 liberado por la quema de carbón en 1896 elevaría el nivel apenas en una milésima parte, pero eso podría ser un incremento significativo si continuaban el tiempo suficiente. Exactamente lo que ocurre.

Pero en su momento, Arrhenius no lo vio eso un problema. Calculó que si la industria continuaba quemando combustible al ritmo de 1896, se necesitarían quizás 3.000 años para que el nivel de CO2 subiera de modo que aumente la temperatura del planeta 4 grados. Högbom, de hecho, dudaba que alguna vez se elevara tanto.


Los huracanes y las mareas altas son otras de las consecuencias del aumento de la temperatura global



Arrhenius planteó la posibilidad de un calentamiento futuro en un artículo científico muy divulgado en su época y en un libro publicado en 1908, cuando la tasa de quema de carbón ya era significativamente más alta que en 1896. El científico sugirió que el calentamiento global podría ser notorio en “unos pocos siglos” en lugar de milenios. Sin embargo lo mencionó solo de pasada durante una discusión sobre de lo que realmente interesaba a los científicos de su tiempo: la causa de las edades de hielo. Arrhenius no había descubierto del todo el calentamiento global, sino solo un curioso concepto teórico.

Pero en 1938, apareció Callendar, con su argumento de que el nivel de dióxido de carbono estaba subiendo y elevando la temperatura global. A él tampoco le prestó demasiada atención la mayoría de los científicos de la época, que encontraron sus argumentos inverosímiles, a pesar de los antecedentes de Arrhenius.

Para el futuro, Callendar estimó, sobre bases vistas desde ahora endebles, que una duplicación del CO2 podría traería gradualmente un aumento de 2°C en un futuro lejano. Aunque entendió que las emisiones industriales ya eran mucho mayores que en la época de Arrhenius, Callendar nunca imaginó la escalada exponencial que haría posible la duplicación a finales del siglo XXI.

“La gente se mostró escéptica sobre algunos de los resultados de Callendar, en parte porque la acumulación de CO2 en la atmósfera no era muy conocida y porque sus estimaciones del calentamiento causado por el CO2 eran bastante simplistas para los estándares modernos”, comentó Ed Hawkins, del Centro Nacional de Ciencias Atmosféricas de la Universidad de Reading, autor en 2013 junto a Phil Jones de un artículo que revisita el legado de Callendar.




Para el científico canadiense con el paso de los siglos el aumento podría desencadenar un cambio hacia un clima más cálido y autosuficiente. Eso no le pareció una mala perspectiva, pero tampoco lo vio tan claro porque también él estaba interesado en la era de las glaciaciones.

A pesar de que no fue tomado muy en cuenta, los libros de texto de climatología de las décadas de 1940 y 1950 incluían breves referencias a sus estudios. La mayoría de los meteorólogos dio poca entidad a la idea de Callendar. Desconfiaban de que el CO2 hubiera aumentado en la atmósfera.

“Fue solo en la década de 1950, cuando los instrumentos mejorados mostraron con mayor precisión cómo el agua y el CO2 absorbían la radiación infrarroja, que llegamos a una mejor comprensión de la importancia de las emisiones de carbono. Los científicos de la época tampoco podían creer realmente que los humanos pudieran afectar un sistema tan grande como el clima, un problema que la ciencia climática todavía encuentra en algunas personas hoy en día, a pesar de la evidencia convincente de lo contrario”, agregó Hawkins.

“Las estimaciones de Callendar para la cantidad de calentamiento observado han resistido la prueba del tiempo y concuerdan notablemente bien con los análisis más modernos del mismo período. Lo que hace que el trabajo de Callendar sea más notable es que era un aficionado que hacía todos los tediosos cálculos él mismo en su tiempo libre, a mano, sin el uso de computadoras”, se sorprende Jones.


En años en los que ya parece no haber más tiempo para dilatar una decisión seria sobre el calentamiento global, la figura de Callendar reapareció entre los expertos que se juntaron en la COP26 de Glasgow. Si el debate sobre la influencia del hombre en el clima global es hoy uno de los temas que pone en jaque la supervivencia de la especie humana, es en parte responsabilidad del ingeniero canadiense, que alertó sobre la cuestión mucho antes y casi sin saber lo que decía.

“Las alarmas son ensordecedoras y la evidencia es irrefutable: las emisiones de gases de efecto invernadero por la quema de combustibles fósiles y la deforestación están asfixiando nuestro planeta y poniendo a miles de millones de personas en riesgo inmediato. El calentamiento global está afectando a todas las regiones de la Tierra, y muchos de los cambios se vuelven irreversibles”, remarcó en agosto pasado el secretario general de Naciones Unidas, António Guterres. Callendar murió en Londres a los 66 años, antes de que, tristemente, el planeta, herido de gravedad, le diera la razón.


FUENTE:Infobae
Share:

El terror de las ballenas.

Share:

El agua, el líquido más extraño del universo

Si los cubitos de hielo se hundieran en lugar de flotar, no nos causaría un gran trastorno; solo habría que remover la bebida de vez en cuando para que la parte superior se enfriara. Salvo por el hecho de que no habría bebida que remover ni nadie para hacerlo, porque no existiría la vida en la Tierra. O, al menos, los humanos no estaríamos aquí.

La flotación del hielo es una de las rarezas del agua, una sustancia tan familiar que nos parece corriente, pero que no tiene nada de ordinario. Tan diferentes son sus propiedades de lo que cabría esperar de su composición química, que comprender cómo su estructura microscópica causa un comportamiento tan singular es algo que “se ha discutido intensamente durante más de 100 años y todavía no se ha resuelto”, como escribían en una reciente revisión los físicos Lars Pettersson y Anders Nilsson, de la Universidad de Estocolmo (Suecia), y Richard Henchman, de la Universidad de Manchester (Reino Unido).





SU CRUCIAL PAPEL BIOQUÍMICO

Todo estudiante sabe que las sustancias se contraen al enfriarse y se dilatan al calentarse, lo que permitió la invención del termómetro. También el agua caliente reduce su volumen al enfriarse. Pero por debajo de los 4 °C, ocurre algo extraordinario: comienza de nuevo a dilatarse, como sabe todo el que ha congelado una botella demasiado llena. El resultado es que el hielo es menos denso que el agua líquida y por ello flota, un fenómeno que ya interesó a Galileo Galilei, cuando en 1612 razonaba que “el hielo debería ser más bien agua rarificada que condensada”.

Pero ¿qué ocurriría de no ser así? En los océanos, lagos y ríos, la capa flotante de hielo que se forma en invierno impide que escape el calor, manteniendo en estado líquido el agua que yace debajo. Si el hielo cayera al fondo, continuaría formándose más cantidad hasta que todo se convirtiera en una gran masa sólida; el calor de la superficie solo lograría fundir una delgada capa superior, lo que habría imposibilitado la evolución de la vida compleja como hoy la conocemos. Además del papel bioquímico crucial del agua, la biología, la geología y la dinámica de los océanos fueron fundamentales para hacer de la Tierra un planeta habitable


En los océanos, lagos y ríos, la capa flotante de hielo impide que escape el calor, manteniendo en estado líquido el agua que yace debajo. Crédito: Jay Mantri


En los océanos, lagos y ríos, la capa flotante de hielo impide que escape el calor, manteniendo en estado líquido el agua que yace debajo. Crédito: Jay Mantri
No es ni mucho menos la única propiedad inusual del agua. Por su fórmula química, como óxido de hidrógeno (H2O), debería seguir la pauta que marcan el sulfuro de hidrógeno (H2S), seleniuro de hidrógeno (H2Se) o telururo de hidrógeno (H2Te), compuestos similares con los elementos que siguen al oxígeno en su grupo de la tabla periódica. Si así fuera, el agua debería hervir por debajo de -80 °C y congelarse hacia -100 °C. Por suerte para la vida terrestre, sabemos que no es así; de hecho, su congelación a 0 °C y su ebullición a 100 °C —a nuestra presión atmosférica normal— no solo le confieren una amplia franja de temperaturas en estado líquido, sino que la convierten en la única sustancia que en las condiciones habitables de la Tierra puede encontrarse en forma sólida, líquida y gaseosa.

UN RARO FENÓMENO FÍSICO-QUÍMICO

De lo anterior puede intuirse que las propiedades aberrantes del agua son, como confirma a OpenMind el químico Martin Chaplin, profesor emérito de la London South Bank University, “totalmente responsables” de la existencia de la vida en la Tierra. De hecho, añade Nilsson, curiosamente “parece que el agua se vuelve anómala a las temperaturas a las que normalmente existe la vida”. Pero ¿a qué clase de raro fenómeno físico-químico debemos agradecer nuestra existencia? Según Chaplin, “hay varias explicaciones, pero ninguna de ellas ha demostrado ser concluyente o plenamente inclusiva”. En su origen están las peculiares características del oxígeno, uno de los elementos más electronegativos de la tabla periódica. Al combinarse con el hidrógeno atrae los electrones hacia sí con tal fuerza que la molécula de agua, aunque eléctricamente neutra en su conjunto, forma dos polos, negativo y positivo.


El agua puede actuar como lubricante y como adhesivo entre superficies. Fuente: Pixabay


Este carácter dipolar del agua es clave, ya que le permite formar enlaces llamados de puente de hidrógeno. En comparación con otros compuestos en apariencia similares, “la formación de puentes de hidrógeno en el agua es mucho más fuerte y más extensiva”, dice Chaplin. Estos enlaces confieren al agua un comportamiento pegajoso que es responsable de su enorme tensión superficial —la mayor en un líquido exceptuando el mercurio— y de que pueda actuar al mismo tiempo como lubricante y adhesivo entre superficies.


INTENSOS DEBATES CIENTÍFICOS

Son las estructuras microscópicas derivadas de estos enlaces, las cuales a su vez determinan las propiedades anómalas, las que aún mantienen a los científicos inmersos en intensos debates. El hielo tiene una estructura estable tetraédrica, con una molécula de agua en el centro unida por puentes de hidrógeno a otras cuatro en los vértices. Este ordenamiento regular espacioso es el causante de la baja densidad del agua congelada. Solía pensarse que al pasar al estado líquido, esta estructura simplemente se volvía más dinámica, rompiéndose y formándose puentes de hidrógeno a razón de un billón de veces por segundo, dando como resultado una masa más compacta.

Pero en 2004 Nilsson, Pettersson y sus colaboradores descubrieron que en el agua líquida las moléculas tienden a abandonar la estructura tetraédrica y a formar solo dos puentes de hidrógeno. “Propusimos que la estructura dominante está muy distorsionada”, dice Nilsson. “Desde entonces también hemos postulado que existen dos dominios estructurales fluctuantes, líquido de alta y de baja densidad”. El modelo plantea que el agua líquida no forma una estructura homogénea, sino que es una mezcla de dos diferentes, una tetraédrica ligera y otra densa y desordenada que predomina a temperatura ambiente. Esta surge cuando el hielo se descongela, aumentando su densidad, pero por encima de 4 °C el aumento de la forma densa induce una repulsión entre las moléculas que resulta en la dilatación térmica.



Agua líquida y hielo. Crédito: P99am


Así, según el modelo de Nilsson y Pettersson, estas dos estructuras diferentes y rápidamente cambiantes conviven en el mismo líquido en las condiciones ambientales terrestres. A temperaturas o presiones extremas, el agua adopta solo una de las dos configuraciones y se comporta como un líquido cualquiera, sin esas rarezas que hacen de ella el líquido más extraño del universo y a las cuales debemos nuestra existencia.


FUENTE: BBVA Openmind
Share:

Enigma prehistórico: por qué la ciencia decidió abandonar la búsqueda del eslabón perdido.

La existencia de un ser en la evolución que conectaba al mono con el ser humano obsesionó a los científicos del siglo XIX y perdura hasta hoy


El Australopithecus afarensis, la especie de Lucy, cuyo esqueleto fue encontrado en 1974, fue uno de los tantos homínidos con los que se creyó haber hallado el eslabón perdido, el nexo entre los simios y los seres humanos


La imagen es fácilmente reconocible, un clásico de la divulgación científica. En ella se ve de perfil una serie de personajes que caminan en fila india. El primero de la hilera es un mono, en general un chimpancé. El último, un hombre. Los cuatro o cinco seres que hay entre ellos representan la transición entre el primate y el humano. Es quizás la ilustración más popular para simbolizar la evolución humana.

Y al calor de esa idea de progresión evolutiva lineal, que parece representar esa imagen, se consolidó otro concepto, el de “el eslabón perdido”. Esta noción, que todavía tiene vigencia hoy en el imaginario popular y en algunos medios de comunicación, alude a la existencia de algún ancestro de la humanidad actual, que fue en parte simio y en parte humano.


Una de las tantas versiones que representan la evolución humana


El eslabón perdido era la pieza crucial que unía a la humanidad con los monos y, por lo tanto, con el resto de la naturaleza. Por mucho tiempo, la búsqueda de algún fósil que comprobara la existencia de este eslabón fue una obsesión de buena parte de la comunidad científica, que veían el objetivo de su búsqueda como el Santo Grial de la evolución.

Pero a esta altura es fundamental aclarar que hay dos conceptos que se vertieron aquí que no son correctos. Es que, para la ciencia, en primer lugar, la idea de una evolución progresiva y lineal no tiene asidero en la historia natural.

Y en segundo lugar, también desde un punto de vista científico, el eslabón perdido no existe, o al menos se trata de un concepto por completo erróneo. Así es. Por más atractivo que resulte, posiblemente haya llegado la hora de descartarlo.


El eslabón perdido en el siglo XIX


Naturalistas y divulgadores de la ciencia utilizaron el término “eslabón perdido” en el siglo XIX, especialmente luego de la aparición de El Origen de las especies, el libro que Charles Darwin publicó en 1859.

Entonces, “muchos científicos se abocaron a la búsqueda de esta ‘pieza faltante’ para conectar a los humanos con el resto del reino animal, una evidencia crucial para demostrar la teoría de la evolución por selección natural”, explica  María Pía Tavella, licenciada en Antropología especializada en antropología Genética.


Ernst Haeckel sostenía, como lo ilustra esta imagen de 1874, que desde los organismos unicelulares hasta el hombre, la evolución constaba de 24 pasos y que en el paso 23, estaba el eslabón perdido.


El naturalista alemán Ernst Haeckel era uno de los que entendían la evolución como un proceso progresivo desde las formas más simples a las más complejas. Pocos años después de la publicación del libro de Darwin, este científico estipuló que en la naturaleza existían 24 estadíos hasta llegar al ser humano, y estableció al eslabón perdido en el anteúltimo de ellos. Era un ente que existía entre medio del orangután y el Homo sapiens.

Aún sin tener la menor evidencia de la existencia de ese ser, le puso el nombre científico de Pithecanthropus alalus o, en términos populares, “el hombre mono sin habla”.


El anatomista holandés Eugene Dubois, por su parte, también se obsesionó con la idea de encontrar al eslabón perdido y entre 1891 y 1892 descubrió en Java los restos fósiles de lo que luego sería identificado como el Homo erectus. Entonces, su hallazgo sacudió tanto al universo científico como al de la opinión pública, y pocos dudaron del hecho de que ese “Hombre de Java” encontrado era, en rigor, el famoso eslabón. Pero, pese al entusiasmo reinante, no lo era.


En 1898, el New York Journal anunciaba el hallazgo de los restos de "el hombre de Java" y aseguraba que se trataba de el eslabón perdido


“El eslabón perdido viviente”

“A fines del siglo XIX, el ‘eslabón perdido’ se convirtió en una expresión familiar que se usaba principalmente en relación con la evolución humana y, específicamente, con la hipotética conexión entre primates y humanos. Fue utilizado tanto por científicos como por periodistas. Pero también por entretenedores y presentadores de exhibiciones de curiosidades”, cuenta Tavella.

En relación con esto último, tanto en Estados Unidos como en Europa comenzaron a exhibirse en ferias personas de etnias “exóticas”, a quienes se presentaba muchas veces como “el eslabón perdido viviente”. Un ejemplo de ello fue Kraos, una niña laosiana que sufría de hipertricosis, una afección por la que crece el pelo en áreas del cuerpo donde no suele crecer.

De acuerdo con lo que cuenta el biólogo catalán Alex Richter-Boix en su sitio de biología y ecología evolutiva Evoikos, Kraos fue “capturada” en su país en 1881 y años más tarde recorrió toda Europa de la mano del promotor de espectáculos canadiense Antonio, el Gran Farini. La niña era presentada como “El eslabón perdido: la prueba viviente de la teoría del origen del hombre de Darwin”.



Krao, la niña de Laos afectada con hipertricosis era presentada en las ferias europeas bajo el nombre de "el eslabón perdido viviente".


De este modo, se comprueba también cómo la idea de un eslabón perdido servía de excusa para reafirmar los prejuicios eurocentristas respecto de otros grupos humanos y para confirmar una perspectiva racista desde una supuesta teoría científica evolutiva. Así también, en los Estados Unidos, numerosos afroamericanos eran exhibidos como seres considerados a medio camino entre el Homo sapiens y los chimpancés.


Darwin y la scala naturae


Pero más allá de estos nocivos efectos colaterales de su teoría, lo que logró Darwin con su obra (a El origen de las especies le siguió, en 1871, la publicación de El origen del hombre) fue confirmar que la humanidad no era otra cosa que el resultado de un proceso natural, con un origen compartido con otros animales. El hombre y la mujer no eran, de esta manera, el propósito último del universo, como se sostenía hasta entonces.

Tavella cita a la antropóloga y escritora estadounidense Misia Landau, quien señaló que la narración estándar de la evolución humana empezó necesariamente con un héroe, y ese no era otro que el naturalista británico.


Charles Darwin, autor de El origen de las especies y El origen del hombre, dos obras clave para la ciencia del siglo XIX



“Dado que la teoría expuesta por Darwin proponía un origen común entre simios y humanos, se esperaba que su ancestro común tuviera la característica de ambos. Así empezó la búsqueda del eslabón perdido en el registro fósil y surgió la disciplina que hoy conocemos como Paleoantropología”, explica la antropóloga Tavella.

Entonces también se debatía en qué lugar del planeta sería posible hallar a este nexo entre simios y humanos. Algunos científicos hablaban de Asia, y otros, de África.

Sin embargo, antes aún de la teoría darwiniana, existía el concepto de la Scala naturae del pensamiento cristiano del iluminismo, o de la cadena de los seres vivos, a los que se jerarquizaba de los más simples a los más complejos. De modo que, asegura Tavella, “la idea de eslabones perdidos en la cadena de seres, la noción de huecos en el registro fósil ya estaba muy establecida con anterioridad a El origen de las especies en la Inglaterra victoriana”.


Ilustración del Pithecanthropus alalus, el "hombre mono sin habla" que había imaginado el naturalista alemán Ernst Haeckell


“No hay eslabón perdido”

Para el 1900, el eslabón perdido había pasado de ser un concepto científico hipotético a convertirse en un objeto materializado -ilusoriamente- en sitios de excavación, museos, periódicos, caricaturas y mercados. Muchos creyeron haberlo encontrado, muchos fueron desestimados, pero pocos dudaron de su existencia.

Sin embargo, ya por aquel entonces había voces que se elevaban contra el que parecía ser un concepto científico universal. Es el caso del antropólogo británico Edward Clodd, que ya en 1895 escribió algo que prácticamente se sostiene hasta el día de hoy. “El hombre no es ni descendiente ni hermano de los simios, sino una especie de primo. Y la respuesta a la pregunta: ‘¿Dónde está el eslabón perdido?’, es: “no hay eslabón perdido, y nunca lo hubo”, expresó el científico, que también era banquero y escritor.

“Las similitudes y diferencias entre simios y humanos se explican del mismo modo que las similitudes y diferencias de los simios entre sí -prosiguió Clodd-. Las similitudes son causadas por la descendencia de un ancestro común, mientras que las diferencias han surgido lentamente de formas sutiles. Los primates forman las ramas superiores del árbol de la vida, cuya rama más alta es el hombre”.



Restos del Homo naledi, encontrados cerca de Johanesburgo, en Sudáfrica



La cita es extensa, pero vale para entender el por qué de la negativa científica a hablar del eslabón perdido, aunque el concepto insista en persistir hasta el día de hoy y aparezca aun en algunos titulares casi cada vez que los paleoantropólogos encuentran los fósiles de algún homínido.

Así ocurrió, por caso, cuando se descubrió el Australopithecus africanus, en 1924, con la aparición del Homo habilis, en 1964 y con el hallazgo del Austalopithecus aferensis, la famosa Lucy, en 1974.



La evolución como un árbol ramificado

De regreso a la ilustración que lleva en fila india del mono al hombre, la primera vez que se publicó fue en un libro de 1965 llamado El hombre primitivo (Early Man), del antropólogo estadounidense Francis Clark Howell. El ya clásico dibujo fue realizado por Rudolph F. Zallinger y lleva por título “El camino hacia el Homo sapiens”.


Una versión abreviada de la ilustración conocida como "el camino del Homo sapiens", publicada originalmente en el libro Early Man, del año 1965


Aunque en ese libro, el propio Howell advirtió que no debía tomarse de modo literal como si se tratara de una progresión directa entre las especies, la popularidad de la imagen fue tan vertiginosa e inmensa que no se pudo impedir su malinterpretación.

“El problema es que la imagen da a entender que la evolución humana se dio como un proceso unilineal y progresivo, y que ese proceso tiende a un fin: el hombre blanco moderno”, señala Tavella.

Sin embargo, agrega la científica, hace décadas que esa visión está “desterrada por la evidencia paleontoantropológica y genética”. No hubo evolución lineal. En cambio, “los homínidos se ramificaron y divergieron en géneros y especies separadas desde los principios de su evolución”.


Entonces, para representar el proceso evolutivo, no tiene nada que hacer la fila india, sino más bien la idea de un arbusto muy ramificado donde los humanos “son solo una ramita”, como señala el antropólogo británico Robert Foley, autor del libro Humanos antes de la humanidad, de 1997.


Ilustración de un grupo de neandertales


“La metáfora de la evolución como un árbol ramificado es uno de los componentes principales ya desde la teoría darwinista -afirma Tavella-, donde los organismos actuales (los extremos de las ramas) descienden de ancestros comunes en el pasado. Sin embargo, esta noción aparece menos representada en la literatura de divulgación y en la enseñanza básica, donde se sigue colando el lastre de la ‘escala evolutiva’, herencia del siglo XVIII”.

Para redondear estos conceptos, la antropóloga señala que las representaciones lineales transmiten la falsa idea de que los primates actuales son nuestros antepasados, cuando más bien compartimos ancestros. “La separación entre el linaje humano y el de chimpancés y gorilas ocurrió hace entre 6 y 8 millones de años, por lo que cada línea evolutiva siguió su proceso independiente todo este tiempo”, asegura.

Como prueba de que ciertos especímenes primitivos no eran nuestros antepasados, sino más bien nuestros “primos” por decirlo de alguna manera, baste decir que hay evidencia genética de que el Homo Sapiens se cruzó con especies de homínidos con las que convivió en el Pleistoceno medio, como el Homo neanderthalensis o los Denisovanos.

Si bien el homo sapiens, el ser humano actual, habita sin otros homínidos el planeta hace 30.000 años, todavía hay pruebas de las hibridaciones que realizó con humanos arcaicos. “Podemos observar entre 2-4 por ciento de ancestría genética de origen neandertal en poblaciones actuales de Eurasia y hasta 6 por ciento de ancestría proveniente de los Denisovanos en algunas poblaciones oceánicas”, informa Tavella.


El Homo sapiens convivió unos miles de años con el Homo neanderthalensis y con los Denisovanos


La evolución es un hecho, no un propósito

Otro mito con respecto a la evolución tiene que ver con que es un proceso progresivo hacia organismos “mejores” o “superiores”. Por lo contrario, como sostenía el célebre paleontólogo estadounidense Stephen Jay Gould, la evolución es un hecho, no un propósito. Esto es, el devenir evolutivo es resultado de una interacción única entre procesos azarosos y deterministas, no es el resultado de un plan.



“La evolución se basa en continuidades y discontinuidades -agrega Tavella-. La naturaleza biocultural de los humanos es la principal discontinuidad que emerge de nuestra historia evolutiva. Los seres humanos nos definimos por habernos convertido en seres complejos. La cuestión es si esa complejidad es exclusiva de nuestra especie o si ha emergido en otras especies”.

Lo cierto es que la conducta humana y su capacidad mental han sido el auténtico distintivo -más que lo anatómico- para diferenciar a los Homo sapiens de otras especies animales. Se cree que estos rasgos puramente humanos surgieron como respuesta a los frecuentes cambios climáticos ocurridos en el período pleistoceno, gracias a los cuales nuestros ancestros desarrollaron habilidades para la cooperación, el aprendizaje social y la acumulación cultural.


Algunas poblaciones actuales de Oceanía tienen un 6% de ancestría genética proveniente de los Denisovanos, coom el que se representa en la imagen


“Entre los rasgos que ayudan a definir el comportamiento humano moderno se señalan varios: el lenguaje articulado y simbólico, el manejo del fuego, la tecnología lítica de láminas (herramientas de piedra), la talla sobre hueso, la ornamentación corporal, la práctica de rituales o la construcción de redes de intercambio”, señala Tavella.

La antropóloga añade que muchas de esas adquisiciones evolutivas ya estaban presentes en otras especies del género homo -sobre todo en los Neandertales, pero quizás también en sus antecesores, los Homo heidelbergensis-, pero es el Homo sapiens quien las generaliza “a escala planetaria”.


En conclusión, contrariamente a lo que todavía puede creerse, la evolución no es un proceso lineal ni progresivo, sino más bien ramificado y azaroso. Y por eso mismo, al no existir una gradación escalonada entre las especies, tampoco es posible que exista un solo eslabón que haga la conexión entre una y otra.

En otras palabras el eslabón perdido no existe, o, al menos, es un concepto erróneo. A esta altura, es apenas un mito, una antigua utopía científica que se extinguió pero que, de todas formas, sigue dando batalla en los medios y en el imaginario popular.


FUENTE: La Nación
Share:

La fiesta que acabó con un imperio


La celebración del 2.500 aniversario de la creación del Imperio persa fue una de las más caras y grandiosas en la historia de la humanidad.

La indignación de la población con la decisión del entonces sah dejó una enorme huella en las mentes de la población y se considera una de las razones por las que el régimen del sah cayó.



La celebración, que tuvo lugar hace medio siglo, duró cinco días, entre el 12 y el 16 de octubre de 1971, y conmemoró la fundación del Imperio persa aqueménida por el rey Ciro el Grande.

El objetivo de las celebraciones no fue simplemente rendir homenaje a la antigua cultura y celebrar la historia de Irán. Era mucho más importante mostrar al mundo los avances tecnológicos del Irán del sah Mohammad Reza Pahleví.
La pomposidad con la que se celebró el 2.500 aniversario de Persia indignó a muchos habitantes. Había serias razones detrás de su ira.
La mayoría de ellos vivía en condiciones precarias, mientras que la monarquía despilfarraba decenas de millones de dólares en dicha festividad.

Para más inri en el evento sí había numerosos invitados extranjeros, pero muy pocos verdaderos 'invitados de honor', los propios persas.


El sah por alguna razón dejó de lado a sus propios súbditos y lo festejó con los líderes mundiales. Muchos creen que la ira y la decepción de los habitantes con el paso del tiempo llevaron a la Revolución de 1979.

Este punto de vista no es universalmente aceptado, pero sí se puede decir con certeza que fue uno de los factores que dieron inicio a los eventos que llevaron al cambio de poder en el país, y que a su vez culminó con la proclamación de la república islámica.

Precisamente por eso muchos consideran que esta fiesta, que buscaba celebrar la creación y la existencia del imperio, en realidad acabó con él para siempre.


El ayatolá Jomeiní


Los clérigos que luego llegarían al poder, en particular el ayatolá Jomeiní, entonces criticaron duramente la celebración al tacharla de 'festival del diablo'. La crítica de aquellos acontecimientos persiste incluso en la actualidad.


Los preparativos para la mayor fiesta de la historia




Los preparativos para la celebración del 2.500 aniversario duraron casi un año. Para enfatizar la importancia del evento el régimen del sah decidió celebrar el evento en la antigua capital del Imperio aqueménida, Persépolis, ubicada cerca de la actual ciudad iraní de Shiraz.

Una de las partes más importantes de los preparativos para el evento fue la modernización de la infraestructura de transporte: la construcción de una carretera que conectaría el lugar de las celebraciones con el modernizado aeropuerto internacional de Shiraz.
La meta de las autoridades persas era conseguir casi lo impensable: crear un oasis en medio de un desierto, la zona de Persépolis.

Para hacer realidad el sueño del sah había que importar hierba, árboles e incluso animales de otras partes del planeta. Los autores de este grandioso proyecto hasta limpiaron el desierto de serpientes y de demás especies para que los invitados se sintieran más cómodos.

Los creadores de la nueva Persépolis crearon la llamada Ciudad de Tiendas. compuesta de 50 tiendas para dar hospedaje a numerosos invitados extranjeros.
 



Hoy esta ciudad, al igual que otras partes de la 'nueva Persépolis’, luce abandonada. Es un recordatorio y un monumento al despilfarro totalmente insensato de dinero público.


La gran preocupación fue la seguridad, dada la alta concentración de líderes mundiales en un solo lugar, y que además dicho sitio estaba muy aislado, lo que representaba un gran peligro para quienes se encontraban en él.

Para estos fines las tiendas donde vivían estaban equipadas con teléfonos y con conexión por satélite.

La lujosa celebración

La fiesta que entró en la historia por su pompa

El evento fue tan importante que se televisó y transmitió en muchos países. Los monarcas de Irán, el rey y la reina, dieron inicio a la festividad el 12 de octubre, cuando rindieron homenaje al rey aqueménida y fundador del Imperio, Ciro el Grande.

El evento contó con muchos asistentes, y los monarcas los recibieron personalmente durante los dos primeros días.






La celebración de la fundación del Imperio persa coincidió con el cumpleaños de la reina, Farah Pahlaví. Precisamente el 14 de octubre tuvo lugar la famosa cena de gala. Los 600 invitados cenaron durante más de cinco horas.

Se convirtió en el banquete más prolongado y pomposo de la historia moderna. Los gastos fueron altísimos, y la cena también destacó por la ausencia de los ciudadanos del país, a excepción de la mismísima familia real.




Entre los invitados había muchos monarcas de las familias reales de Europa, pero también otros líderes políticos.

Los más destacados fueron el heredero al trono de España, Juan Carlos de Borbón; el jefe de Estado de Yugoslavia, Josip Broz Tito; el presidente de Brasil, Emílio Garrastazu Médici; y el vicepresidente de Estados Unidos, Spiro Agnew. La reina británica, Isabel II, no asistió al evento por razones de seguridad.






Las celebraciones continuaron con el desfile militar de las Fuerzas Armadas iraníes y con otro banquete menos oficial. El día 16 concluyó las celebraciones con la inauguración de la torre Shahyad, en la capital del país, Teherán.

Hoy es una de las principales atracciones turísticas de la ciudad, pero tras la Revolución iraní fue renombrada como Torre Azadi, o Torre Libertad. Las ruinas de Persépolis son ahora una atracción turística.




El legado de la festividad del 2.500 aniversario del Imperio persa está vivo incluso hoy porque muchos creen que ya no hay vuelta atrás al despilfarro insensato de dinero a manos de la familia real.
Que los ciudadanos no fueran invitados fue una bofetada del sah que el pueblo todavía recuerda.


FUENTE: Sputnik

Share:

Kepler-16b



Una de las imágenes más recordadas de Star Wars es el momento en el que Luke Skywalker mira hacia la puesta de sol del desierto de Tatooine y vemos cómo se ven 2 soles. Aunque esta imagen forme parte de la historia del cine parece ser que podría ser una realidad; no es que la NASA haya descubierto la ubicación de Tatooine ni nada parecido sino que el telescopio Kepler ha localizado un planeta que orbita alrededor de dos estrellas, es decir, dos soles.


El planeta, que se encuentra a 200 años luz de la Tierra, poco o nada tiene que ver con el árido y desértico planeta que recrease George Lucas (rodando en el desierto de Túnez) puesto que el planeta es frío y gaseoso, así que es poco probable que albergue vida pero su descubrimiento demuestra, según la agencia espacial estadounidense, la diversidad de planetas que forman nuestra galaxia.

Investigaciones anteriores habían sugerido la existencia de planetas que girasen alrededor de varias estrellas pero su confirmación era difícil de alcanzar. El Kepler detectó un planeta, bautizado como Kepler-16b, a partir de la observación de tránsitos donde el brillo de una estrella se atenúa cuando el planeta pasaba delante de ella. Según William Borucki, responsable del proyecto Kepler:

Este descubrimiento confirma una nueva clase de sistemas planetarios que podrían albergar vida. Teniendo en cuenta que la mayoría de estrellas de nuestra galaxia son parte de un sistema binerio, las oportunidades de encontrar vida son mucho más amplias que si los planetas se formasen únicamente alrededor de estrellas simples. Este hito confirma una teoría que hasta ahora no se había probar tras décadas de trabajo


Tatooine

Este proyecto es la primera misión de la NASA con capacidad de encontrar planetas del tamaño de la Tierra o cercanos a la "zona habitable", es decir, la región en un sistema planetario en la que podría existir agua líquida en la superficie de un planeta en órbita. El Kepler-16b fue detectado cuando el planeta, al orbitar, provocaba un eclipse (desde el punto de vista de la Tierra) sobre una de las dos estrellas. Cuando la estrella más pequeña bloquea parcialmente a la más grande, se produce un eclipse primario y, a la inversa, uno secundario. Estos eclipses eran regulares y, dado que aparecían otros fenómenos, todo hacía pensar que había un tercer cuerpo que, además, debía estar en desplazamiento para que todas estas ocultaciones se reprodujesen bajo intervalos de tiempo más o menos constantes. La fuerza de atracción de las estrellas, medidas por los cambios en los tiempos de los eclipses, era un buen indicador de la masa del tercer cuerpo, que resultó ser el planeta.


La mayoría de cosas que sabemos sobre el tamaño de las estrellas y los planetas proviene del estudio de estos sistemas binarios de eclipses. Kepler-16 combina lo mejor de ambos mundos, con los eclipses de estrellas y tránsitos planetarios en un único sistema.


Kepler-16b es un planeta frío (se estima una temperatura que oscila entre -73 y -101 ºC) con un tamaño parecido al de Saturno y se cree que está compuesto por rocas y gases. Sus soles son algo más pequeños que nuestro Sol, uno se estima que tenga un 69% del tamaño y el otro, más pequeño, tan sólo el 20%. Este planeta tan especial orbita alrededor de ambas estrellas cada 229 días, es decir, un tiempo similar al de la órbita de Venus pero, en su caso, se encuentra fuera de la zona habitable de su sistema (a unos 104.000 kilómetros) y, por tanto, sin posibilidad de que exista agua en su superficie puesto que esas estrellas son algo más frías que nuestro Sol.





FUENTE: Hipertextual

Share:

Most Popular

Etiquetas

Wikipedia

Resultados de la búsqueda

Desde otros puntos de la WEB...