El 'Solar Impulse' consigue mantenerse en el aire 26 horas seguidas.
Solar Impulse, el avión solar experimental, ha aterrizado hoy en el aeródromo de la localidad suiza de Payerne y ha completado el primer vuelo nocturno de la historia. La aeronave sólo propulsada por energía solar y sus correspondientes baterías ha realizado la aventura, 26 horas seguidas en el aire, con éxito.

Los promotores del proyecto consideran que este viaje ha sido una apuesta y que incluso ha superado sus expectativas. "El aparato captó la energía suficiente como para volver a ganar altura y pasar una nueva noche volando", explicó, su principal impulsor, inventor del Solar Impulse y millonario suizo, Bertrand Piccard.

El prototipo de avión- dotado de 10.748 células fotovoltaicas, con una envergadura de 63,4 metros y 1600 kilos de peso- se elevó ayer con unas condiciones meteorológicas ideales hasta los 8.700 metros de altura, un record en cuanto a distancia del suelo para un aparato de este tipo.

El avión ha realizado varias idas y vueltas durante su vuelo nocturno. La velocidad media ha sido de 50 kilómetros por hora a fin de preservar al máximo la energía acumulada.

Piccard ha declarado esta mañana en el aeródromo de Payerne que "es la primera vez que un avión solar consigue volar un día y una noche de seguido" y ha añadido que "hoy, Solar Impulse ha demostrado que la hazaña es posible."

El avión ha aterrizado en Suiza sin ningún problema. El piloto de la nave, André Borschberg, dijo momentos después de pisar tierra que había pasado una "noche extraordinaria".

La duración del vuelo encumbra a este tipo de prototipo de avión solar como el protagonista de la travesía aérea más larga de esta naturaleza, al superar ampliamente la marca obtenida por otro aparato solar ultraligero con un piloto a bordo, que en 1981 logró volar de Francia a Inglaterra en cinco horas.

Este primer viaje abre la vía a un posible vuelo transatlántico y una vuelta al mundo prevista para dentro de tres años. Los comandantes serán Piccard, inventor e ideólogo del aparato, y André Borschberg, que repite como piloto.

En una entrevista realizada esta mañana, Piccard ha señalado que la idea del avión solar le surgió en 1999 cuando realizó la vuelta al mundo en globo, que siempre ha crecido con ese deseo de aventura y se ha declarado un protector del medio ambiente, "mi abuelo público un artículo científico sobre la energía solar en 1943, mi padre siempre ha estado muy preocupado por el medio ambiente y me lo ha inculcado" y finalizó "hay que dar más fuerza a las energías verdes."

Este proyecto arrancó en 2004 con un presupeusto de 40 millones de euros. Tras varios ensayos, el rpmier vuelo de hora y media de duración se realizó el pasado 7 de Abril. El 1 de julio se tuvo que posponer el primer intento de vuelo nocturno por problemas técnicos que hubiesen impedido el seguimiento desde de tierras de parámetros cruciales para la seguridad de la nave y su tripulación.

Fuente: ElPaís

Publicado por Nexus viernes, 16 de julio de 2010 0 comentarios

Os vais de vacaciones, cogéis un avión transatlántico y, de repente, por arte de birlibirloque, zas, se estropean todos los motores del avión. ¿Podréis llegar al aeropuerto planeando? ¿Cuánto tardaréis en convertiros en personajes de Lost?

La distancia que puede cubrir un avión planeando viene determinada por su rendimiento aerodinámico, es decir, el índice que mide las cantidades relativas de elevación y resistencia aerodinámica de las alas.

Por lo general, este índice es de 22 para los monoplanos, unos 16 para los aviones a reacción de pasajeros convencionales y de sólo 8 como máximo para los aviones supersónicos de ala en flecha como el Concorde.

Para saber si salvaréis la vida, hay que multiplicar dicho índice por la altitud del avión en el momento del fallo de los motores. Por ejemplo, si fallan a 10.000 m de altitud, un avión de pasajeros de motor a reacción debería poder llegar a 160 km de distancia.


Todo esto, por supuesto, es la teoría. En la realidad puede haber algunas variaciones. Pero no muchas, como podemos ver en el siguiente caso real:
En agosto de 2001, un airbus 330 canadiense de Air Transat que cubría la ruta Toronto-Lisboa sufrió una terrible pérdida del combustible. Tras detectar el fallo, los pilotos pusieron rumbo a un aeródromo de las Azores, pero los dos motores fallaron cuando aún estaban a casi 140 km de distancia. Por fortuna, el rendimiento aerodinámico del avión era de 16 y el fallo se produjo a 10.500 m, con lo que logró planear hasta su destino. Los pilotos lograron llevar a cabo un aterrizaje a alta velocidad en el que sólo una docena de pasajeros sufrieron alguna herida leve.

Fuente: GenCiencia

Publicado por Nexus 1 comentarios

Ya desde el colegio nos repetían que, si bien existe un límite para la temperatura más fría en el universo (el Cero Absoluto, -273,15 Cº), no había límite para la temperatura más alta. En otras palabras, hay un límite para el frío, pero no para el calor (algo que por cierto adquiere un especial sentido en estos días de sofocante calor).

Sin embargo, en 1966, el físico teórico Andréi Sájarov se obsesionó con la idea de que quizá también existía un máximo de temperatura posible. Concluyó, entonces, que este límite debería estar relacionado con la cantidad máxima de energía radiante que puede introducirse en el volumen mínimo de espacio.

A nivel cuántico, existe un volumen mínimo, una escala tan pequeña que el significado de “espacio” pierde el sentido. Esto ocurre a escalas de 0,000000000000000000000000000000000001 m (algo incluso más pequeño que una partícula subatómica).


Es decir, que el volumen mínimo concebible en metros cúbicos sería entonces la cifra de arriba… pero con 105 ceros.
Sájarov planteó un argumento similar para calcular la cantidad máxima de energía que se puede meter en este ínfimo volumen, y a partir de ahí extrajo la temperatura de la radiación resultante.

¿Y cuál fue el resultado? Nada menos que una temperatura enorme, mayor que cualquier temperatura creada por un ser humano: 100.000.000.000.000.000.000.000.000.000.000 ºC. Una temperatura que sólo se ha se ha producido en una ocasión, durante el Big Bang.

Por cierto, la temperatura más alta alcanzada artificialmente se ha conseguido en las entrañas de los grandes aceleradores de partículas: 1.000.000.000.000.000.000 ºC.

Fuente: GenCiencia

Publicado por Nexus 0 comentarios

Simulación de la colisión frontal de dos estrellas
 de neutrones, realizada por un grupo de la Universidad
 Politécnica de Cataluña
El proyecto EuroGENESIS pretende ahondar en la historia de las especies químicas, desde el Big Bang a nuestros días.
Desde un minúsculo grano de arena a un cúmulo de galaxias, el Universo (con permiso de la materia y la energía oscuras) rebosa de materia formada por átomos. Existen 93 variedades atómicas en forma natural, a las que hay que sumar dos docenas de especies sintetizadas artificialmente en el laboratorio. Sin embargo, no todas ellas presentan la misma abundancia: hidrógeno y helio son, con diferencia, las dos especies dominantes; el resto se agrupa en una caprichosa distribución irregular de abundancias que tiende a disminuir al considerar núcleos más y más pesados. De hecho, las causas del predominio de unas especies sobre otras y del perfil específico de las abundancias químicas observadas en el universo han dado lugar a acaloradas discusiones y desaforadas conjeturas.

Alquimia estelar
Cinco décadas después del descubrimiento de la radiactividad, los físicos Ralph Alpher, Hans Bethe y George Gamow propusieron que, en las extraordinarias condiciones que imperaban poco después de la explosión inicial (Big Bang), el Universo primitivo devino un verdadero horno en el que se cocinó la totalidad de la tabla periódica de los elementos. Sin embargo, estudios posteriores, corroborados por medidas de abundancias en estrellas muy viejas, han permitido entrever que el Universo primitivo era químicamente muy pobre: la síntesis de elementos durante las primeras etapas del Universo (la llamada nucleosíntesis primordial) se limitó a un puñado de especies ligeras: dos isótopos de hidrógeno (protio y deuterio), helio (helio-3 y helio-4) y litio (litio-7), producidos a temperaturas cercanas a los 10 elevado a nueve grados Kelvin, entre 200 y 1.000 segundos después de la explosión. El resto de especies químicas, desde el hierro presente en nuestra sangre al calcio de nuestros huesos, pasando por el silicio de los chips de ordenador, tuvo que esperar a la gestación de las primeras estrellas, unos 180 millones de años después.

Las estrellas constituyen verdaderas factorías de transformación nuclear, crisoles donde la materia primordial se forja en núcleos más y más complejos. Mediante episodios más o menos explosivos, las estrellas retornan parte de este material procesado termonuclearmente al medio interestelar; materia en la que, cual ave fénix, volverán a gestarse nuevas generaciones de estrellas, enriquecidas progresivamente en materiales más pesados que el hidrógeno y el helio. Sin el concurso de los procesos nucleares que tienen lugar en las estrellas no habrían aparecido jamás las moléculas de la vida. De hecho, debemos nuestra propia existencia a una improbable combinación de factores, entre otros a la existencia de las estrellas.

EuroGENESIS y el origen de las especies
Si en 1859 Charles Darwin publicaba su famoso tratado El origen de las especies, obra fundacional de la moderna biología evolutiva; un siglo después, en 1957, veían la luz dos trabajos pioneros sobre el origen de las especies químicas, publicados por E.M. Burbidge y colaboradores, y por A.G.W. Cameron.

Una iniciativa reciente que persigue arrojar luz en este campo, recogiendo el testigo de una miríada de esfuerzos anteriores, es el ambicioso proyecto EuroGENESIS . A través de un enfoque multidisciplinar y transnacional, este proyecto pretende ahondar en el origen de los elementos, a lo largo de los distintos episodios que configuran la historia nuclear del Universo, desde el Big Bang a nuestros días. Pretende también dar respuesta a cómo la materia presente en el cosmos, formada por estos mismos elementos, ha devenido compleja, hasta el punto de hacer posible la emergencia de la vida. Seleccionado en los prestigiosos proyectos competitivos EUROCORES de la European Science Foundation (ESF), EuroGENESIS nace con el objetivo de integrar, por primera vez, astrofísicos teóricos especialistas en la modelización de estrellas por ordenador; astrónomos observacionales que determinan las abundancias químicas del universo mediante telescopios terrestres y espaciales (o a partir de medidas de granos meteoríticos en el laboratorio); cosmoquímicos que estudian cómo se asocia la materia en el espacio hasta formar sólidos y eventualmente planetas capaces de albergar formas de vida; y físicos nucleares que proporcionan la información básica sobre el tipo de transmutaciones nucleares que se producen en las estrellas mediante esfuerzos experimentales y teóricos. EuroGENESIS, con un presupuesto de 2,5 millones de euros, agrupa varios centenares de especialistas de 16 países, a través de la participación de 29 centros de investigación, tan prestigiosos como el Instituto de Astrofísica de París, la Universidad de Washington (St. Louis, EE UU), tres institutos Max Planck, la Academia de Ciencias de Rusia o el laboratorio TRIUMF, en Vancouver (Canadá). España participa a través de cuatro instituciones: la Universidad Politécnica de Cataluña , el Instituto de Estudios Espaciales (CSIC, Bellaterra), el Instituto de Estructura de la Materia (CSIC, Madrid) y la Universidad de Huelva.

Cataclismos estelares
Un ejemplo ilustrativo del tipo de investigación multidisciplinar que se persigue lo brindan las novas clásicas, titánicas explosiones termonucleares de naturaleza estelar cuya teórica emisión gamma no ha sido nunca confirmada. De hecho, la detección de dicha emisión constituye un objetivo de misiones espaciales como Integral, de la ESA. Una de las señales gamma predichas por los modelos guarda relación con la desintegración del flúor-18 sintetizado en tales explosiones. Pero la detección de la correspondiente emisión gamma topa con un serio obstáculo: el desconocimiento del ritmo de destrucción de flúor-18 mediante colisiones con protones, cuya caracterización requiere complicados experimentos de física nuclear. Un mayor conocimiento de esta reacción no sólo mejoraría las predicciones teóricas de la emisión gamma de las novas sino que ayudaría también a esclarecer el origen de ciertas anomalías halladas en granos meteoríticos.

Este y otros desafíos de la astrofísica moderna sólo serán posibles a través de programas multidisciplinares como EuroGENESIS, que aboguen por combinar esfuerzos en la frontera de la investigación en astrofísica computacional, cosmoquímica, astronomía observacional y física nuclear.
Fuente: ElPaís

Publicado por Nexus martes, 22 de junio de 2010 0 comentarios

La sal contiene varios componentes procedentes del efecto de disolución provocado por la lluvia al caer sobre las rocas, a través de los ríos. Por supuesto, los que tienen más probabilidades de llegar al mar son los más solubles al agua, que son el cloro y el sodio, los componentes básicos de la sal común. Y que representan el 90 % de todos los componentes disueltos en el mar.

El mar contiene 37 gramos de sal en cada litro. Es decir, casi 40 bolsas de kilo, como las se compran el supermercado para cocinar, en cada metro cúbico. Si toda esta concentración se extrajera de los océanos se generaría una capa de sal de unos 45 metros de espesor.

Sin embargo, aunque parece mucho, los cálculos de los índices de escorrentía indican que, a estas alturas, el mar ya debería estar saturado completamente de sal. Y tan muerto como el mar Muerto. ¿Por qué esto no ha ocurrido? ¿Por qué la salinidad del mar permanece estable desde hace más de 200 millones de años?

El ecologista James Lovelock propuso una explicación en su Gaia Hipótesis en los años 1970 según la cual los organismos vivos interactúan con la Tierra de manera que mantienen el planeta en las condiciones adecuadas para la vida. Un exceso de salinidad representa una grave amenaza para la vida marina; Lovelock se preguntó entonces si habría algún organismo que soportara la salinidad de la erosión de la tierra de todo el globo.

Y encontró un candidato: un microbio primitivo causante de la creación de lagunas enormes pero poco profundas de las regiones costeras como Baja California, en donde el calor del sol evapora el agua y hace que se concentre la sal. No está claro si el proceso es lo suficientemente potente como para evitar la saturación del mar, pero al menos aporta una respuesta fascinante a este misterio.

Una explicación más extensa la ofrece la web Fondear:
Cada partícula molecular de sal esta formada por un ión de Cloro y otro de Sodio, y al disolverse en el agua, lo que ocurre es que se separan. De hecho existen otros muchos tipos de iones como los de Calcio, Sulfato, Magnesio, Potasio, o Bicarbonato en proporciones menores. Sólo al evaporarse el agua en las salinas, se vuelven a juntar las parejas de iones para formar la sal tal como la conocemos en los saleros de nuestros comedores. Cada ión tiene su propio equilibrio con la naturaleza. El ión sodio equilibra su aporte por los ríos, con la desaparición debido a la fácil sedimentación del sodio. El ión potasio equilibra su aporte por su absorción con las arcillas del fango marino. El ión calcio es absorbido por los animales para formar sus caparazones y conchas, y que al morir crean un sedimento en los fondos. El ión del cloro es el único que permanece constante en el mar ya que no se intercambia por ningún proceso, pero tampoco es aportado por los ríos a los océanos. Por ello se cree que permanece como tal desde el principio de la historia de la tierra, momento en el que formaba parte de la atmósfera corrosiva que nos envolvía.

Fuente: GenCiencia

Publicado por Nexus 1 comentarios

Ante la pregunta de dónde empieza exactamente el espacio, lo cierto es que sólo hay un país en el mundo que lo haya declarado. Ocurrió en 2002. Fue entonces cuando Australia adoptó los 100 km de altitud como referencia del punto de inicio del espacio.

Y es que más de 40 años después de que empezaran a explorar el espacio los primeros astronautas, sigue sin existir una definición reconocida internacionalmente de dónde estuvieron. Se suele considerar espacio exterior al territorio que queda fuera de la atmósfera terrestre, pero el límite superior de la atmósfera es tan difuso que se han tenido que definir límites de manera más o menos arbitraria.

La NASA hace tiempo que tiene la tradición de conceder las alas de astronauta a aquellos individuos que consiguen llegar a una altura de 50 millas de altura (80,47 km), que certifican que han estado en el espacio.

Durante los años 1970, ocho pilotos de prueba de aviones cohete X-15 se unieron a los astronautas de los programas Mercurio, Géminis y Apolo que habían obtenido este galardón; el piloto Joe Walker alcanzó una altura de más de 100 km en dos vuelos que realizó en 1963.

La mayoría de los expertos concuerdan que un vuelo a semejante altitud ya puede considerarse un viaje espacial en toda regla. La línea de Kármán, nombrada así en honor a Theodore von Kármán, se sitúa a 100 kilómetros sobre nuestras cabezas (bueno, sobre el nivel del mar), y es la altura aceptada por la Federación Aeronáutica Internacional (FAI) para definir el límite del espacio.

A los 100 kilómetros se sitúa el límite en el que la atmósfera se convierte lo suficientemente fina como para no poder proporcionar una fuerza sustentadora que lo mantenga. La distancia calculada no fueron exactamente 100 kilómetros, pero como estaba muy próximo, von Kármán propuso aceptar esta cifra como límite.

Sin embargo, recientemente quizá se haya conseguido trazar una frontera aún más concreta gracias al instrumento denominado Supra-Ion de imágenes térmicas, que fue llevado por el cohete JOULE II el 19 de enero del 2007. Viajó a una altitud de unos 200 kilómetros sobre el nivel del mar y la recolectó datos durante los cinco minutos que se desplazó a través del “borde del espacio”.

La información recibida del instrumento diseñado en la Universidad de Calgary constató la frontera entre la atmósfera de la Tierra y el espacio ultraterrestre: empieza 118 km por encima de la superficie de la Tierra.
Fuente: GenCiencia

Publicado por Nexus domingo, 20 de junio de 2010 1 comentarios

Las fuentes de radiación utilizadas para verificar el proceso de datos obtenidos por el satélite 'WMAP' se muestran como circulitos blancos, sobre el mapa de la radiación de fondo cósmica en microondas.
Un estudio pone en duda la interpretación de los datos del satélite 'WMAP'.
Los errores en los datos del satélite WMAP pueden ser mayores de lo estimado hasta ahora, dicen científicos británicos. Si tienen razón, las consecuencias no son despreciables, estaría en cuestión la existencia de una fuerza misteriosa que se ha denominado energía oscura y que constituye nada menos que el 74% del universo. El catedrático Tom Shanks, de la Universidad de Durham , ha dirigido el estudio, que estudia los datos del satélite lanzado en 2001 para medir las variaciones en la radiación de fondo cósmica, en el rango de las microondas, que es la huella de la Gran Explosión que dio lugar al Universo.

Según la interpretación de estos datos y otros el cosmos está compuesto de un 4% de materia normal, un 22% de materia oscura (invisible, cuya composición no se conoce) y un 74% de energía oscura, cuya naturaleza no se conoe.

Shanks y su colega Utane Sawangwit se fijaron en objetos astronómicos que no se pueden observar bien con radiotelescopios para probar el método utilizado en los datos del WMAP. La normalización de estos es mucho mayor de lo que se creía, señalan en la revista Monthly Notices of the Royal Astronomical Society, lo que indica que las variaciones son menores de lo estimado, y que ni la materia oscura ni la enegía oscura existen en realidad.

"Las observaciones de la radiación de fondo son una herramienta poderosa en la cosmología y es importante verificar cualquier efecto sistemático. Si nuestros resultados son correctos, sería menos probable que la energía oscura y las partículas exóticas de materia oscura dominen el Universo".

En un estudio anterior en el que también participaron estos científicos, se puso en duda igualmente que la radiación de fondo permita llegar a las conclusiones obtenidas según el modelo estándar del Universo. Si existe la energía oscura, produce una aceleración en la expansión del Universo. En su viaje desde la omnipresente radiación de fondo hasta telescopios como el WMAP, los fotones viajan a través de supercúmulos gigantes de galaxias. Sin embargo, los nuevos resultados, basados en un estudio de un millón de galaxias luminosas, del Sloan Digital Sky Survey , sugieren que no se observa la huella de esta aceleración en los fotones.

"Lo más seguro es que el modelo Estándar, con sus enigmáticas energía oscura y materia oscura, sobrevivirá, pero hacen falta más pruebas", afirma Shanks.

Fuente: ElPaís

Publicado por Nexus jueves, 17 de junio de 2010 0 comentarios

Noticias del Espacio

Subscribe here

Imagen del dia

Video de la semana

Chat