La variabilidad cromosómica en la especie humana es mucho más asombrosa, compleja y desafiante de lo que no hace muchas décadas creíamos.
Cromosomas de una persona con síndrome de Turner, abajoa la derecha está el cromosoma X y el espacio vacío delcromosoma Y faltante. (Imagen CC-GFDL de The Cat,vía Wikimedia Commons)
Los seres humanos solemos buscar fronteras precisas que no existen en la
↧
Ni niño ni niña
↧
Jacob Bronowski, el inspirador de Cosmos
Escritor, poeta, matemático, apasionado de la ciencia y el humanismo, Jacob Bronowski fue lo más cercano a un hombre del renacimiento en el siglo XX.
Jacob Bronowski en el campo de exterminio deAuschwitz, en su serie El ascenso del hombre.(Imagen © BBC)
Quienes hoy disfrutan Cosmos, una odisea del espacio tiempo, presentada por el astrofísico Neil DeGrasse Tyson quizá saben que la serie nació
↧
↧
Los zorros plateados de Belyaev
Uno de los más grandes y prolongados experimentos de la historia de la biología, que empezó en 1957 y sigue hoy, ha reproducido, aceleradamente, el proceso de domesticación que convirtió al lobo en perro.
Dmitri Belyaev con sus zorros domesticados.
Es difícil imaginarse que investigar ciencia pueda ponerle a uno en peligro de muerte. Más en el siglo XX. Pero así fue en la antigua Unión
↧
La Luna, su origen y su futuro
Es la presencia nocturna más llamativa, que ha inspirado por igual a filósofos, artistas y científicos. Pero, estando tan cerca, aún no hemos podido resolver el acertijo de su origen.
La Luna distorsionada por una hoguerade la noche de San Juan.(Foto © Mauricio-José Schwarz)
Al ver la luna llena en la noche resulta todavía difícil apreciar, aunque lo sepamos, que estamos viendo un cuerpo
↧
Pensar que el otro piensa
Para prosperar como especie, es necesario que podamos comprender lo que los demás piensan y sienten, saber que son como nosotros y formar con ellos una comunidad.
"El pensador", bronce de Auguste Rodin.
(Foto GDL de Nicolás Pérez, vía Wikimedia Commons)
Uno de los más grandes misterios del universo se encuentra en nosotros mismos, en el propio órgano que nos permite saber que existen el
↧
↧
Caroline Herschel y sus cometas
La mujer que se puede considerar la primera científica profesional podía haber pasado sus días como una simple sirvienta en Hanover.
Caroline Herschel con su cometa.(Imagen D.P. vía Wikimedia Commons)
El destino de la mujer alemana en el siglo XVIII (y, para el caso, en prácticamente todo el mundo) era el matrimonio, con apenas el atenuante de que, a diferencia de lo ocurrido en el siglo
↧
El ébola y otras amenazas latentes
Hay virus que apenas empezamos a conocer y cuyos efectos cuando infectan seres humanos parecen a veces producto de la imaginación de un escritor de terror.
Fotografía comunitaria de la aldea de Yambuku, Zaire, en1976, cuando los equipos internacionales llegaron a combatirel primer brote de ébola registrado. (Foto D.P. CDC, víaWikimedia Commons)
El 1º de septiembre de 1976, un hombre se
↧
La cambiante temperatura de la Tierra
La temperatura en un lugar determinado de nuestro planeta, o en todo él, depende de una enorme diversidad de factores, e incluso podría ser que aún no los conozcamos todos.
Mapa de temperaturas medias anuales entre 1961 y 1990 en
todo el mundo. (Imagen GFDL de Robert A. Rhode,
via Wikimedia Commons)
El tiempo es el gran iniciador de conversaciones. Quejarse de él permite iniciar una relación
↧
La familia de los elementos desusados
De los 92 elementos naturales que existen, algunos nos resultan tremendamente familiares, como el hierro, el carbono o el hidrógeno. Pero hay una familia casi desconocida que vive con nosotros sin que sepamos apenas su nombre.
Los colores fluorescentes bajo luz ultravioleta de los billetes
de la moneda europea se deben a la presencia de los
lantanoides europio e itrio. (Imagen D.P. Banco
↧
↧
Procesadores vivientes de alimentos
Quizás no suene muy atractivo a primera vista, pero algunos de nuestros más apreciados alimentos son como son gracias a que en su procesamiento han sido ya digeridos por otros seres vivos.
"Los comedores de ricotta", de Vincenzo Campi,
siglo XVI (Imagen DP vía Wikimedia Commons)
Algunos alimentos fundamentales no habrían existido a no ser porque algunos cultivos son sometidos a la acción de
↧
Linus Pauling, señor de los extremos
Uno de los más grandes químicos desde Lavoisier y un luchador digno por la paz fue, al mismo tiempo, un entusiasta de fantasiosas propuestas de salud que resultaron falsas.
Linus Pauling en 1962, cuando ganó
su segundo Premio Nobel, el de la Paz.
(Foto D.P. del Comité Nobel, vía
Wikimedia Commons)
Pocas personas merecen el nombre de “genios” tanto como Linus Carl Pauling. Y pocos han sido al
↧
La duración de nuestras vidas
Vivir para siempre, sueño de los alquimistas, y frecuente promesa de estafadores. Sigue pareciendo un sueño lejano, pero al menos hoy disfrutamos dos veces más años de vida que nuestros no muy lejanos ancestros.
"Estudio de un viejo", del maestro holandés
Jan Livens, siglo XVII (Imagen D.P. vía
Wikimedia Commons
El récord mundial de longevidad certificada y contrastada lo ostenta Jeanne
↧
Urano, el gigante de hielo
El primer planeta descubierto con telescopio es uno de los más desconocidos por el hombre. El sueño es que alguna de nuestras naves pueda visitarlo en un futuro relativamente cercano.
Los planetas que podemos ver con sólo nuestros ojos son cinco: Mercurio, Venus, Marte, Júpiter y Saturno. O seis si bajamos la mirada al suelo, a nuestro propio planeta, la Tierra.
El telescopio, inventado por Hans Lippershey o por Zacharias Jansen (la historia no es clara), amplió de manera asombrosa el universo cuando Galileo Galilei lo apuntó al firmamento. El ser humano empezó a descubrir que vivía en un espacio asombroso, que las quizá 10 mil estrellas que era capaz de ver en una noche sin luna eran apenas una mínima fracción de los cuerpos que habitan el espacio y, eventualmente, que el sistema solar que Copérnico y Galileo habían descrito estaba ocupado por otros cuerpos que sólo podíamos detectar con nuestros nuevos aparatos.
El honor de descubrir el primer planeta Nuevo desde el inicio de la historia humana correspondió a William Herschel.
Por supuesto, descubrir un planeta no están sencillo si no sabemos cómo deben comportarse los planetas. De hecho, Urano había sido conservado anteriormente en multitud de ocasiones registradas, y el número indeterminado en otras ocasiones que no fueron documentadas para la historia. El propio Herschel, la primera vez que vio en marzo de 1781, lo reportó como un cometa. Tuvieron que pasar varias semanas de cuidadosa observación para que se diera cuenta de que su “cometa” tenía ciertas características singulares que lo hacían similar a un planeta. En palabras del propio astrónomo: ”No sé cómo llamarlo; es posible que sea un planeta en una órbita casi circular alrededor del sol o un cometa moviéndose en una elipse extremadamente excéntrica”.
Pero para 1783, la comunidad astronómica internacional estaba de acuerdo en que se trataba de un nuevo planeta. Este hecho por cierto, convirtió a Herschel en el primer astrónomo profesional al recibir demandas del rey Jorge III un estipendio anual de 200 libras para que se dedicara única y exclusivamente a gastronomía, en el Castillo de Windsor, para además entretener con sus observaciones a la familia real.
A Urano le seguirían otros planetas hasta completar nuestra imagen del sistema solar en el cual habitamos.
Urano es el tercer planeta más grande de nuestro sistema solar después de gigantesco Júpiter y de Saturno, y se distingue por un profundo color azul que es resultado del metano en su atmósfera, que absorbe el extremo rojo del espectro de la luz solar. Aunque solemos llamar A estos planetas gigantes gaseosos, en realidad están formados de un líquido caliente y denso de materiales en forma de hielo, que flotan alrededor de un pequeño núcleo rocoso: agua, metano y amoníaco forman esa capa helada sobre la cual hay una densa atmósfera compuesta principalmente por hidrógeno, helio y una pequeña cantidad de metano.
La característica más notable del planeta descubierto por Herschel es que es el único cuyo eje de rotación es perpendicular al plano de su órbita alrededor del sol. Es como si el eje de la tierra se inclinara 90° hasta ocupar el lugar del Ecuador. De hecho, el polo sur de Urano apunta directamente al sol y el polo norte mira hacia el borde del sistema solar.
Urano tiene anillos también, como los otros gigantes del sistema solar, en un sistema menos complejo que el de Saturno pero más que el de Júpiter y Neptuno. Aunque Herschel reportó haberlos visto, es poco probable, de modo que se considera que el descubrimiento de los anillos lo hicieron los astrónomos James L. Eliot, Edward W. Dunham y Douglas J. Mink el 10 de marzo de 1977.
El propio Herschel descubrió las primeras dos lunas conocidas de Urano, Titania y Óberon, en 1787. Pasaron siete décadas antes del que William Lassell descubriera otras dos en 1851, Ariel y Umbriel, y casi un siglo para que Gerard Kuiper descubriera la quinta: Miranda. Las lunas, por cierto, han recibido nombres de entidades mágicas de la literatura inglesa en lugar de partir de la mitología griega.
Sólo una nave espacial creada por el hombre, la sonda Voyager 2, ha pasado cerca de la superficie de este planeta. El 24 de enero de 1986, la mítica sonda pasó A 81.500 km de las nubes superiores de Urano. Nueve años habían pasado ese lanzamiento este robot para que finalmente pasara brevemente junto a este planeta. En unos pocos días, el Voyager 2 envío a nuestro planeta miles de imágenes y grandes cantidades de datos sobre el planeta sus lunas (de las que descubrió once más), sus anillos, su atmósfera, y otras características. El Voyager también detalló el sistema de anillos alrededor de Urano, descubrió que posee un campo magnético desusadamente potente y que la temperatura en la región ecuatorial parece ser más elevada que en los polos... pese a que recibe menos luz solar que el polo Sur por la inclinación del eje.
La exploración astronómica de Urano ha determinado que tiene un día de 17 horas y 14 minutos terrestres, además de aumentar el número de lunas del planeta hasta 27. Está 19 veces más lejos del Sol que nuestro planeta y su año, su órbita alrededor del sol, es de 84 años terrestres. Es decir, desde que Herschel lo descubrió sólo ha dado tres vueltas alrededor del sol.
Pero Urano presenta hoy más interrogantes que respuestas. Entre ellas: ¿por qué está inclinado su eje?, ¿acaso sufrió una colisión con otro cuerpo celeste? ¿Y por qué Urano, al igual que Neptuno, tiene muchísimo menos hidrógeno y helio que Júpiter y Saturno, cuando su origen nos sugiere que debería ser similar? ¿El interior del planeta es frío o produce su propio calor?
La solución a estas preguntas estaría en una misión que visite el planeta y se establezca en órbita a su alrededor para observarlo con atención. Idealmente, tal misión debería lanzarse en la década de 2020, cuando se requeriría menos combustible y tiempo para llegar a Urano.
Varios científicos han propuesto misiones así. Su máximo obstáculo es el coste que tendría, de entre 1.000 y 2.000 millones de euros.
De no conseguirse financiamiento oportuno para la misión, Urano seguirá siendo un misterio azul en la familia del sistema solar.
![]() |
Urano, con su eje de rotación inclinado 90º y sus anillos girando alrededor de su ecuador. (Foto D.P. NASA/JPL vía Wikimedia Commons) |
El telescopio, inventado por Hans Lippershey o por Zacharias Jansen (la historia no es clara), amplió de manera asombrosa el universo cuando Galileo Galilei lo apuntó al firmamento. El ser humano empezó a descubrir que vivía en un espacio asombroso, que las quizá 10 mil estrellas que era capaz de ver en una noche sin luna eran apenas una mínima fracción de los cuerpos que habitan el espacio y, eventualmente, que el sistema solar que Copérnico y Galileo habían descrito estaba ocupado por otros cuerpos que sólo podíamos detectar con nuestros nuevos aparatos.
El honor de descubrir el primer planeta Nuevo desde el inicio de la historia humana correspondió a William Herschel.
Por supuesto, descubrir un planeta no están sencillo si no sabemos cómo deben comportarse los planetas. De hecho, Urano había sido conservado anteriormente en multitud de ocasiones registradas, y el número indeterminado en otras ocasiones que no fueron documentadas para la historia. El propio Herschel, la primera vez que vio en marzo de 1781, lo reportó como un cometa. Tuvieron que pasar varias semanas de cuidadosa observación para que se diera cuenta de que su “cometa” tenía ciertas características singulares que lo hacían similar a un planeta. En palabras del propio astrónomo: ”No sé cómo llamarlo; es posible que sea un planeta en una órbita casi circular alrededor del sol o un cometa moviéndose en una elipse extremadamente excéntrica”.
Pero para 1783, la comunidad astronómica internacional estaba de acuerdo en que se trataba de un nuevo planeta. Este hecho por cierto, convirtió a Herschel en el primer astrónomo profesional al recibir demandas del rey Jorge III un estipendio anual de 200 libras para que se dedicara única y exclusivamente a gastronomía, en el Castillo de Windsor, para además entretener con sus observaciones a la familia real.
A Urano le seguirían otros planetas hasta completar nuestra imagen del sistema solar en el cual habitamos.
Urano es el tercer planeta más grande de nuestro sistema solar después de gigantesco Júpiter y de Saturno, y se distingue por un profundo color azul que es resultado del metano en su atmósfera, que absorbe el extremo rojo del espectro de la luz solar. Aunque solemos llamar A estos planetas gigantes gaseosos, en realidad están formados de un líquido caliente y denso de materiales en forma de hielo, que flotan alrededor de un pequeño núcleo rocoso: agua, metano y amoníaco forman esa capa helada sobre la cual hay una densa atmósfera compuesta principalmente por hidrógeno, helio y una pequeña cantidad de metano.
La característica más notable del planeta descubierto por Herschel es que es el único cuyo eje de rotación es perpendicular al plano de su órbita alrededor del sol. Es como si el eje de la tierra se inclinara 90° hasta ocupar el lugar del Ecuador. De hecho, el polo sur de Urano apunta directamente al sol y el polo norte mira hacia el borde del sistema solar.
Urano tiene anillos también, como los otros gigantes del sistema solar, en un sistema menos complejo que el de Saturno pero más que el de Júpiter y Neptuno. Aunque Herschel reportó haberlos visto, es poco probable, de modo que se considera que el descubrimiento de los anillos lo hicieron los astrónomos James L. Eliot, Edward W. Dunham y Douglas J. Mink el 10 de marzo de 1977.
El propio Herschel descubrió las primeras dos lunas conocidas de Urano, Titania y Óberon, en 1787. Pasaron siete décadas antes del que William Lassell descubriera otras dos en 1851, Ariel y Umbriel, y casi un siglo para que Gerard Kuiper descubriera la quinta: Miranda. Las lunas, por cierto, han recibido nombres de entidades mágicas de la literatura inglesa en lugar de partir de la mitología griega.
Sólo una nave espacial creada por el hombre, la sonda Voyager 2, ha pasado cerca de la superficie de este planeta. El 24 de enero de 1986, la mítica sonda pasó A 81.500 km de las nubes superiores de Urano. Nueve años habían pasado ese lanzamiento este robot para que finalmente pasara brevemente junto a este planeta. En unos pocos días, el Voyager 2 envío a nuestro planeta miles de imágenes y grandes cantidades de datos sobre el planeta sus lunas (de las que descubrió once más), sus anillos, su atmósfera, y otras características. El Voyager también detalló el sistema de anillos alrededor de Urano, descubrió que posee un campo magnético desusadamente potente y que la temperatura en la región ecuatorial parece ser más elevada que en los polos... pese a que recibe menos luz solar que el polo Sur por la inclinación del eje.
La exploración astronómica de Urano ha determinado que tiene un día de 17 horas y 14 minutos terrestres, además de aumentar el número de lunas del planeta hasta 27. Está 19 veces más lejos del Sol que nuestro planeta y su año, su órbita alrededor del sol, es de 84 años terrestres. Es decir, desde que Herschel lo descubrió sólo ha dado tres vueltas alrededor del sol.
Pero Urano presenta hoy más interrogantes que respuestas. Entre ellas: ¿por qué está inclinado su eje?, ¿acaso sufrió una colisión con otro cuerpo celeste? ¿Y por qué Urano, al igual que Neptuno, tiene muchísimo menos hidrógeno y helio que Júpiter y Saturno, cuando su origen nos sugiere que debería ser similar? ¿El interior del planeta es frío o produce su propio calor?
La solución a estas preguntas estaría en una misión que visite el planeta y se establezca en órbita a su alrededor para observarlo con atención. Idealmente, tal misión debería lanzarse en la década de 2020, cuando se requeriría menos combustible y tiempo para llegar a Urano.
Varios científicos han propuesto misiones así. Su máximo obstáculo es el coste que tendría, de entre 1.000 y 2.000 millones de euros.
De no conseguirse financiamiento oportuno para la misión, Urano seguirá siendo un misterio azul en la familia del sistema solar.
Los nombres de los planetasAgradecido por la generosidad del rey, William Herschel propuso ponerle al nuevo planeta el nombre del monarca, “Planeta Georgiano”. La idea, sin embargo, no fue popular fuera de Inglaterra. Otros astrónomos preferían continuar la nomenclatura ya establecida en Europa y América, basada en la mitología griega. El alemán Johann Bode fue quien propuso el nombre de Urano, el dios padre de Saturno y de los Titanes, los ancestros de los dioses griegos. El nombre, sin embargo, no se generalizó sino hasta mediados del siglo XIX, cuando se descubrió y dio nombre también a Neptuno. |
↧
↧
Los océanos de Cousteau
Antes de "Cosmos" y su viaje por los planetas y la vida, un tenaz aventurero francés nos mostró un universo desconocido y muy, muy cercano: el de los mares que ocupan la mayor parte de la Tierra.
Jacques-Yves Cousteau era difícil de definir. Oceanógrafo que no estudió oceanografía. Biólogo sin título. Capitán de barco que había estudiado para piloto. Y un gran comunicador que nunca estudió comunicación.
El capitán Cousteau, reconocible todavía por su gorro de lana roja y sus gafas, fue conocido gracias principalmente a un programa de televisión, “El mundo submarino de Jacques Cousteau”, una asombrosa serie de documentales sobre los más diversos aspectos del mar y sus habitantes animales y vegetales, emitida de 1968 a 1975. Sin embargo, para ese momento, el inquieto francés ya había vivido varias vidas distintas.
Jacques-Yves Cousteau nació el 11 de junio de 1910 en Saint-André-de-Cubzac, Gironde, Francia. Quizás el más importante acontecimiento de su temprana infancia fue cuando, con apenas 4 años de edad, su frágil estado de salud hizo que su médico le recomendara evitar los deportes bruscos y, en vez de ellos, aprender a nadar. Ése sería el comienzo de la fascinación por el agua que le acompañó toda la vida. El otro aspecto destacado de la personalidad del joven era su interés por los dispositivos mecánicos. Apenas tenía 13 años cuando adquirió una cámara de cine de aficionados, pero antes de registrar cinematográficamente el mundo a su alrededor, decidió desarmarla para ver cómo funcionaba. Océano, mecánica y cine serían, en definitiva, los aspectos definitorios de la vida de Cousteau.
Pero no lo sabría sino hasta pasados unos años.
El niño Jacques no era buen estudiante. De hecho, sus malas notas llevaron a que sus padres lo enviaran a un internado y después a un colegio preparatorio del que salió para entrar, en 1930, a la Escuela Naval de Brest, de donde se graduó como técnico de artillería tres años después. Inmediatamente se enrolo en el ejército con la idea de convertirse en piloto. El rumbo de su vida quedaría decidido, sin embargo, en 1936, cuando a punto de terminar sus estudios de aviación sufrió un fuerte accidente de automóvil del que salió gravemente herido, entre otras cosas con ambos brazos rotos.
Se dice que quizá ese accidente resalvo indirectamente la vida para permitirle convertirse en el gran defensor de los mares, sobre todo porque todos menos uno de los compañeros con los que estudió y que sí se convirtieron en pilotos habrían de morir en combate durante la Segunda Guerra Mundial. Mientras se recuperaba, un amigo le regaló unas gafas de buceo que le abrieron las puertas que cuanto ocurría debajo de la superficie del mar.
La guerra puso en espera cualquier otro proyecto. primero fue instructor de artillería en la base de Toulon, pero una vez consumada la invasión nazi de Francia, se refugió con su familia en un pueblo de la frontera con Suiza, donde se integró a la resistencia francesa y se dedicó a espiar los movimientos del ejército italiano, acción que le valdría numerosos reconocimientos como héroe de guerra.
Pero todavía durante el conflicto armado, Cousteau y el ingeniero Émile Gagnan desarrollaron el primer sistema de buceo o submarinismo totalmente autocontenido, el llamado “SCUBA”, formado por una botella de aire comprimido y un regulador que permitía respirar ese aire sin que saliera despedido por la presión. De un golpe habían inventado el buceo autónomo, y su patente sería una de las primeras fuentes de financiamiento de las exploraciones oceanográficas de Cousteau, que por entonces realizó sus primeros documentales sobre el mundo submarino utilizando también una cámara diseñada por él mismo para soportar la presión bajo el mar.
En principio, el nuevo sistema se utilizó para eliminar de los mares franceses las minas que habían quedado después de la guerra. Pero ya en 1948 Cousteau organizó una expedición en el Mediterráneo para encontrar los restos de un naufragio romano del siglo I antes de la era común, una acción que sería la iniciadora de la arqueología submarina. Dos años después, Cousteau consiguió comprar un dragaminas británico al que convirtió en el primer barco dedicado a la investigación oceanográfica, el Calypso, llamado así en honor a la ninfa de los océanos.
Para financiar sus investigaciones, Cousteau escribió el libro “El mundo silencioso”, que tuvo un éxito instantáneo y que en 1956 convirtió en película. Ya había hecho una docena de documentales, pero éste fue el que lo puso bajo los reflectores, al ganar un Óscar al mejor documental y una palma en el festival de Cannes.
El éxito le permitió abandonar el ejército después de 27 años de servicio. Había logrado el beneplácito del príncipe Rainiero de Mónaco, quien lo nombró director del Museo Oceanográfico de Mónaco y le ofreció apoyo financiero. Ese mismo año fundó un grupo de investigación y un programa experimental para explorar la posibilidad de vivir largos períodos bajo el agua.
Se dedicaría entonces a la investigación y la promoción del estudio marítimo, trabajando estrechamente con organizaciones como National Geographic y diversas instituciones, hasta que en 1968 comenzó la memorable serie de televisión que enseñó al mundo cómo eran realmente los océanos debajo de la superficie.
Pero su trabajo no era únicamente científico. Al paso del tiempo se convirtió en activista en favor del medio ambiente y uno de los iniciadores de la preocupación por los efectos de la actividad humana en distintos ecosistemas. Fue el primero que mostró los problemas ocasionados por la contaminación de los mares, no sólo del aire, impulsando la naciente conciencia ambiental y dedicándole sus mayores esfuerzos a partir de la década de 1980.
Gracias a su actividad, fue distinguido por numerosas organizaciones y academias científicas como la francesa y la estadounidense, que lo hicieron miembro pese a no tener estudios universitarios, además de seguir cosechando premios cinematográficos por sus documentales. Al final de su vida, había producido más de 115 películas y 50 libros, cosechando tres Óscares, un premio Emmy y un Bafta.
En 1996, su embarcación insignia, el Calypso, fue embestida por una barcaza en Singapur. Cousteau murió el 25 de junio de 1997 mientras trataba de conseguir dinero para construir una nueva nave de investigación.
![]() |
El capitán con su clásica indumentaria. Fotografía de la Sociedad Cousteau |
El capitán Cousteau, reconocible todavía por su gorro de lana roja y sus gafas, fue conocido gracias principalmente a un programa de televisión, “El mundo submarino de Jacques Cousteau”, una asombrosa serie de documentales sobre los más diversos aspectos del mar y sus habitantes animales y vegetales, emitida de 1968 a 1975. Sin embargo, para ese momento, el inquieto francés ya había vivido varias vidas distintas.
Jacques-Yves Cousteau nació el 11 de junio de 1910 en Saint-André-de-Cubzac, Gironde, Francia. Quizás el más importante acontecimiento de su temprana infancia fue cuando, con apenas 4 años de edad, su frágil estado de salud hizo que su médico le recomendara evitar los deportes bruscos y, en vez de ellos, aprender a nadar. Ése sería el comienzo de la fascinación por el agua que le acompañó toda la vida. El otro aspecto destacado de la personalidad del joven era su interés por los dispositivos mecánicos. Apenas tenía 13 años cuando adquirió una cámara de cine de aficionados, pero antes de registrar cinematográficamente el mundo a su alrededor, decidió desarmarla para ver cómo funcionaba. Océano, mecánica y cine serían, en definitiva, los aspectos definitorios de la vida de Cousteau.
Pero no lo sabría sino hasta pasados unos años.
El niño Jacques no era buen estudiante. De hecho, sus malas notas llevaron a que sus padres lo enviaran a un internado y después a un colegio preparatorio del que salió para entrar, en 1930, a la Escuela Naval de Brest, de donde se graduó como técnico de artillería tres años después. Inmediatamente se enrolo en el ejército con la idea de convertirse en piloto. El rumbo de su vida quedaría decidido, sin embargo, en 1936, cuando a punto de terminar sus estudios de aviación sufrió un fuerte accidente de automóvil del que salió gravemente herido, entre otras cosas con ambos brazos rotos.
Se dice que quizá ese accidente resalvo indirectamente la vida para permitirle convertirse en el gran defensor de los mares, sobre todo porque todos menos uno de los compañeros con los que estudió y que sí se convirtieron en pilotos habrían de morir en combate durante la Segunda Guerra Mundial. Mientras se recuperaba, un amigo le regaló unas gafas de buceo que le abrieron las puertas que cuanto ocurría debajo de la superficie del mar.
La guerra puso en espera cualquier otro proyecto. primero fue instructor de artillería en la base de Toulon, pero una vez consumada la invasión nazi de Francia, se refugió con su familia en un pueblo de la frontera con Suiza, donde se integró a la resistencia francesa y se dedicó a espiar los movimientos del ejército italiano, acción que le valdría numerosos reconocimientos como héroe de guerra.
Pero todavía durante el conflicto armado, Cousteau y el ingeniero Émile Gagnan desarrollaron el primer sistema de buceo o submarinismo totalmente autocontenido, el llamado “SCUBA”, formado por una botella de aire comprimido y un regulador que permitía respirar ese aire sin que saliera despedido por la presión. De un golpe habían inventado el buceo autónomo, y su patente sería una de las primeras fuentes de financiamiento de las exploraciones oceanográficas de Cousteau, que por entonces realizó sus primeros documentales sobre el mundo submarino utilizando también una cámara diseñada por él mismo para soportar la presión bajo el mar.
En principio, el nuevo sistema se utilizó para eliminar de los mares franceses las minas que habían quedado después de la guerra. Pero ya en 1948 Cousteau organizó una expedición en el Mediterráneo para encontrar los restos de un naufragio romano del siglo I antes de la era común, una acción que sería la iniciadora de la arqueología submarina. Dos años después, Cousteau consiguió comprar un dragaminas británico al que convirtió en el primer barco dedicado a la investigación oceanográfica, el Calypso, llamado así en honor a la ninfa de los océanos.
Para financiar sus investigaciones, Cousteau escribió el libro “El mundo silencioso”, que tuvo un éxito instantáneo y que en 1956 convirtió en película. Ya había hecho una docena de documentales, pero éste fue el que lo puso bajo los reflectores, al ganar un Óscar al mejor documental y una palma en el festival de Cannes.
El éxito le permitió abandonar el ejército después de 27 años de servicio. Había logrado el beneplácito del príncipe Rainiero de Mónaco, quien lo nombró director del Museo Oceanográfico de Mónaco y le ofreció apoyo financiero. Ese mismo año fundó un grupo de investigación y un programa experimental para explorar la posibilidad de vivir largos períodos bajo el agua.
Se dedicaría entonces a la investigación y la promoción del estudio marítimo, trabajando estrechamente con organizaciones como National Geographic y diversas instituciones, hasta que en 1968 comenzó la memorable serie de televisión que enseñó al mundo cómo eran realmente los océanos debajo de la superficie.
Pero su trabajo no era únicamente científico. Al paso del tiempo se convirtió en activista en favor del medio ambiente y uno de los iniciadores de la preocupación por los efectos de la actividad humana en distintos ecosistemas. Fue el primero que mostró los problemas ocasionados por la contaminación de los mares, no sólo del aire, impulsando la naciente conciencia ambiental y dedicándole sus mayores esfuerzos a partir de la década de 1980.
Gracias a su actividad, fue distinguido por numerosas organizaciones y academias científicas como la francesa y la estadounidense, que lo hicieron miembro pese a no tener estudios universitarios, además de seguir cosechando premios cinematográficos por sus documentales. Al final de su vida, había producido más de 115 películas y 50 libros, cosechando tres Óscares, un premio Emmy y un Bafta.
En 1996, su embarcación insignia, el Calypso, fue embestida por una barcaza en Singapur. Cousteau murió el 25 de junio de 1997 mientras trataba de conseguir dinero para construir una nueva nave de investigación.
El legadoLa herencia de Cousteu, por desgracia, fue objeto de litigio por parte de los hijos de sus dos matrimonios. El resultado son dos organizaciones independientes, la Sociedad Cousteau y la Ocean Futures Society, donde hoy sus nietos son una tercera generación de oceanógrafos, ambientalistas y aventureros. Su más reciente logro fue romper en un día el récord del experimento de vida submarina de Cousteau. En junio de 2014, su nieto Fabien Cousteau vivió 31 días bajo el mar. |
↧
25 años de la World Wide Web
Sí, hubo un mundo antes de la web, cuando los archivos se compartían llevando papeles de un lugar a otro y donde la información era mucho menos libre que hoy en día.
Hoy ya tenemos una generación que ha vivido toda su vida con esta herramienta de la información (y de la desinformación), de la comunicación (y de la incomunicación), del entretenimiento y de las relaciones sociales. Una generación para la cual es inimaginable el mundo sin esta interconexión y sin su abundancia de información y entretenimiento.
Aunque a veces lo olvidamos, Internet es una red de varios servicios. El correo electrónico, los archivos compartidos por FTP, los grupos de noticias, los chats IRC, el control de ordenadores remotos por Telnet y otros, la mayor parte de los cuales ya existían antes de que apareciera la World Wide Web. Algunos con el tiempo se han integrado en ésta, pero sin dejar de tener una operación y sistemas independientes.
Conseguir un documento que tuviera otro servidor de la Internet primitiva era enormemente difícil. Requería saber quién lo tenía (no sólo la universidad o institución, sino el servidor en el que estaba alojado, en qué carpeta y con qué nombre) y luego utilizar una conexión FTP para descargarlo, a una velocidad increíblemente baja.
Era lento. Era torpe. Y había que saber lenguaje Unix.
Por otro lado, el correo electrónico ya tenía más de dos décadas funcionando cuando apareció la web. El primer correo se había enviado en 1971 ya con una dirección cuyo usuario y servidor estaban separados por la hoy omnipresente arroba.
Todo ello cambió cuando Tim Berners-Lee decidió intentar utilizar el hipertexto para la comunicación entre servidores de Internet, que estaba en funcionamiento público desde principios de la década de los 80 (antes había sido un proyecto de la defensa estadounidense). El hipertexto es lo que hoy conocemos como vínculo o enlace: un fragmento de texto con una referencia a más texto, a otro documento o a otro servicio. Ya era una idea que varios, incluso Berners-Lee, habían explorado antes.
El proyecto presentado en 1989 tenía por objeto facilitar que los científicos europeos compartieran información en el CERN y otras universidades. Aprobada la idea, hizo un prototipo funcional e instaló el primer sitio web de la historia llamado, precisamente, World Wide Web. A su prototipo siguió el primer navegador Web, Lynx (juego de palabras con “links”, que significa “enlaces”, palabra homófona a “lynx” o “lince”). Poco después, los científicos del CERN instalarían la primera webcam (para vigilar la cafetera y atacarla cuando hubiera café recién hecho), se subió la primera fotografía y se inventó el concepto de “surfear” o navegar la red.
La idea se desató sobre el mundo el 30 de abril de 1993, cuando el CERN hizo público el código fuente (el programa básico) del proyecto, sentando las bases de la red libre que hoy es objeto de controversias, debates y enfrentamientos. Para 1994 ya había más de 10.000 sitios Web y Berners-Lee se fue al MIT en Estados Unidos para ponerse al frente del W3 Consortium, organización sin ánimos de lucro que rige y ordena la WWW, y lucha por mantener sus características básicas como una red pública, libre e independiente de gobiernos e intereses económicos y políticos.
Algunas cifras permiten darnos una idea de la explosión que ha significado la World Wide Web, sin apenas tratar de valorar en justicia, que sería muy difícil, su impacto en la sociedad, en la política, en la actividad académica, en el arte y en todas las actividades humanas, especialmente vinculada a los otros dos actores de la revolución virtual: el ordenador y el teléfono móvil.
Los primeros módems que se usaron en la WWW, que se comunicaban mediante líneas telefónicas analógicas, alcanzaban una velocidad máxima de 14.400 kilobits por segundo, lo que quiere decir que para descargar un megabyte o mega tardaban 14 minutos. La descarga de un vídeo de media hora de calidad razonable disponible en la actualidad, de 5 gigas, por ejemplo, habría tomado... más de 1.200 horas o 48 días. Con un módem de línea digital ADSL o de cable actualmente se puede llegar a velocidades de 300 megabits por segundo, capaz de descargar un mega en algo menos de medio segundo y el mismo vídeo en una media hora.
La mayor velocidad de transmisión de la información ha permitido por lo mismo una explosión en la cantidad y variedad del material disponible en la Web. Y todo ese material está accesible en alrededor de 1.017 millones de sitios Web según una estimación de fines de julio de 2014.
Esos más de mil millones de sitios se encuentran alojados en una cantidad indeterminada de servidores. Algunos medios calculan 75 millones y otros muchos más. Y para llegar a ellos se necesita otro millón de servidores, que son los que tiene Google según calculan los expertos de la industria, aunque sólo la empresa lo sabe con certeza.
Pero la World Wide Web que está entrando a su segundo cuarto de siglo es mucho más que números e información. Es la gente que la usa, la que ha creado sus datos, la que forma sus redes sociales, la que de modo creciente está colocando sus propios archivos, sus documentos, sus fotos, sus vídeos en la red. Se calcula que, accediendo a la World Wide Web mediante ordenadores o smartphones, actualmente el número de usuarios del invento de Berners-Lee es de 2.940 millones de personas a fines de julio de 2014, el 42 por ciento de los seres humanos. Y probablemente habrá llegado a la mitad de los habitantes del planeta antes de su cumpleaños número 26.
Una cifra que para muchos es, simplemente, el desafío de llevar la Web a la otra mitad del mundo.
Hoy ya tenemos una generación que ha vivido toda su vida con esta herramienta de la información (y de la desinformación), de la comunicación (y de la incomunicación), del entretenimiento y de las relaciones sociales. Una generación para la cual es inimaginable el mundo sin esta interconexión y sin su abundancia de información y entretenimiento.
Aunque a veces lo olvidamos, Internet es una red de varios servicios. El correo electrónico, los archivos compartidos por FTP, los grupos de noticias, los chats IRC, el control de ordenadores remotos por Telnet y otros, la mayor parte de los cuales ya existían antes de que apareciera la World Wide Web. Algunos con el tiempo se han integrado en ésta, pero sin dejar de tener una operación y sistemas independientes.
Conseguir un documento que tuviera otro servidor de la Internet primitiva era enormemente difícil. Requería saber quién lo tenía (no sólo la universidad o institución, sino el servidor en el que estaba alojado, en qué carpeta y con qué nombre) y luego utilizar una conexión FTP para descargarlo, a una velocidad increíblemente baja.
Era lento. Era torpe. Y había que saber lenguaje Unix.
Por otro lado, el correo electrónico ya tenía más de dos décadas funcionando cuando apareció la web. El primer correo se había enviado en 1971 ya con una dirección cuyo usuario y servidor estaban separados por la hoy omnipresente arroba.
Todo ello cambió cuando Tim Berners-Lee decidió intentar utilizar el hipertexto para la comunicación entre servidores de Internet, que estaba en funcionamiento público desde principios de la década de los 80 (antes había sido un proyecto de la defensa estadounidense). El hipertexto es lo que hoy conocemos como vínculo o enlace: un fragmento de texto con una referencia a más texto, a otro documento o a otro servicio. Ya era una idea que varios, incluso Berners-Lee, habían explorado antes.
El proyecto presentado en 1989 tenía por objeto facilitar que los científicos europeos compartieran información en el CERN y otras universidades. Aprobada la idea, hizo un prototipo funcional e instaló el primer sitio web de la historia llamado, precisamente, World Wide Web. A su prototipo siguió el primer navegador Web, Lynx (juego de palabras con “links”, que significa “enlaces”, palabra homófona a “lynx” o “lince”). Poco después, los científicos del CERN instalarían la primera webcam (para vigilar la cafetera y atacarla cuando hubiera café recién hecho), se subió la primera fotografía y se inventó el concepto de “surfear” o navegar la red.
La idea se desató sobre el mundo el 30 de abril de 1993, cuando el CERN hizo público el código fuente (el programa básico) del proyecto, sentando las bases de la red libre que hoy es objeto de controversias, debates y enfrentamientos. Para 1994 ya había más de 10.000 sitios Web y Berners-Lee se fue al MIT en Estados Unidos para ponerse al frente del W3 Consortium, organización sin ánimos de lucro que rige y ordena la WWW, y lucha por mantener sus características básicas como una red pública, libre e independiente de gobiernos e intereses económicos y políticos.
Algunas cifras permiten darnos una idea de la explosión que ha significado la World Wide Web, sin apenas tratar de valorar en justicia, que sería muy difícil, su impacto en la sociedad, en la política, en la actividad académica, en el arte y en todas las actividades humanas, especialmente vinculada a los otros dos actores de la revolución virtual: el ordenador y el teléfono móvil.
Los primeros módems que se usaron en la WWW, que se comunicaban mediante líneas telefónicas analógicas, alcanzaban una velocidad máxima de 14.400 kilobits por segundo, lo que quiere decir que para descargar un megabyte o mega tardaban 14 minutos. La descarga de un vídeo de media hora de calidad razonable disponible en la actualidad, de 5 gigas, por ejemplo, habría tomado... más de 1.200 horas o 48 días. Con un módem de línea digital ADSL o de cable actualmente se puede llegar a velocidades de 300 megabits por segundo, capaz de descargar un mega en algo menos de medio segundo y el mismo vídeo en una media hora.
La mayor velocidad de transmisión de la información ha permitido por lo mismo una explosión en la cantidad y variedad del material disponible en la Web. Y todo ese material está accesible en alrededor de 1.017 millones de sitios Web según una estimación de fines de julio de 2014.
Esos más de mil millones de sitios se encuentran alojados en una cantidad indeterminada de servidores. Algunos medios calculan 75 millones y otros muchos más. Y para llegar a ellos se necesita otro millón de servidores, que son los que tiene Google según calculan los expertos de la industria, aunque sólo la empresa lo sabe con certeza.
Pero la World Wide Web que está entrando a su segundo cuarto de siglo es mucho más que números e información. Es la gente que la usa, la que ha creado sus datos, la que forma sus redes sociales, la que de modo creciente está colocando sus propios archivos, sus documentos, sus fotos, sus vídeos en la red. Se calcula que, accediendo a la World Wide Web mediante ordenadores o smartphones, actualmente el número de usuarios del invento de Berners-Lee es de 2.940 millones de personas a fines de julio de 2014, el 42 por ciento de los seres humanos. Y probablemente habrá llegado a la mitad de los habitantes del planeta antes de su cumpleaños número 26.
Una cifra que para muchos es, simplemente, el desafío de llevar la Web a la otra mitad del mundo.
La web profundaLa “web profunda” o “invisible”está formada por todas las páginas que no son indexadas por los buscadores: las accesibles mediante suscripción, redes privadas de empresas y gobiernos; páginas que se generan en respuesta a solicitudes y luego se borran (como nuestros movimientos bancarios al consultarlos) y otras. Se calcula que es miles de veces mayor que la web abierta e incluye, aunque no como lo pintan algunos mitos que rayan en la leyenda urbana, páginas donde se desarrollan actividades ilegales y que son objeto del interés de las corporaciones policiacas de todo el mundo. |
↧
El aire pesa
Ligero pero capaz de arrancar una casa de sus cimientos cuando se mueve a gran velocidad, el aire que respiramos ejerce sobre todo el planeta una presión que condiciona cuanto hacemos.
Para los primeros humanos, el aire era seguramente un material muy extraño. No se podía ver, pero podía refrescarnos, mover las hojas de los árboles, transportar aromas a grandes distancias o azotarnos con enorme violencia, además de que respirarlo resultaba indispensable.
No es raro entonces que el aire preocupara a los antiguos pensadores. En varias culturas se le consideró uno de los elementos primordiales. Entre los griegos, el filósofo Anaxímenes creyó que era el componente esencial del universo, mientras que la visión de Aristóteles sobre los cuatro elementos predominó en Europa durante 20 siglos. Aristóteles también propuso la idea de que el aire tenía peso.
Además, si las enfermedades llegaban por medios invisibles, quizá las traía el aire. Los “malos aires”, se creyó largamente, eran los portadores de los “miasmas”, contaminaciones que provocaban las enfermedades. Esta superstición aún sigue vigente en consejas como la que nos advierte contra el peligro de que “nos dé un aire” porque, por ejemplo, puede ocasionarnos una parálisis facial... cosa que los niños hallan divertido poner a prueba.
La demostración de que el aire pesaba tuvo que esperar a la revolución científica, aunque su base lógica era sólida: si el aire puede mover objetos, desde una brizna de hierba hasta un gran velero, es porque tiene masa, y todo cuanto tiene masa necesariamente tiene peso en un cuerpo como la Tierra con su atracción gravitacional. En 1613, Galileo desarrolló un método para calcular la “gravedad específica” del aire, es decir, su peso. Utilizó un recipiente hermético que pesó en una balanza muy precisa y en el que luego introdujo tanto aire a presión como pudo, descubriendo que su peso había aumentado. Galileo informó de este hallazgo pese a que abría una serie de preguntas que no se podían resolver en ese momento, como, por ejemplo, por qué no sentimos el peso del aire sobre nosotros. Por alguna causa, sin embargo, los resultados de Galileo estaban equivocados, la realidad es aproximadamente el doble de lo que anotó el astrónomo.
A la misma conclusión llegó el francés Jean Rey por otro camino. Observó que al calcinar plomo y estaño el peso de estos metales aumentaba, y supuso que ello se debía a que al calcinarse estos metales incorporaban aire. Hoy sabemos que algunos materiales se oxidan al calcinarse, incorporando moléculas de oxígeno a su composición y aumentando de peso.
La presión que ejerce el peso del aire sobre la superficie de la Tierra y todo cuanto hay en ella, se conoció finalmente cuando Evangelista Torricelli, que había sido ayudante de Galileo durante los últimos tres años de vida del genio perseguido, fabricó el primer barómetro: un tubo de vidrio lleno de mercurio y cerrado por un extremo, cuyo otro extremo se depositaba en un recipiente con mercurio. El metal dentro del tubo bajaba, creando un vacío en el extremo cerrado del tubo, hasta una altura igual a la de la presión de la atmósfera.
La primera medición de Torricelli de la presión, en 1644, le dio un valor de 760 mm de mercurio, o 0,01 newtons de fuerza por cada centímetro cuadrado. El propio Torricelli, al ver que la altura de su columna de mercurio variaba según las condiciones del clima, predijo que la presión atmosférica sería menor cuanto mayor fuera la altura sobre el nivel del mar, algo que confirmarían experimentos posteriores.
Mientras el estudio del aire se convertía en toda el área de la química dedicada a los gases gracias a Robert Boyle, quien fundó la química moderna en el siglo XVII, el estudio de la presión atmosférica se desarrolló como algo indispensable para el estudio de la meteorología, la historia de nuestro planeta e incluso el comportamiento animal y humano.
La presión del aire es variable precisamente porque los gases se pueden comprimir, así que el peso del aire depende de muchas variables que los físicos fueron determinando con el tiempo.
Por ejemplo, el volumen de un gas se reduce cuanta más presión haya y aumenta cuanto más caliente esté. Esto explicaba, por ejemplo, por qué la presión variaba según el clima. Por lo mismo, para determinar el peso del aire es necesario establecer las condiciones: un metro cúbico de aire seco (sin humedad, que aumenta su peso) a 20ºC de temperatura pesa 1.205 kilogramos. Esto significa que cada uno de nosotros soporta sobre sus hombros aproximadamente una tonelada de aire.
¿Por qué no sentimos ese enorme peso o la presión que ejerce? Porque todo nuestro cuerpo compensa esa presión, es decir, los gases que hay en nuestro interior tienen la misma presión. Nuestro cuerpo tiene un empuje que equilibra la presión atmosférica.
Las consecuencias de esto son interesantes. Por ejemplo, cuando un submarinista pasa un período largo de tiempo a gran profundidad, la presión del agua hace que sea necesario respirar el aire embotellado a una presión muy superior a la de la que hay al nivel del mar. Parte de la mezcla que se respira está formada, como nuestra atmósfera, por gases inertes, principalmente nitrógeno, que siempre están disueltos en todos los tejidos del cuerpo. Pero a gran profundidad, esos gases están a una presión mucho mayor. Si el submarinista asciende súbitamente, esos gases se expanden al disminuir la presión exterior y forman burbujas en sus tejidos y, principalmente, en la sangre, que pueden ocasionar la muerte.
La forma de contrarrestar esta enfermedad por descompresión (que también pueden sufrir otros individuos que trabajen en entornos de gran presión) es colocar a la persona en una cámara a presión similar a la que estuvo sometido bajo el mar y disminuir esa presión gradualmente de modo que la presión de los gases de su cuerpo se equilibre poco a poco y sin formar peligrosas burbujas.
En el otro extremo, la baja presión a grandes alturas explica por qué los montañeros suelen tener que llevar oxígeno complementario. A la altitud del Everest y montañas similares, sólo tienen sobre ellos el 30% de la atmósfera que a nivel del mar, y el oxígeno, por tanto, es escaso.
Estatua de Evangelista Torricelli con su barómetro en el Muso de Historia Natural de Florencia, Italia. (Foto CC de Sailko, vía Wikimedia Commons) |
No es raro entonces que el aire preocupara a los antiguos pensadores. En varias culturas se le consideró uno de los elementos primordiales. Entre los griegos, el filósofo Anaxímenes creyó que era el componente esencial del universo, mientras que la visión de Aristóteles sobre los cuatro elementos predominó en Europa durante 20 siglos. Aristóteles también propuso la idea de que el aire tenía peso.
Además, si las enfermedades llegaban por medios invisibles, quizá las traía el aire. Los “malos aires”, se creyó largamente, eran los portadores de los “miasmas”, contaminaciones que provocaban las enfermedades. Esta superstición aún sigue vigente en consejas como la que nos advierte contra el peligro de que “nos dé un aire” porque, por ejemplo, puede ocasionarnos una parálisis facial... cosa que los niños hallan divertido poner a prueba.
La demostración de que el aire pesaba tuvo que esperar a la revolución científica, aunque su base lógica era sólida: si el aire puede mover objetos, desde una brizna de hierba hasta un gran velero, es porque tiene masa, y todo cuanto tiene masa necesariamente tiene peso en un cuerpo como la Tierra con su atracción gravitacional. En 1613, Galileo desarrolló un método para calcular la “gravedad específica” del aire, es decir, su peso. Utilizó un recipiente hermético que pesó en una balanza muy precisa y en el que luego introdujo tanto aire a presión como pudo, descubriendo que su peso había aumentado. Galileo informó de este hallazgo pese a que abría una serie de preguntas que no se podían resolver en ese momento, como, por ejemplo, por qué no sentimos el peso del aire sobre nosotros. Por alguna causa, sin embargo, los resultados de Galileo estaban equivocados, la realidad es aproximadamente el doble de lo que anotó el astrónomo.
A la misma conclusión llegó el francés Jean Rey por otro camino. Observó que al calcinar plomo y estaño el peso de estos metales aumentaba, y supuso que ello se debía a que al calcinarse estos metales incorporaban aire. Hoy sabemos que algunos materiales se oxidan al calcinarse, incorporando moléculas de oxígeno a su composición y aumentando de peso.
La presión que ejerce el peso del aire sobre la superficie de la Tierra y todo cuanto hay en ella, se conoció finalmente cuando Evangelista Torricelli, que había sido ayudante de Galileo durante los últimos tres años de vida del genio perseguido, fabricó el primer barómetro: un tubo de vidrio lleno de mercurio y cerrado por un extremo, cuyo otro extremo se depositaba en un recipiente con mercurio. El metal dentro del tubo bajaba, creando un vacío en el extremo cerrado del tubo, hasta una altura igual a la de la presión de la atmósfera.
La primera medición de Torricelli de la presión, en 1644, le dio un valor de 760 mm de mercurio, o 0,01 newtons de fuerza por cada centímetro cuadrado. El propio Torricelli, al ver que la altura de su columna de mercurio variaba según las condiciones del clima, predijo que la presión atmosférica sería menor cuanto mayor fuera la altura sobre el nivel del mar, algo que confirmarían experimentos posteriores.
Mientras el estudio del aire se convertía en toda el área de la química dedicada a los gases gracias a Robert Boyle, quien fundó la química moderna en el siglo XVII, el estudio de la presión atmosférica se desarrolló como algo indispensable para el estudio de la meteorología, la historia de nuestro planeta e incluso el comportamiento animal y humano.
La presión del aire es variable precisamente porque los gases se pueden comprimir, así que el peso del aire depende de muchas variables que los físicos fueron determinando con el tiempo.
Por ejemplo, el volumen de un gas se reduce cuanta más presión haya y aumenta cuanto más caliente esté. Esto explicaba, por ejemplo, por qué la presión variaba según el clima. Por lo mismo, para determinar el peso del aire es necesario establecer las condiciones: un metro cúbico de aire seco (sin humedad, que aumenta su peso) a 20ºC de temperatura pesa 1.205 kilogramos. Esto significa que cada uno de nosotros soporta sobre sus hombros aproximadamente una tonelada de aire.
¿Por qué no sentimos ese enorme peso o la presión que ejerce? Porque todo nuestro cuerpo compensa esa presión, es decir, los gases que hay en nuestro interior tienen la misma presión. Nuestro cuerpo tiene un empuje que equilibra la presión atmosférica.
Las consecuencias de esto son interesantes. Por ejemplo, cuando un submarinista pasa un período largo de tiempo a gran profundidad, la presión del agua hace que sea necesario respirar el aire embotellado a una presión muy superior a la de la que hay al nivel del mar. Parte de la mezcla que se respira está formada, como nuestra atmósfera, por gases inertes, principalmente nitrógeno, que siempre están disueltos en todos los tejidos del cuerpo. Pero a gran profundidad, esos gases están a una presión mucho mayor. Si el submarinista asciende súbitamente, esos gases se expanden al disminuir la presión exterior y forman burbujas en sus tejidos y, principalmente, en la sangre, que pueden ocasionar la muerte.
La forma de contrarrestar esta enfermedad por descompresión (que también pueden sufrir otros individuos que trabajen en entornos de gran presión) es colocar a la persona en una cámara a presión similar a la que estuvo sometido bajo el mar y disminuir esa presión gradualmente de modo que la presión de los gases de su cuerpo se equilibre poco a poco y sin formar peligrosas burbujas.
En el otro extremo, la baja presión a grandes alturas explica por qué los montañeros suelen tener que llevar oxígeno complementario. A la altitud del Everest y montañas similares, sólo tienen sobre ellos el 30% de la atmósfera que a nivel del mar, y el oxígeno, por tanto, es escaso.
Presión y cocinaNo es igual cocinar al nivel del mar que a mayores alturas. Esto hace necesario adaptar las recetas de cocina considerando que es necesario aumentar las temperaturas o los tiempos de horneado, así como la proporción de líquidos y harina para evitar que las masas queden demasiado húmedas, y dado que los gases se expanden más, debe disminuirse la cantidad de levadura. Además, el agua hierve a 100 ºC al nivel del mar, pero a grandes alturas lo hace a menos temperatura, por lo que los platillos con agua, como la pasta, tardan más tiempo en prepararse. |
↧
La guerra biológica
Todo conocimiento puede ser usado para el mal, sobre todo para el mal mayor que es la guerra, donde ganar a cualquier coste puede llegar a ser muy caro, caso claro de las actuales armas biológicas.
La guerra biológica implica no sólo a seres vivos, sino a las sustancias que producen, como los venenos. De ese modo, las armas biológicas se han usado de modo extendido y desde la antigüedad. Así, ya en la Ilíada y la Odisea se dice que las flechas y lanzas de aqueos y troyanos tenían puntas envenenadas. El veneno procedente de animales o vegetales fue la primera forma de guerra biológica, pero no la única. En la Primera Guerra Sagrada de Grecia, los atenienses y la Liga Anfictiónica envenenaron los pozos de agua del pueblo de Kirra con una planta tóxica.
Es ciertamente inquietante que, aunque no se conocía la existencia de gérmenes patógenos o la forma de desarrollo de las infecciones, los antiguos griegos tuvieran suficiente conocimiento empírico como para hacer lo que cuenta Heródoto, el historiador del siglo V a.E.C., que relata cómo los arqueros escitas mezclaban víboras putrefactas, sangre humana y estiércol de vaca y lo enterraban un tiempo para luego remojar las puntas de sus flechas en la mezcla, seguramente contaminada con diversos agentes infecciosos. Igualmente, era práctica común arrojar con catapultas animales o cuerpos humanos infectados a las ciudades sitiadas.
La palabra “tóxico” viene del antiguo griego toxikon, que se deriva de la palabra para flecha: toxon. Y las toxinas también fueron armas eficaces en oriente. El padre de la medicina china, Shen Nung, describió, en un libro que se dice que tiene cinco mil años de antigüedad, el uso de flechas empapadas en aconitina, un alcaloide de gran actividad obtenido del acónito.
Los agentes patógenos también fueron utilizados por los hititas para triunfar en su guerra contra Arzawa en el siglo XIV a.E.C., cuando llevaron a terreno enemigo carneros y burros infectados de tularemia, una grave infección bacteriana hoy poco frecuente, transmitida a los seres humanos por la vía de garrapatas y mosquitos.
Más directo, el legendario general cartaginés Aníbal llenó ollas de cerámica con víboras venenosas y las lanzó a las cubiertas de las naves del rey de Pérgamo. Un sistema similar empleado por la ciudad de Hatra, cerca de la actual Mosul, en Irak, que provocó la retirada del ejército romano en el siglo II de nuestra era lanzándoles ollas llenas de escorpiones vivos.
Junto con las armas biológicas se desarrollaron supuestos antídotos como el “mitridatium”, que según la leyenda fue creado por el rey persa Mitrídates VI, un experto en venenos cuya fórmula fue buscada y reinventada (y vendida por charlatanes poco escrupulosos) hasta el Renacimiento. Mitrídates sería el primer experto de lo que hoy llamamos “bioseguridad”, un aspecto importante en la defensa y seguridad de los países, especialmente los más poderosos y, por tanto, susceptibles de ataques con armas prohibidas.
La posibilidad de convertir en armas los agentes biológicos se hizo realidad junto con los avances de la biología y la teoría de los gérmenes patógenos de Louis Pasteur y Robert Koch, desarrollada a mediados del siglo XIX. Al mismo tiempo, en 1847, las convenciones de guerra prohibieron las armas envenenadas y después prohibirían toda forma de guerra biológica.
Todavía en la Segunda Guerra Mundial, las armas biológicas fueron utilizadas por última vez en una guerra, digamos, convencional, por el ejército imperial japonés. Los expertos de Hirohito convirtieron en armas las bacterias del tifus y el cólera, y las utilizaron en su guerra contra China para envenenar pozos y lanzar desde aviones pulgas infectadas por la peste. Se calcula que causaron así medio millón de muertes.
Las armas biológicas tienen el problema de ser difíciles de controlar y de apuntar... y que una vez distribuidas la descontaminación puede ser imposible, como descubrió el ejército británico cuando hizo una prueba con esporas de ántrax en una isla escocesa durante la Segunda Guerra Mundial, que hasta hoy está contaminada con ellas. Así, cualquier error o cambio en las condiciones pueden convertir a los atacantes en víctimas de sus propias armas. Un ejemplo fue el brote del más peligroso de los agentes biológicos, el ántrax, que ocurrió en 1974 en la ciudad hoy llamada Ekaterinburgo, causando la muerte de 64 personas. El origen fue una fuga accidental del bacilo de las instalaciones de guerra biológica situadas en la ciudad, pese a que la URSS era signataria de la convención contra armas biológicas firmada apenas dos años antes, en 1972. Estados Unidos sufrió un accidente similar, con otros patógenos, poco después del fin de la Segunda Guerra Mundial.
Esto no impidió que Irak, durante el régimen de Saddam Hussein, entre 1985 y 1991, desarrollara armas biológicas con agentes como ántrax, toxina botulínica y aflatoxinas, aunque no llegaron a usarse pues sus sistemas de dispersión eran altamente ineficientes.
Han sido grupos no regulares los responsables de los más recientes casos de uso o intento de uso de armas biológicas. En 1972, los miembros del grupo racista extremista denominado la Orden del Sol Naciente, fueron detenidos con más de 30 kilogramos de cultivos de bacteria de la tifoidea que planeaban usar para atacar ciudades estadounidenses. En 1984, la secta de Baghwan Rajneesh, “Osho”, esparció un cultivo de salmonela en los restaurantes de Antelope, Oregon, para impedir que la gente votara en unas elecciones con las que pretendían hacerse con el poder en el municipio, con cientos de afectados, 45 hospitalizados y, afortunadamente, ninguna muerte.
Pese a sus riesgos y las prohibiciones mundiales, los países poderosos suelen tenerlas en reserva pero no utilizarlas por la convicción de que las represalias con armas similares serían inmediatas y las posibilidades de proteger a su población son escasas. Asuntos contradictorios de los conflictos bélicos.
La guerra biológica implica no sólo a seres vivos, sino a las sustancias que producen, como los venenos. De ese modo, las armas biológicas se han usado de modo extendido y desde la antigüedad. Así, ya en la Ilíada y la Odisea se dice que las flechas y lanzas de aqueos y troyanos tenían puntas envenenadas. El veneno procedente de animales o vegetales fue la primera forma de guerra biológica, pero no la única. En la Primera Guerra Sagrada de Grecia, los atenienses y la Liga Anfictiónica envenenaron los pozos de agua del pueblo de Kirra con una planta tóxica.
Es ciertamente inquietante que, aunque no se conocía la existencia de gérmenes patógenos o la forma de desarrollo de las infecciones, los antiguos griegos tuvieran suficiente conocimiento empírico como para hacer lo que cuenta Heródoto, el historiador del siglo V a.E.C., que relata cómo los arqueros escitas mezclaban víboras putrefactas, sangre humana y estiércol de vaca y lo enterraban un tiempo para luego remojar las puntas de sus flechas en la mezcla, seguramente contaminada con diversos agentes infecciosos. Igualmente, era práctica común arrojar con catapultas animales o cuerpos humanos infectados a las ciudades sitiadas.
La palabra “tóxico” viene del antiguo griego toxikon, que se deriva de la palabra para flecha: toxon. Y las toxinas también fueron armas eficaces en oriente. El padre de la medicina china, Shen Nung, describió, en un libro que se dice que tiene cinco mil años de antigüedad, el uso de flechas empapadas en aconitina, un alcaloide de gran actividad obtenido del acónito.
Los agentes patógenos también fueron utilizados por los hititas para triunfar en su guerra contra Arzawa en el siglo XIV a.E.C., cuando llevaron a terreno enemigo carneros y burros infectados de tularemia, una grave infección bacteriana hoy poco frecuente, transmitida a los seres humanos por la vía de garrapatas y mosquitos.
Más directo, el legendario general cartaginés Aníbal llenó ollas de cerámica con víboras venenosas y las lanzó a las cubiertas de las naves del rey de Pérgamo. Un sistema similar empleado por la ciudad de Hatra, cerca de la actual Mosul, en Irak, que provocó la retirada del ejército romano en el siglo II de nuestra era lanzándoles ollas llenas de escorpiones vivos.
Junto con las armas biológicas se desarrollaron supuestos antídotos como el “mitridatium”, que según la leyenda fue creado por el rey persa Mitrídates VI, un experto en venenos cuya fórmula fue buscada y reinventada (y vendida por charlatanes poco escrupulosos) hasta el Renacimiento. Mitrídates sería el primer experto de lo que hoy llamamos “bioseguridad”, un aspecto importante en la defensa y seguridad de los países, especialmente los más poderosos y, por tanto, susceptibles de ataques con armas prohibidas.
La posibilidad de convertir en armas los agentes biológicos se hizo realidad junto con los avances de la biología y la teoría de los gérmenes patógenos de Louis Pasteur y Robert Koch, desarrollada a mediados del siglo XIX. Al mismo tiempo, en 1847, las convenciones de guerra prohibieron las armas envenenadas y después prohibirían toda forma de guerra biológica.
Todavía en la Segunda Guerra Mundial, las armas biológicas fueron utilizadas por última vez en una guerra, digamos, convencional, por el ejército imperial japonés. Los expertos de Hirohito convirtieron en armas las bacterias del tifus y el cólera, y las utilizaron en su guerra contra China para envenenar pozos y lanzar desde aviones pulgas infectadas por la peste. Se calcula que causaron así medio millón de muertes.
Las armas biológicas tienen el problema de ser difíciles de controlar y de apuntar... y que una vez distribuidas la descontaminación puede ser imposible, como descubrió el ejército británico cuando hizo una prueba con esporas de ántrax en una isla escocesa durante la Segunda Guerra Mundial, que hasta hoy está contaminada con ellas. Así, cualquier error o cambio en las condiciones pueden convertir a los atacantes en víctimas de sus propias armas. Un ejemplo fue el brote del más peligroso de los agentes biológicos, el ántrax, que ocurrió en 1974 en la ciudad hoy llamada Ekaterinburgo, causando la muerte de 64 personas. El origen fue una fuga accidental del bacilo de las instalaciones de guerra biológica situadas en la ciudad, pese a que la URSS era signataria de la convención contra armas biológicas firmada apenas dos años antes, en 1972. Estados Unidos sufrió un accidente similar, con otros patógenos, poco después del fin de la Segunda Guerra Mundial.
Esto no impidió que Irak, durante el régimen de Saddam Hussein, entre 1985 y 1991, desarrollara armas biológicas con agentes como ántrax, toxina botulínica y aflatoxinas, aunque no llegaron a usarse pues sus sistemas de dispersión eran altamente ineficientes.
Han sido grupos no regulares los responsables de los más recientes casos de uso o intento de uso de armas biológicas. En 1972, los miembros del grupo racista extremista denominado la Orden del Sol Naciente, fueron detenidos con más de 30 kilogramos de cultivos de bacteria de la tifoidea que planeaban usar para atacar ciudades estadounidenses. En 1984, la secta de Baghwan Rajneesh, “Osho”, esparció un cultivo de salmonela en los restaurantes de Antelope, Oregon, para impedir que la gente votara en unas elecciones con las que pretendían hacerse con el poder en el municipio, con cientos de afectados, 45 hospitalizados y, afortunadamente, ninguna muerte.
Pese a sus riesgos y las prohibiciones mundiales, los países poderosos suelen tenerlas en reserva pero no utilizarlas por la convicción de que las represalias con armas similares serían inmediatas y las posibilidades de proteger a su población son escasas. Asuntos contradictorios de los conflictos bélicos.
Animales de ataqueAlgunos expertos consideran que el caballo y los elefantes de guerra son, de cierta forma, agentes de guerra biológica. En ese caso, en la misma clasificación entrarían algunos de los proyectos más descabellados de algunos departamentos de defensa, como el de utilizar delfines para poner minas en embarcaciones enemigas, algo que han explorado tanto los Estados Unidos como la URSS y después Rusia. |
↧
↧
Los genes saltarines de Barbara McClintock
La dotación genética que nos hace lo que somos y es el vehículo de la evolución, se consideraba un esquema rígido. Barbara McClintock demostró que tenían una flexibilidad insospechada, base de la genética moderna.
“Dado que me impliqué activamente en el tema de la genética sólo veintiún años después del redescubrimiento, en 1900, de los principios de la herencia de Mendel, y en una etapa donde la aceptación de estos principios no era generalizada entre los biólogos, tuve el placer de atestiguar y experimentar la emoción creada por los cambios revolucionarios en los conceptos genéticos que han ocurrido en los últimos sesenta y tantos años.”
Es difícil imaginar este mundo que describía Barbara McClintock en su conferencia como Premio Nobel de Medicina o Fisiología de 1983, cuando había biólogos que no aceptaban la genética, no se había establecido el vínculo entre genética y evolución, y no sabíamos nada del ADN.
La propia bióloga galardonada había nacido sólo dos años después del redescubrimiento de los trabajos de Gregor Mendel, el 16 de junio de 1902, en Hartford, Connecticut, en los Estados Unidos. Ese mismo año, Walter Sutton demistraba que la genética mendeliana es aplicaba a los cromosomas de los seres vivos, es decir, que éstos transmitían las características heredadas. También en 1902 el británico Archibald Garrod observó que la alcaptonuria, enfermedad poco común, se heredaba según las reglas mendelianas.
Apenas en 1909, cuando la pequeña Barbara cumplía los 7 años de edad y vivía en Nueva York con su familia, el danés Wilhelm Hohanssen inventó una nueva palabra: “gen” para describir la unidad de herencia mendeliana. Dos años después, Thomas Hunt Morgan determinaba que los genes se encontraban en los cromosomas. Estaban listos los cimientos del trabajo de McClintock.
Barbara entró al Colegio de Agricultura de la Universidad de Cornell, NY, donde se licenció en 1923, obtuvo su maestría en 1925 y su doctorado en 1927, especializada en botánica y no en la genética, que ya era su pasión, pues las disposiciones de la universidad no permitían que una mujer obtuviera un título en la naciente disciplina.
Como doctora, McClintock empezó a trabajar en la propia universidad, trabajando con plantas de maíz, ya que esta especie tiene características que la hacen ideal para el estudio de la genética, pues cada grano de una mazorca es producto de una fertilización independiente, y es distinto de sus vecinos. Esto le permitió ser una de las descubridoras, en 1931, de un fenómeno inesperado: al reproducirse las células vivientes, los cromosomas de cada par intercambian partes entre sí.
Mc Clintock empezó entonces un peregrinaje por distintas instituciones educativas y de investigación en busca de un lugar dónde poder trabajar en condiciones adecuadas: Missouri, California, el Berlín y el Friburgo de la preguerra en 1933, de nuevo Cornell y Missouri, donde trabajó con el novedoso concepto de que la radiación provocaba mutaciones para estudiar la variación genética.
Finalmente, en 1941 la investigadora llegó a Cold Spring Harbor, en Washington, dependiente del Instituto Carnegie, donde encontró su lugar y donde permaneció como investigadora hasta el final de su vida.
Fue allí, en 1944, cuando descubrió que había elementos genéticos que podían cambiar de lugar en los cromosomas. Hasta entonces, la idea aceptada era que los genes se ubicaban en el cromosoma como las perlas en un collar, cada uno con una posición determinada e inmutable que se transmitía inalterado a su descendencia. Lo que demostró el trabajo de McClintock es que no había tal patrón inalterable, sino que por distintas causas, dentro y fuera de la célula, algunos genes pueden cambiar de lugar (transponerse) afectando así al organismo resultante. Los genes, pues, podían “saltar” de un lugar a otro en la cadena, con efectos discernibles. Estas transposiciones o cambios de lugar podían ocurrir de modo autónomo o como resultado de la interacción con otros genes. Así, McClintock descubrió también que había un tipo de genes cuya función era activar –o desactivar- a otros genes en su vecindad, y un segundo tipo de genes que eran responsables de que el activador cambiara de lugar o sufriera transposición.
Este proceso permitía así que ciertos genes del individuo resultante estuvieran o no activos en función de la transposición que hubieran sufrido durante la reproducción. El descubrimiento introducía un elemento adicional para explicar la variabilidad de la dotación genética de las especies, algo fundamental para la evolución.
El mismo año que hizo este fundamental descubrimiento, McClintock fue elegida como miembro de la Academia Nacional de Ciencias de los EE. UU. Era apenas la tercera mujer que ingresaba en la institución. Y en 1945 se validaba su trabajo al convertirse en la primera mujer que presidía la Sociedad Genética de los Estados Unidos, algo singular si recordamos que 20 años antes se le había negado la posibilidad de especializarse en genética.
Su trabajo en los genes saltarines (llamados técnicamente “transposones”) fue recibido con cierto escepticismo cuando finalmente lo publicó en 1950, según sus biógrafos en parte por su condición de mujer pero también por su poca eficiencia en la comunicación de sus resultados. Pero la idea era sólida y la confirmaron estudios diversos entre 1967, el año en que McClintock se jubiló formalmente, y 1970. Una vez validado el descubrimiento, así fuera tardíamente, la genetista fue galardonada con el Premio Nobel.
El escepticismo era explicable de varias formas. Cuando la estudiosa hizo sus descubrimientos ni siquiera se sabía que los genes estuvieran formados por ADN (ese descubrimiento sobrevendría hasta 1952) y lo incierto del camino hacía que la cautela se impusiera al valorar las afirmaciones más revolucionarias.
Pero ésa no sería la única aportación de Bárbara McClintock a la genética. Además de desarrollar numerosas técnicas que permitieron a otros investigadores realizar otros avances, fue una de las primeras biólogas que especuló sobre la epigenética, los cambios hereditarios en la expresión (activación) de los genes que no se deben a cambios en las secuencias de ADN.
Jubilada pero no retirada, Barbara McClintock siguió como investigadora distinguida en el Instituto Carnegie y se dedicó a explicar la transposición de los genes y su significado en la genética moderna. Murió el 2 de septiembre de 1992.
A lo largo de su vida, Barbara McClintock recibió los más altos honores de la academia estadounidense. El Premio al Servicio Distinguido del Instituto Carnegie, el Premio Rosenstiel por investigación médica básica, un fellowship de la fundación MacArthur, el premio Mary Lasker y la Medalla Nacional de la Ciencia de los Estados Unidos.
![]() |
Barbara McClintock en su laboratorio de la Carnegie Institution, en 1947. (Fotografia Smithsonian Institution via Wikimedia Commons) |
Es difícil imaginar este mundo que describía Barbara McClintock en su conferencia como Premio Nobel de Medicina o Fisiología de 1983, cuando había biólogos que no aceptaban la genética, no se había establecido el vínculo entre genética y evolución, y no sabíamos nada del ADN.
La propia bióloga galardonada había nacido sólo dos años después del redescubrimiento de los trabajos de Gregor Mendel, el 16 de junio de 1902, en Hartford, Connecticut, en los Estados Unidos. Ese mismo año, Walter Sutton demistraba que la genética mendeliana es aplicaba a los cromosomas de los seres vivos, es decir, que éstos transmitían las características heredadas. También en 1902 el británico Archibald Garrod observó que la alcaptonuria, enfermedad poco común, se heredaba según las reglas mendelianas.
Apenas en 1909, cuando la pequeña Barbara cumplía los 7 años de edad y vivía en Nueva York con su familia, el danés Wilhelm Hohanssen inventó una nueva palabra: “gen” para describir la unidad de herencia mendeliana. Dos años después, Thomas Hunt Morgan determinaba que los genes se encontraban en los cromosomas. Estaban listos los cimientos del trabajo de McClintock.
Barbara entró al Colegio de Agricultura de la Universidad de Cornell, NY, donde se licenció en 1923, obtuvo su maestría en 1925 y su doctorado en 1927, especializada en botánica y no en la genética, que ya era su pasión, pues las disposiciones de la universidad no permitían que una mujer obtuviera un título en la naciente disciplina.
Como doctora, McClintock empezó a trabajar en la propia universidad, trabajando con plantas de maíz, ya que esta especie tiene características que la hacen ideal para el estudio de la genética, pues cada grano de una mazorca es producto de una fertilización independiente, y es distinto de sus vecinos. Esto le permitió ser una de las descubridoras, en 1931, de un fenómeno inesperado: al reproducirse las células vivientes, los cromosomas de cada par intercambian partes entre sí.
Mc Clintock empezó entonces un peregrinaje por distintas instituciones educativas y de investigación en busca de un lugar dónde poder trabajar en condiciones adecuadas: Missouri, California, el Berlín y el Friburgo de la preguerra en 1933, de nuevo Cornell y Missouri, donde trabajó con el novedoso concepto de que la radiación provocaba mutaciones para estudiar la variación genética.
Finalmente, en 1941 la investigadora llegó a Cold Spring Harbor, en Washington, dependiente del Instituto Carnegie, donde encontró su lugar y donde permaneció como investigadora hasta el final de su vida.
Fue allí, en 1944, cuando descubrió que había elementos genéticos que podían cambiar de lugar en los cromosomas. Hasta entonces, la idea aceptada era que los genes se ubicaban en el cromosoma como las perlas en un collar, cada uno con una posición determinada e inmutable que se transmitía inalterado a su descendencia. Lo que demostró el trabajo de McClintock es que no había tal patrón inalterable, sino que por distintas causas, dentro y fuera de la célula, algunos genes pueden cambiar de lugar (transponerse) afectando así al organismo resultante. Los genes, pues, podían “saltar” de un lugar a otro en la cadena, con efectos discernibles. Estas transposiciones o cambios de lugar podían ocurrir de modo autónomo o como resultado de la interacción con otros genes. Así, McClintock descubrió también que había un tipo de genes cuya función era activar –o desactivar- a otros genes en su vecindad, y un segundo tipo de genes que eran responsables de que el activador cambiara de lugar o sufriera transposición.
Este proceso permitía así que ciertos genes del individuo resultante estuvieran o no activos en función de la transposición que hubieran sufrido durante la reproducción. El descubrimiento introducía un elemento adicional para explicar la variabilidad de la dotación genética de las especies, algo fundamental para la evolución.
El mismo año que hizo este fundamental descubrimiento, McClintock fue elegida como miembro de la Academia Nacional de Ciencias de los EE. UU. Era apenas la tercera mujer que ingresaba en la institución. Y en 1945 se validaba su trabajo al convertirse en la primera mujer que presidía la Sociedad Genética de los Estados Unidos, algo singular si recordamos que 20 años antes se le había negado la posibilidad de especializarse en genética.
Su trabajo en los genes saltarines (llamados técnicamente “transposones”) fue recibido con cierto escepticismo cuando finalmente lo publicó en 1950, según sus biógrafos en parte por su condición de mujer pero también por su poca eficiencia en la comunicación de sus resultados. Pero la idea era sólida y la confirmaron estudios diversos entre 1967, el año en que McClintock se jubiló formalmente, y 1970. Una vez validado el descubrimiento, así fuera tardíamente, la genetista fue galardonada con el Premio Nobel.
El escepticismo era explicable de varias formas. Cuando la estudiosa hizo sus descubrimientos ni siquiera se sabía que los genes estuvieran formados por ADN (ese descubrimiento sobrevendría hasta 1952) y lo incierto del camino hacía que la cautela se impusiera al valorar las afirmaciones más revolucionarias.
Pero ésa no sería la única aportación de Bárbara McClintock a la genética. Además de desarrollar numerosas técnicas que permitieron a otros investigadores realizar otros avances, fue una de las primeras biólogas que especuló sobre la epigenética, los cambios hereditarios en la expresión (activación) de los genes que no se deben a cambios en las secuencias de ADN.
Jubilada pero no retirada, Barbara McClintock siguió como investigadora distinguida en el Instituto Carnegie y se dedicó a explicar la transposición de los genes y su significado en la genética moderna. Murió el 2 de septiembre de 1992.
Los honores
↧
Pseudociencias, las impostoras del conocimiento
Los más recientes descubrimientos científicos que nos llegan por muchos medios, con frecuencia ni son descubrimientos ni son científicos. ¿Cómo identificar el falso conocimiento?
A veces parece que todo el conocimiento está ya descubierto pero por alguna razón no se utiliza ni se enseña en las escuelas: la cura para el cáncer, la forma de mantenernos esbeltos y recuperar el pelo, la energía gratuita y abundante, dinero para todos y otras maravillas.
O al menos eso nos dicen muchas cadenas de correo electrónico, las redes sociales y distintos medios de comunicación de fiabilidad no confirmada.
Estas afirmaciones suelen venir sustentadas en elementos que solemos identificar con la ciencia: palabras como “cuántica”, “energías”, “vibraciones”, “matrices” u “holístico”, supuestos “expertos” y variados argumentos.
Se disfrazan de ciencia, pero ni aplican sus métodos, ni sus precauciones, ni sus protocolos, ni son resultado del intenso trabajo supervisado por otros científicos que permite alcanzar conocimientos razonablemente certeros. Y, no pueden presentar las evidencias que le exigimos a la ciencia.
Estas pseudociencias, formas modernas de la superstición, pueden costarnos dinero y salud. Todos conocemos a alguien que, por creer en terapias no demostradas, ha perdido calidad y cantidad de vida, como el caso de Steve Jobs. Y es que, por imperfecta que sea la ciencia, es nuestra mejor apuesta para todo, desde hacer edificios hasta atender nuestra salud o hacer Internet. Conviene, entonces, ser escéptico.
Pero ¿cómo, sin ser científico, puede alguien separar el trigo de la paja? Aquí tenemos 7 preguntas para detectar, con razonable certeza, si estamos ante una pseudociencia.
1. ¿Cómo se obtuvo y difundió la afirmación? El trabajo científico requiere el concurso de muchas personas. Ya no es tiempo de genios solitarios que podían revolucionar el conocimiento desde su biblioteca. Hoy, multitudes de científicos trabajan en todos los temas del conocimiento. Si alguien afirma que ha obtenido un resultado independientemente y en vez de publicarlo en revistas científicas usa propaganda y boletines de prensa, si no puede dar cuenta de su metodología y mostrar sus datos, es razonable dudar. Y pasar al punto 2.
2. ¿Se ha verificado independientemente? En el trabajo científico, un solo estudio no es bastante. Puede marcar caminos, pero debe ser confirmado por otros investigadores, que repitan o mejoren los métodos de estudio y puedan verificar las conclusiones. Muchas afirmaciones apasionantes, como la de la “fusión fría” que prometía energía gratuita para el mundo, no pudieron ser confirmadas experimentalmente. Se determinó que los investigadores habían usado un método de medición incorrecto. Los científicos se molestaron y pasaron al mundo de la pseudociencia, donde prosperaron sin obtener jamás resultados. Se necesitan muchos estudios y confirmaciones, más si la afirmación es del tipo de las del siguiente punto.
3. ¿Implica rechazar algún principio científico bien establecido? A lo largo del tiempo no pocos principios científicos se han abandonado en favor de otros que describen de modo más preciso la realidad. Después de todo, las explicaciones científicas son modelos siempre sujetos a perfeccionarse. Pero no son creencias caprichosas. Si se pretende desafiar un principio que ha sido comprobado una y otra vez con éxito por muchos investigadores y por cualquiera en la vida cotidiana, y se ha utilizado en la práctica como tecnología (digamos, de Internet), la explicación alternativa debe ser muy sólida, debe cubrir todos los fenómenos anteriormente explicados así como los nuevos y debe ser igualmente demostrable. Es decir, no basta que alguien tenga “argumentos” contra la evolución, la esfericidad de la Tierra o la realtividad de Einstein... debe tener demostraciones y evidencias al menos tan firmes como las que hemos reunido sobre el tema para llegar al modelo que tenemos hoy.
4. ¿Se dice que hay persecución, represión o desprecio de “la ciencia oficial”? Si, como decíamos, la búsqueda del conocimiento es una labor abierta, lo es más en tiempos de Internet y del avión, donde miles de científicos se reúnen diariamente para mostrarse sus descubrimientos y animarse, es muy poco probable que un conocimiento quede oculto sin que nadie más lo descubra en mucho tiempo. Por eso hay verdaderas carreras por lograr ciertos conocimientos y patentarlos antes que la competencia. Los verdaderos perseguidos por difundir datos delicados generalmente corren peligro real, como Roberto Saviano por descubrir el funcionamiento de la camorra napolitana o Snowden por revelar secretos militares estadounidenses. Y la “ciencia oficial”, claro, no existe.
5. ¿Suena demasiado bueno? Si algo parece demasiado bueno para ser cierto, lo más probable es que lo sea. Las dietas milagro, las curaciones sencillas, la promesa de obtener grandes resultados con pocos esfuerzos, son formas del engaño en las que suelen caer los promotores de las pseudociencias. Vamos, si realmente los planos que venden en Internet dieran energía gratuita y le permitieran a alguien cancelar su contrato con la eléctrica de su localidad, seguramente no los vendería un don nadie desde su cochera. Y si alguien tuviera la cura del cáncer, se estaría haciendo enormemente (y legítimamente) multimillonario.
6. ¿Hay alguien ganando dinero detrás de la afirmación? Algunas afirmaciones pseudocientíficas son sólo producto de la ignorancia, el miedo o la desinformación, pero con frecuencia hay detrás empresas que se benefician de ellas, como los vendedores de “productos para contrarrestar la contaminación electromagnética” que promueven fundaciones, organizaciones y conferencias para aterrorizar a la gente con la idea, nunca sustentada en datos, de que las ondas de radio de la telefonía móvil o el wifi tienen efectos dañinos para la salud. Lo mismo se puede decir de las multinacionales de las terapias alternativas.
7. ¿Avanza? Una característica de la ciencia es que un conocimiento bien establecido y comprobado sirve como base para ulteriores investigaciones y descubrimientos. La descripción de las leyes del movimiento de Newton permitieron una enorme evolución hasta llegar a la teoría de la relatividad de Einstein. Las pseudociencias, como la astrología o la homeopatía, se mantienen iguales, basadas en dogmas antiguos y sin un solo avance detectable.
Homeopatía, la pseudociencia por excelencia: sin pruebas sobre su eficacia y seguridad es un negocio de miles de millones de euros al año. (Foto DP de Wikidudeman via Wikimedia Commons) |
O al menos eso nos dicen muchas cadenas de correo electrónico, las redes sociales y distintos medios de comunicación de fiabilidad no confirmada.
Estas afirmaciones suelen venir sustentadas en elementos que solemos identificar con la ciencia: palabras como “cuántica”, “energías”, “vibraciones”, “matrices” u “holístico”, supuestos “expertos” y variados argumentos.
Se disfrazan de ciencia, pero ni aplican sus métodos, ni sus precauciones, ni sus protocolos, ni son resultado del intenso trabajo supervisado por otros científicos que permite alcanzar conocimientos razonablemente certeros. Y, no pueden presentar las evidencias que le exigimos a la ciencia.
Estas pseudociencias, formas modernas de la superstición, pueden costarnos dinero y salud. Todos conocemos a alguien que, por creer en terapias no demostradas, ha perdido calidad y cantidad de vida, como el caso de Steve Jobs. Y es que, por imperfecta que sea la ciencia, es nuestra mejor apuesta para todo, desde hacer edificios hasta atender nuestra salud o hacer Internet. Conviene, entonces, ser escéptico.
Pero ¿cómo, sin ser científico, puede alguien separar el trigo de la paja? Aquí tenemos 7 preguntas para detectar, con razonable certeza, si estamos ante una pseudociencia.
1. ¿Cómo se obtuvo y difundió la afirmación? El trabajo científico requiere el concurso de muchas personas. Ya no es tiempo de genios solitarios que podían revolucionar el conocimiento desde su biblioteca. Hoy, multitudes de científicos trabajan en todos los temas del conocimiento. Si alguien afirma que ha obtenido un resultado independientemente y en vez de publicarlo en revistas científicas usa propaganda y boletines de prensa, si no puede dar cuenta de su metodología y mostrar sus datos, es razonable dudar. Y pasar al punto 2.
2. ¿Se ha verificado independientemente? En el trabajo científico, un solo estudio no es bastante. Puede marcar caminos, pero debe ser confirmado por otros investigadores, que repitan o mejoren los métodos de estudio y puedan verificar las conclusiones. Muchas afirmaciones apasionantes, como la de la “fusión fría” que prometía energía gratuita para el mundo, no pudieron ser confirmadas experimentalmente. Se determinó que los investigadores habían usado un método de medición incorrecto. Los científicos se molestaron y pasaron al mundo de la pseudociencia, donde prosperaron sin obtener jamás resultados. Se necesitan muchos estudios y confirmaciones, más si la afirmación es del tipo de las del siguiente punto.
3. ¿Implica rechazar algún principio científico bien establecido? A lo largo del tiempo no pocos principios científicos se han abandonado en favor de otros que describen de modo más preciso la realidad. Después de todo, las explicaciones científicas son modelos siempre sujetos a perfeccionarse. Pero no son creencias caprichosas. Si se pretende desafiar un principio que ha sido comprobado una y otra vez con éxito por muchos investigadores y por cualquiera en la vida cotidiana, y se ha utilizado en la práctica como tecnología (digamos, de Internet), la explicación alternativa debe ser muy sólida, debe cubrir todos los fenómenos anteriormente explicados así como los nuevos y debe ser igualmente demostrable. Es decir, no basta que alguien tenga “argumentos” contra la evolución, la esfericidad de la Tierra o la realtividad de Einstein... debe tener demostraciones y evidencias al menos tan firmes como las que hemos reunido sobre el tema para llegar al modelo que tenemos hoy.
4. ¿Se dice que hay persecución, represión o desprecio de “la ciencia oficial”? Si, como decíamos, la búsqueda del conocimiento es una labor abierta, lo es más en tiempos de Internet y del avión, donde miles de científicos se reúnen diariamente para mostrarse sus descubrimientos y animarse, es muy poco probable que un conocimiento quede oculto sin que nadie más lo descubra en mucho tiempo. Por eso hay verdaderas carreras por lograr ciertos conocimientos y patentarlos antes que la competencia. Los verdaderos perseguidos por difundir datos delicados generalmente corren peligro real, como Roberto Saviano por descubrir el funcionamiento de la camorra napolitana o Snowden por revelar secretos militares estadounidenses. Y la “ciencia oficial”, claro, no existe.
5. ¿Suena demasiado bueno? Si algo parece demasiado bueno para ser cierto, lo más probable es que lo sea. Las dietas milagro, las curaciones sencillas, la promesa de obtener grandes resultados con pocos esfuerzos, son formas del engaño en las que suelen caer los promotores de las pseudociencias. Vamos, si realmente los planos que venden en Internet dieran energía gratuita y le permitieran a alguien cancelar su contrato con la eléctrica de su localidad, seguramente no los vendería un don nadie desde su cochera. Y si alguien tuviera la cura del cáncer, se estaría haciendo enormemente (y legítimamente) multimillonario.
6. ¿Hay alguien ganando dinero detrás de la afirmación? Algunas afirmaciones pseudocientíficas son sólo producto de la ignorancia, el miedo o la desinformación, pero con frecuencia hay detrás empresas que se benefician de ellas, como los vendedores de “productos para contrarrestar la contaminación electromagnética” que promueven fundaciones, organizaciones y conferencias para aterrorizar a la gente con la idea, nunca sustentada en datos, de que las ondas de radio de la telefonía móvil o el wifi tienen efectos dañinos para la salud. Lo mismo se puede decir de las multinacionales de las terapias alternativas.
7. ¿Avanza? Una característica de la ciencia es que un conocimiento bien establecido y comprobado sirve como base para ulteriores investigaciones y descubrimientos. La descripción de las leyes del movimiento de Newton permitieron una enorme evolución hasta llegar a la teoría de la relatividad de Einstein. Las pseudociencias, como la astrología o la homeopatía, se mantienen iguales, basadas en dogmas antiguos y sin un solo avance detectable.
Algo más que un cuentoCarl Sagan decia, en su libro El mundo y sus demonios: “Si se entendiera ampliamente que las afirmaciones sobre el conocimiento exigen una evidencia adecuada antes de que se les pueda aceptar, no habría espacio para la pseudociencia. Pero en la cultura popular prevalece una especie de Ley de Gresham por la cual la mala ciencia aparta a la buena.” |
↧
La nave que se posará en un cometa
En agosto de 2015, un cometa alcanzará su mayor acercamiento al sol, por primera vez en la historia acompañado de dos robots hechos por el hombre: uno en órbita y el otro posado en su superficie.
Es septiembre de 2014 y una pequeña sonda espacial, de apenas 2,8 x 2,1 x 2,0 metros está viajando junto a un cometa llamado 67P/Churyumov-Gerasimenko, maniobrando para ponerse en órbita a su alrededor, capturada por la atracción gravitacional de los 10 mil millones de toneladas de masa del cometa.
67P (para abreviar) es un cometa en forma de pato de goma que tiene una órbita periódica, es decir, que sobrevive a su viaje alrededor del sol y lo repite, en su caso, cada 6,5 años. Ahora está en camino de regreso hacia el sol, y llegará al punto más cercano a nuestra estrella (perihelio) en su viaje el 13 de agosto de 2015, acompañado por la sonda llamada Rosetta.
La historia de esta misión comienza en 1993, cuando la Agencia Espacial Europea autorizó una misión sin precedentes para lanzar una sonda que llegara a un cometa, lo acompañara en su viaje y soltara un robot capaz de aterrizar en su superficie para estudiarla. Siguieron 11 años de trabajo en los que participaría además como asociada la NASA estadounidense. Los trabajos de preparación concluyeron cuando la misión Rosetta fue lanzada al espacio en un cohete Ariane 5 en marzo de 2004, comenzando un viaje de 10 años para su encuentro cometario.
El antecedente directo de esta misión es la “Deep Impact” o “Impacto Profundo” de la NASA, que se estrelló contra el cometa Tempel I en 2005, cuando Rosetta ya estaba de camino al 67P. Esta misión permitió descartar la idea de que el cometa pudiera estar formado por montones de distintos materiales agregados por gravedad, sino que demostró que se trataba de un cuerpo sólido, con más roca que hielo.
La realidad es que sabemos muy poco acerca de los cometas, que han sido objeto de atención por la espectacularidad que pueden llegar a tener algunos, y por lo desusados que eran en los cielos para las culturas que observaban atentamente el cielo a fin de determinar sus ciclos agrícolas y estacionales, además de buscar señales de la voluntad de los dioses. Y los cometas en general se consideraban presagios, casi siempre nefastos, en las más diversas culturas.
Fue Tycho Brahe, en los inicios de la revolución científica, quien propuso que se trataba de cuerpos celestes sujetos a las mismas leyes que los otros y que, además, venían de algún lugar mucho más alejado de la Luna. Isaac Newton y Edmond Halley establecerían las características de las órbitas de estos cuerpos.
Pero quedaba la duda de qué eran, cuál era su composición. No fue sino hasta 1950 cuando Fred Lawrence Whipple propuso una hipótesis sólida: que eran cuerpos formados por rocas y hielo que, al fundirse, es empujado por el viento solar formando la cola de los cometas. Las observaciones astronómicas de los cometas, capaces de discernir parte de su composición utilizando sistemas como la espectrografía o análisis de la luz que emiten, y que varía según las sustancias que contienen, se empezaron a ver apoyadas en 1985 por visitas de naves espaciales humanas. Algunas simplemente pasaron cerca de un cometa, como las Vega 1 y 2, la Giotto o la Stardust, que recogió muestras de polvo en las cercanías del cometa Wild 2 y las trajo de vuelta a la Tierra.
Vendría entonces la ambiciosa misión Rosetta. En los diez años transcurridos desde su lanzamiento, la pequeña sonda viajó a más de 5 veces la distancia entre el Sol y la Tierra (distancia conocida como Unidad Astronómica), o 788 millones de kilómetros, casi hasta la órbita de Júpiter, con objeto de encontrarse con el cometa 67P/CG, descubierto en 1969 en Kiev por los astrónomos rusos Klim Ivanovych Churyumov y Svetlana Ivanovna Gerasimenko.
Rosetta lleva instrumentos para analizar los gases que rodean al cometa, la composición del núcleo, el polvo que desprende, la temperatura interior del núcleo, su interacción con el viento solar a lo largo de su recorrido, su masa y gravedad exactas, además de llevar cámaras de alta resolución para enviar a la Tierra imágenes del cometa durante todo el viaje. Un total de 11 dispositivos de análisis para recopilar información de lo más diverso –y completo- acerca del cometa.
Rosetta lleva además, y como elemento clave de su inédita misión un pequeño módulo de aterrizaje, llamado Philae, un cubo con tres patas que descenderá ayudado solamente por la gravedad del cometa (que se calcula en una diezmilésima parte que la de nuestro planeta). Sus patas están diseñadas para absorber el impacto, impedir en lo posible que rebote contra la superficie y girar para poner recto al módulo en caso de volcadura. Lleva además un arpón que lanzará al tocar la superficie del cometa para anclarse.
Philae también lleva a bordo una batería impresionante de experimentos, nueve en total, que ocupan una quinta parte de los 100 kilogramos de la sonda para estudiar la composición de la superficie y la composición debajo de la superficie utilizando ondas de radio, hacer análisis químicos de los gases de la superficie, el campo magnético del cometa y cómo interactúa con el viento solar, un taladro para obtener muestras a hasta 20 cm por debajo de la superficie y sus características eléctricas, además de llevar tres tipos de cámaras.
La sonda aterrizará en el cometa en noviembre de 2014, una vez que Rosetta esté en órbita fija alrededor del mismo y haya identificado el mejor lugar para ello. Ambos robots espaciales seguirán entonces realizadon estudios mientras viajan a velocidades crecientes hacia el Sol, viendo por primera vez en el propio cometa cómo se va formando su coma (la nube luminosa de gases y polvo que rodea al núcleo) y la cola que apunta en dirección contraria al Sol y está formada de hielo fundido y polvo.
La misión, que se dará por terminada, en principio, en diciembre de 2015, cuatro meses después del perihelio, habrá conseguido numerosos logros sin precedentes, como la primera misión que aterriza en un cometa y lo sigue durante su viaje, analizando lo que realmente provoca ese aspecto que tanto ha impresionado a las culturas humanas.
![]() |
Interpretación artística de Philae siendo liberado por Rosetta para caer al cometa. (Foto CC ESA vía Wikimedia Commons) |
67P (para abreviar) es un cometa en forma de pato de goma que tiene una órbita periódica, es decir, que sobrevive a su viaje alrededor del sol y lo repite, en su caso, cada 6,5 años. Ahora está en camino de regreso hacia el sol, y llegará al punto más cercano a nuestra estrella (perihelio) en su viaje el 13 de agosto de 2015, acompañado por la sonda llamada Rosetta.
La historia de esta misión comienza en 1993, cuando la Agencia Espacial Europea autorizó una misión sin precedentes para lanzar una sonda que llegara a un cometa, lo acompañara en su viaje y soltara un robot capaz de aterrizar en su superficie para estudiarla. Siguieron 11 años de trabajo en los que participaría además como asociada la NASA estadounidense. Los trabajos de preparación concluyeron cuando la misión Rosetta fue lanzada al espacio en un cohete Ariane 5 en marzo de 2004, comenzando un viaje de 10 años para su encuentro cometario.
El antecedente directo de esta misión es la “Deep Impact” o “Impacto Profundo” de la NASA, que se estrelló contra el cometa Tempel I en 2005, cuando Rosetta ya estaba de camino al 67P. Esta misión permitió descartar la idea de que el cometa pudiera estar formado por montones de distintos materiales agregados por gravedad, sino que demostró que se trataba de un cuerpo sólido, con más roca que hielo.
La realidad es que sabemos muy poco acerca de los cometas, que han sido objeto de atención por la espectacularidad que pueden llegar a tener algunos, y por lo desusados que eran en los cielos para las culturas que observaban atentamente el cielo a fin de determinar sus ciclos agrícolas y estacionales, además de buscar señales de la voluntad de los dioses. Y los cometas en general se consideraban presagios, casi siempre nefastos, en las más diversas culturas.
Fue Tycho Brahe, en los inicios de la revolución científica, quien propuso que se trataba de cuerpos celestes sujetos a las mismas leyes que los otros y que, además, venían de algún lugar mucho más alejado de la Luna. Isaac Newton y Edmond Halley establecerían las características de las órbitas de estos cuerpos.
Pero quedaba la duda de qué eran, cuál era su composición. No fue sino hasta 1950 cuando Fred Lawrence Whipple propuso una hipótesis sólida: que eran cuerpos formados por rocas y hielo que, al fundirse, es empujado por el viento solar formando la cola de los cometas. Las observaciones astronómicas de los cometas, capaces de discernir parte de su composición utilizando sistemas como la espectrografía o análisis de la luz que emiten, y que varía según las sustancias que contienen, se empezaron a ver apoyadas en 1985 por visitas de naves espaciales humanas. Algunas simplemente pasaron cerca de un cometa, como las Vega 1 y 2, la Giotto o la Stardust, que recogió muestras de polvo en las cercanías del cometa Wild 2 y las trajo de vuelta a la Tierra.
Vendría entonces la ambiciosa misión Rosetta. En los diez años transcurridos desde su lanzamiento, la pequeña sonda viajó a más de 5 veces la distancia entre el Sol y la Tierra (distancia conocida como Unidad Astronómica), o 788 millones de kilómetros, casi hasta la órbita de Júpiter, con objeto de encontrarse con el cometa 67P/CG, descubierto en 1969 en Kiev por los astrónomos rusos Klim Ivanovych Churyumov y Svetlana Ivanovna Gerasimenko.
Rosetta lleva instrumentos para analizar los gases que rodean al cometa, la composición del núcleo, el polvo que desprende, la temperatura interior del núcleo, su interacción con el viento solar a lo largo de su recorrido, su masa y gravedad exactas, además de llevar cámaras de alta resolución para enviar a la Tierra imágenes del cometa durante todo el viaje. Un total de 11 dispositivos de análisis para recopilar información de lo más diverso –y completo- acerca del cometa.
Rosetta lleva además, y como elemento clave de su inédita misión un pequeño módulo de aterrizaje, llamado Philae, un cubo con tres patas que descenderá ayudado solamente por la gravedad del cometa (que se calcula en una diezmilésima parte que la de nuestro planeta). Sus patas están diseñadas para absorber el impacto, impedir en lo posible que rebote contra la superficie y girar para poner recto al módulo en caso de volcadura. Lleva además un arpón que lanzará al tocar la superficie del cometa para anclarse.
Philae también lleva a bordo una batería impresionante de experimentos, nueve en total, que ocupan una quinta parte de los 100 kilogramos de la sonda para estudiar la composición de la superficie y la composición debajo de la superficie utilizando ondas de radio, hacer análisis químicos de los gases de la superficie, el campo magnético del cometa y cómo interactúa con el viento solar, un taladro para obtener muestras a hasta 20 cm por debajo de la superficie y sus características eléctricas, además de llevar tres tipos de cámaras.
La sonda aterrizará en el cometa en noviembre de 2014, una vez que Rosetta esté en órbita fija alrededor del mismo y haya identificado el mejor lugar para ello. Ambos robots espaciales seguirán entonces realizadon estudios mientras viajan a velocidades crecientes hacia el Sol, viendo por primera vez en el propio cometa cómo se va formando su coma (la nube luminosa de gases y polvo que rodea al núcleo) y la cola que apunta en dirección contraria al Sol y está formada de hielo fundido y polvo.
La misión, que se dará por terminada, en principio, en diciembre de 2015, cuatro meses después del perihelio, habrá conseguido numerosos logros sin precedentes, como la primera misión que aterriza en un cometa y lo sigue durante su viaje, analizando lo que realmente provoca ese aspecto que tanto ha impresionado a las culturas humanas.
Los nombresRosetta es el nombre que tenía la piedra con un texto de un decreto del rey Ptolomeo V escrito en jeroglíficos egipcios, escritura demótica y griego antiguo. Philae, por su parte, es una isla en el Nilo donde se encontró un obelisco con inscripciones griegas y egipcias. Juntos, ambos descubrimientos permitieron a Jean-François Champollion descifrar finalmente la escritura jeroglífica del antiguo Egipto. Los investigadores espaciales creen que esta misión servirá de modo similar para descifrar los antiguos misterios de los cometas. |
↧