¿Por qué dejó Plutón de ser un planeta?

La sonda New Horizons salió de Cabo Cañaveral en el año 2006. Entre sus objetivos, realizar un sobrevuelo sobre Plutón, el último de los planetas del sistema solar que quedaba por ser estudiado desde cerca. Cuando la New Horizons llegó a su destino, en 2015, Plutón ya había dejado de considerarse un planeta.

Durante estos años, la Unión Astronómica Internacional cambió la definición de planeta, con lo que Plutón perdió esa consideración y pasó a calificarse como planeta enano. Los planetas del sistema solar pasaron de 9 a 8. Pero, ¿cuál es la razón de este cambio?

Foto de Plutón desde la sonda New Horizons
Foto de Plutón desde la sonda New Horizons

Descubrimiento de Plutón.

Plutón fue descubierto gracias a los trabajos de varios astrónomos que buscaban resolver inconsistencias en las órbitas planetarias. El primer planeta en ser descubierto de esta manera fue Neptuno, que fue descubierto por Urbain Le Verrier. Le Verrier dedujo que debería existir un planeta más allá de Urano, puesto que la órbita de este planeta no encajaba del todo con la predicha por las leyes de Newton.

Y en efecto, ese planeta existía y se fue llamado Neptuno. El descubrimiento de este nuevo planeta pareció solucionar el problema de la órbita de Urano. Pero fue algo temporal. Observaciones más detalladas indicaban que la existencia de Neptuno no bastaba para explicar el problema con la órbita de Urano. A principios del siglo XX, Percival Lowell (el mismo que descubrió los canales de Marte) inició una búsqueda exhaustiva de la nueva pieza que faltaba en el puzzle. Murió antes de encontrarla, pero dejó numerosas fotos del cielo como resultado de sus trabajos.

Aquí entra en juego Clyde Tombaugh, un joven astrónomo del observatorio Lowell. Continuó el trabajo de su antecesor y usando una máquina de la época que le permitía comparar de forma más sencilla las fotos previas, acabó por descubrir un objeto que describía una órbita por la zona donde debía estar el planeta buscado. Se había descubierto Plutón (Al que se le puso este nombre y no el de otro dios mitológico por las iniciales de Percival Lowell: PL)

Clyde Tombaugh, descubridor de Plutón
Clyde Tombaugh, descubridor de Plutón

El problema del tamaño

Con el descubrimiento del planeta, todo parecía solucionado. Se le supuso una masa y tamaño similar a la de nuestro planeta Tierra, la necesaria para explicar las perturbaciones en las órbitas de Neptuno y Urano. Las piezas encajaban y el misterio estaba resuelto. Pero en astrofísica las cosas rara vez son así de sencillas.

Según se iban mejorando las capacidades de medición y cálculo se fue comprobando que Plutón no podía ser el responsable de las perturbaciones de la órbitas de los planetas exteriores. No solo eso, sino que resultó ser mucho más pequeño de lo pensado. De una masa similar a la Tierra, ahora sabemos que su masa es apenas un 1% de la terrestre.

Recordemos que a Plutón se le consideró un planeta porque se pensó que era el planeta que faltaba para explicar el movimiento orbital del resto de planetas del sistema solar. Pero no era así. De todas formas se le siguió considerando un planeta más por costumbre. Hasta que llegó un nuevo cuerpo en discordia …

Eris, la diosa de la discordia

Durante finales del siglo XX y principios del actual los avances en telescopios permitieron detectar muchos cuerpos más allá de la órbita de Neptuno, a los que se llamó transneptunianos. Plutón sería uno de ellos, y a pesar de su pequeño tamaño para ser un planeta, seguía siendo más grande que el resto de cuerpos de su región.

Pero en 2006 se descubrió un cuerpo de un tamaño casi idéntico al de Plutón. Y aquí empezaron las discusiones entre los astrónomos. ¿Consideramos que este cuerpo también es un planeta? A fin de cuentas, tiene un tamaño similar al de Plutón, por lo que si este lo es, el nuevo cuerpo también debería serlo. ¿O lo dejamos como un objeto no planetario? ¿Qué hacer? ¿Y si se llega a descubrir más cuerpos similares? ¿Acabamos con 20, 30 o 40 planetas?

A este cuerpo se le llamó Eris (o Éride), en honor a la diosa griega de la discordia. Y su descubrimiento llevó a la Unión Astronómica Internacional (UAI) a cambiar la definición de planeta. Esta nueva definición es la que provocó que Plutón pasara a considerarse un planeta enano y no un planeta de primera clase.

El planeta enano Eris desde el telescopio espacial Hubble
El planeta enano Eris desde el telescopio espacial Hubble

La definición actual de planeta

La UAI estableció las siguientes condiciones que un cuerpo estelar debía cumplir para ser considerado planeta:

Es un cuerpo que gira alrededor de una estrella
De momento, esto no deja fuera a Plutón.

Está en equilibrio hidrostático
Esto es una manera técnica de decir que tiene una forma esférica o cuasi-esférica estable. Plutón sigue siendo un planeta con esta definición.

No es capaz de causar reacciones de fusión termonuclear
Con esto quitamos la consideración de planeta a pequeñas estrellas que girasen alrededor de otras estrellas

Posee dominancia orbital
Y aquí viene la definición clave. Por dominancia orbital se entiende que el resto de cuerpos celestes que se encuentran en su órbita están bajo su influencia gravitoria. Este criterio es el que deja fuera a Plutón, ya que comparte órbita con otros cuerpos transneptunianos. Esta existencia de otros cuerpos en la misma órbita que no son satélites de Plutón es lo que le dejó sin su calificación de planeta.

A cuerpos como Plutón se les conoce como “planetas enanos”. Otro planeta enano bastante conocido es Ceres, el cuerpo de mayor tamaño del cinturón de asteroides. Al no tener dominancia orbital se le considera también planeta enano. (Como anécdota comentar que la serie del canal SyFy “The Expanse” transcurre en una colonia minera en Ceres)

A día de hoy se conocen otros planetas enanos, aparte de Plutón, Eris y Ceres. Como los astrónomos ya van algo cortos de nombres de la mitología grecolatina, se les llamó Makemake (un dios de los Rapanui) y Haumea (un dios hawaiano). Con estos serían 13 los cuerpos celestes que han sido clasificados bien como planeta bien como planeta enano.

De arriba a abajo y de derecha a izquierda: Ceres, Plutón, Eris y Makemake
De arriba a abajo y de derecha a izquierda: Ceres, Plutón, Eris y Makemake

¿Y que pasó con la órbita de Urano?

Es posible que te estés preguntando ¿y al final que pasó con la desviación en la órbita de Urano? La que llevó a Percival Lowell a buscar un nuevo planeta. Pues que resulta que tal desviación no existía. Cuando las sondas Voyager exploraron el sistema solar exterior pudieron medir en más detalle la masa de los gigantes gaseosos. Y con estos nuevos datos de masa, las órbitas cuadraron. No existe ningún planeta más, todo fue un error de cálculo. ¿O sí existe un último planeta?

Y es que resulta que muchos de cuerpos transneptunianos también tiene una órbita muy excéntrica, que no puede ser explicada de ninguna manera. Debido al tamaño que se le presupone a este planeta, se trataría de un planeta del tamaño adecuado. De momento se le conoce como Planeta Nueve, aunque su existencia sigue siendo una mera especulación. Especulación como las que llevaron al descubrimiento de Urano y Plutón.

Hipotética órbita del planeta 9
Hipotética órbita del planeta 9

La conclusión de toda esta historia es que los astrónomos no le quitaron la categoría de planeta a Plutón, sino que más bien pensaron que habían descubierto algo que en realidad no existía (la causa de la perturbación en Urano). Y al final, como siempre pasa en la exploración del sistema solar, la realidad es mucho más compleja de lo que vemos con nuestros primitivos instrumentos.

Todas las fotos han sido obtenidas de la Wikipedia y son de libre uso.

¿Cómo se detectan los exoplanetas?

Los exoplanetas o planetas extrasolares son planetas situados fuera de nuestro sistema solar. Hasta no hace mucho la localización de un planeta así era una tarea casi imposible. Ahora es algo bastante más sencillo y desde el lanzamiento de misiones como el telescopio espacial Kepler, puesto en órbita en 2009, son más de 3600 los exoplanetas conocidos.

Pero, ¿cómo se detectan los exoplanetas?

Lo primero es saber que casi ningún exoplaneta detectado ha sido observado de forma directa. Por desgracia nuestros telescopios actuales no tienen la potencia suficiente. Son muy pocos los planetas detectados de esta forma (En la imagen, 51 Eridiani b, a 100 años luz de nosotros y detectado de forma directa) A nuestra limitada capacidad tecnológica se suma que los planetas no emiten luz propia,  con lo que resulta bastante complicado verlos “a simple vista”

Así que la mayoría de veces tenemos que usar métodos indirectos. Lo que se suele hacer es analizar la luz que nos llega desde una estrella. Buscando anomalías podemos encontrar evidencias que nos indiquen que dicha estrella posee algún planeta. Son métodos indirectos porque no podemos tener una certeza absoluta de que la anomalía esté causada por un planeta.

De hecho, si leemos los artículos científicos que hablan del descubrimiento de un exoplaneta veremos que no se les suele calificar así, sino que se suele hablar de “candidato a exoplaneta”. Es decir, se ha detectado un objeto que parece ser un planeta extrasolar, pero podría no serlo. Podría ser una nube de gas, una estrella diminuta o incluso una brutal estación de combate alienígena de tamaño planetario. Pero lo más probable es que sea un planeta.

Hay varios métodos para detectar a un candidato a exoplaneta, pero los principales son dos. Por tránsito y por velocidad radial. Estos dos métodos representan más del 90% de las detecciones de candidatos a exoplanetas.

Método del tránsito.

Este es el método de detección que más resultados ha ofrecido. Es muy sencillo de entender. Desde la Tierra somos capaces de medir la intensidad de la luz que nos proviene de una estrella. Si observamos una estrella con uno o más planetas durante el tiempo suficiente llegará un momento en el que el planeta pasará por delante. En ese momento, se detectará una caída de la intensidad de la luz. Y aquí tenemos a un nuevo candidato detectado.

Exoplanetas Kepler

En la imagen de arriba [Fuente] podemos ver el efecto del transito de varios exoplanetas sobre una estrella, tal y como fueron detectado por el telescopio espacial Kepler.

En función de cuanto se reduce la intensidad luminosa podemos intuir el tamaño del planeta. Un planeta grande tapará más cantidad de luz. También podemos ver el periodo de los tránsitos. Es decir, cada cuanto tiempo da una vuelta alrededor de la estrella correspondiente. Esto nos da una pista de lo alejado que está el planeta de dicha estrella.

Método de la velocidad radial.

Supongo que todos sabemos que los planetas giran alrededor de las estrellas como causa de la fuerza de la gravedad. Esta fuerza de la gravedad es mutua. Es decir, la estrella ejerce una fuerza sobre sus planetas, pero los planetas también ejercen una fuerza sobre la misma. Pero como las estrellas son muchísimos más grandes que los planetas, son estos los que giran alrededor de los astros, y no al revés.

Pero imaginemos ahora un sistema solar en el que la estrella central es más pequeña que nuestro Sol y en el que existen planetas más grandes que Jupiter. La relación de masas ya no es tan dispar. Con lo que los planetas seguirán girando alrededor de la estrella, pero la estrella a su vez tendrá un leve movimiento. Lo que hace la gravedad del planeta es desplazar el centro de masas del conjunto. En la siguiente imagen se observa mejor [Fuente]

Movimiento del centro de masas de una estrella

 

Este movimiento produce un efecto conocido como “desviación al rojo” que podemos detectar al analizar la luz que llega a nuestros telescopios. Con esta información podemos calcular el efecto de la gravedad planetaria sobre la estrella y gracias a este efecto calcular la masa de nuestro candidato a exoplaneta.

Detección de explanetas

 

Uniendo ambos métodos

También podemos intentar usar ambos métodos a la vez. De hecho, cuando se descubre algún planeta extrasolar interesante con alguno de estos dos métodos se suele intentar aplicar el segundo método. ¿Por que? Muy sencillo, con el tránsito obtenemos el tamaño y con la velocidad radial obtenemos la masa. Sabiendo ambos datos, masa y tamaño, podemos obtener la densidad.

Y teniendo la densidad podemos deducir más detalles. Uno de los más importantes sería si el exoplaneta es un gigante gaseoso o un planeta sólido. Asumimos que en un planeta sólido hay más posibilidades de que se desarrolle la vida con lo que conocer este dato es vital de cara la búsqueda de un posible candidato a estar habitado.

Buscando señales de vida

Uno de los principales objetivos de la búsqueda de exoplanetas es intentar encontrar algún planeta en el que pudiera haberse desarrollado. Durante décadas tuvimos al proyecto SETI como principal medio para tratar de encontrar a alguien más en el universo, pero no conseguimos resultado alguno.

El siguiente paso en la búsqueda de planetas extrasolares debería ser tratar de encontrar planetas propicios para la vida. Lo primero es lo ya comentado, que el planeta sea sólido y no un gigante gaseoso. Los segundo es que el planeta se encuentre en la llamada zona de habitabilidad de la estrella, que es aquella región que se encuentra a la distancia adecuada para que exista agua líquida.

Lo tercero, y en lo que ya se estaría trabajando, sería intentar analizar la atmósfera de un exoplaneta para ver si en ella encontramos evidencias de existencia de vida. De existir plantas en un planeta la atmósfera debería presentar los efectos de actividad fotosintética en la superficie. Este análisis se puede realizar por espectógrafía. Es decir, analizando la luz estelar que pasa a través de la atmósfera se puede intentar averiguar la composición de la misma. Esto es algo bastante complejo, pero posible en teoría.

Buscándonos a nosotros

Sobre esta búsqueda de la vida, algunos suelen objetar que nos centramos en buscar vida similar a nosotros, cuando es posible que la vida en otros planetas no tiene porque estar basada en el carbono, necesitar agua y unos rangos de temperatura parecidos a los que disfrutamos en la Tierra. Que puede haber vida basada en el silicio que no necesitara agua y que pudiera sobrevivir a 100 grados bajo cero. Que en realidad lo que buscamos son réplicas de nosotros mismos.

Es posible, pero en nuestro sistema solar tenemos muchos cuerpos y solo en nuestra tierra se ha formado vida. Así que parece lógico buscar vida similar a la terrestre. Porque es la única que conocemos. Tal vez algún día descubramos formas de vida en los mares de hidrocarburos de Titán. O bajo la superficie helada de Encélado

Mientras tanto, seguiremos buscando.

Al filo del mañana

¡Búscame cuando despiertes!

Al filo del mañana es una película de 2014, dirigida por Doug Liman (trilogía de Bourne) y protagonizada por Tom Cruise y Emily Blunt. Se la suele describir como una versión con alienígenas hostiles de la película “Atrapado en el tiempo” (también conocida como El día de la marmota)

Unos terribles alienígenas han atacado la Tierra y están arrasando allá por donde pasan. Algo le ocurre a un oficial del ejercito terrestre, interpretado por Tom Cruise, que vuelve a repetir una y otra vez el día correspondiente a una batalla decisiva. Como dice el lema de la película “Vive, muere, repite”.

MV5BNjc4MDI2MjU0Ml5BMl5BanBnXkFtZTgwMjcxNTU4MTE@._V1__SX640_SY720_

Está película es una adaptación de la novela All you need is Kill, del escritor Hiroshi Sakurazaka . La idea para la historia la tuvo mientras jugaba a un videojuego. En los videojuegos somos capaces de superar situaciones difíciles gracias a que si nos matan aprendemos de la experiencia, con lo que cuando volvamos a repetir la parte en la que nos mataron nos resultará más sencillo. Y con esta base, escribió la novela en la que se basa la película. También hay una versión en manga.

El mayor problema de esta película es un desenlace poco arriesgado. La película empieza bien, despertando nuestra curiosidad sobre la situación de la Tierra, sobre los alienígenas y el deseo de ver las armaduras de combate que llevan los soldados en funcionamiento.

El desarrollo también atrapa. La manera en la que se trata la repetición de un mismo día está bien escrita y montada y en ningún momento se hace pesada. Como en un videojuego, cada vez llegamos más lejos tras pasarnos los primeros niveles.

Pero después el desenlace es muy tópico. Toda la originalidad se pierde en una resolución que se limita a los estereotipos del cine de acción, sin nada especial. Como si los guionistas no solo se les hubiese ocurrido nada mejor, sino como si además tuvieran prisa por terminar, cerrar la historia y cobrar el cheque.

Y además, para rematarlo todo, un giro final chorra que si no se hubiese añadido habría
hecho mejor la película.

En fin, que la película deja una sensación de oportunidad desaprovechada. Empieza bien, mantiene el interés durante buena parte del metraje para acabar con un cierre simplón y poco satisfactorio.

Nota: bien.

Imagen sacada de la IMDB

Usos y abusos del Armamento nuclear

Ahora me he convertido en la muerte, la destructora de mundos
J. Robert Oppenheimer, citando un texto hindú tras el lanzamiento de Trinity, la primera prueba nuclear de la historia

Uno de los inventos más representativos de la humanidad es, en mi opinión, la bomba atómica. Por un lado es una muestra de nuestra genialidad científica, capaz de liberar las fuerzas más básicas de la naturaleza. Pero a la vez representa el insensible desprecio hacia nuestros semejantes, a los que aniquilamos por miles para conseguir nuestros objetivos. En resumen, lo mejor y lo peor del ser humano.

Pues bien, hoy vamos a ver unos pequeños apuntes sobre este tipo de armas. Nada en demasiada profundidad, pero espero que aún así os resulte interesante.

La bomba de Hiroshima fue un petardito.

Pues sí. A pesar de que estamos hablando de un arma que fue capaz de arrasar una ciudad entera, matando a más de 150.000 personas en el proceso, su fuerza, en comparación con las últimas armas atómicas desarrolladas, es prácticamente insignificante.

En números, la potencia de la bomba lanzada sobre Hiroshima, “Little Boy”, tenía una fuerza destructiva de entre 15 y 18 kilotones. La segunda bomba, la de Nagasaki, aun siendo un poco más potente, se movía en las mismas cifras. Alrededor de 15 años después la Unión Soviética lanzaría la Bomba Zar, causando la mayor explosión artificial de la historia. En total, 50.000 kilotones de fuerza destructiva.


Comparativa entre las distintas bombas atómicas

A efectos de visualización. Imaginad que tenéis 20 euros en el bolsillo. Esa sería la potencia apróximada de las bombas de Hiroshima y Nagasaki. Ahora imaginad que tenéis 50.000 euros. Esa es la diferencia entre estas dos bombas iniciales y la Gran Tzar

Añadir que, a pesar de todo, la explosión del volcán Krakatoa en 1883 fue cuatro veces más destructiva que la bomba Tzar.

Más info:
http://en.wikipedia.org/wiki/Tsar_Bomba

Barreras de artillería atómicas: Los MIRV

Tras el desarrollo de las primeras armas de artillerías, cañones, obuses y similares, estas empezaron a usarse en modo conjunto, las llamadas barreras de artillería. La idea es simple, en vez de disparar bombas de manera aislada, pones varias piezas de artillería las unas con las otras y las disparas de manera conjunta. El resultado, una barrera de fuego y destrucción que desestabiliza el paso, bajas aparte, de la infantería enemiga.

Bien, pues con las armas atómicas también se desarrolló este concepto. ¿Por qué lanzar una sola bomba cuando puedes lanzar varias? Hay que tener en cuenta que si inicias un ataque nuclear, tienes que tratar de aniquilar a tu enemigo de un solo golpe, o él te aniquilará a ti en el contraataque.


Prueba de un misil PeaceMaker

Por esto ambas potencias nucleares, USA y la URSS, desarrollaron misiles intercontinentales capaces de soltar una lluvia de bombas atómicas sobre el enemigo. En concreto, por ejemplo, el misil norteamericano Peacekeeper era capaz de atravesar más de 9000 km de distancia para soltar una carga mortal formada por 10 cabezas nucleares de 300 kilotones de potencia. Un verdadero jinete del apocalipsis.

Si, Peacekeeper significa “Guardián de la paz”

Más info:
http://en.wikipedia.org/wiki/LGM-118_Peacekeeper
http://en.wikipedia.org/wiki/Multiple_independently_targetable_reentry_vehicle

No todo es matar: Usos civiles del armamento atómico

Desde que la humanidad empezó a hacer grandes construcciones y obras de ingeniería uno de los principales problemas a resolver siempre fue algo tan simple como hacer grandes agujeros. En efecto, para construir túneles, minas a cielo abierto, canalizaciones y construcciones similares básicamente necesitas alguna manera de hacer agujeros en la tierra de manera rápida.

¿Y que más efectivo que una bomba atómica para hacer grandes agujeros? Pues resulta que los USA inició un programa de investigación, el Projecto Plowshare con el objetivo de buscar usos pacíficos para el armamento nuclear. El nombre del projecto viene de una cita biblica (“Y ellos convirtieron sus espadas en arados (plowshares)”, Isaias 2:4)

Veamos algunos ejemplos de este programa:

Ampliar el Canal de Panamá
Siempre ha existido un problema con el Canal de Panamá. Es demasiado pequeño para el tráfico marítimo que debe atravesarlo. Pero ampliarlo sería una obra de ingeniería, terriblemente cara. Pues bien, en 1962 el presidente JFK ordenó a las cabezas pensantes del Plowshore investigar la posibilidad de ampliar el Canal de Panamá a base de bombazos nucleares. Aunque finalmente se desechó la idea, se tuvo en cuenta y se concluyó que la operación sería posible mediante el lanzamiento consecutivo de unas 100 cabezas nucleares una tras otra.

Minería
El uso más obvio que encontraron fue la minería. Muchas veces tenemos una veta de carbón, gas natural, petroleo o cualquier otro recurso que, por su profundidad, es muy costoso de extraer. Pues nada como una buena explosión nuclear controlada para llegar al preciado material. Lógicamente hay que ajustar mucho el tamaño de la explosión, para no pasarse. Como parte de este proyecto, se realizó la prueba de Sedan, en la que se creó el mayor cráter artificial del planeta. Hoy en día se realizan visitas guiadas para turistas.


Cráter Sedan

Finalmente el proyecto fue desechado. Los efectos secundarios de la radiación nuclear hacían demasiado peligrosos este tipo de acciones

Pero no solo los yankis buscaron usos pacíficos para el armamento nuclear. La unión soviética usó armas atómicas para crear grandes agujeros en los que almacenar recursos como gas natural. E incluso descubrieron que se podía usar una buena bomba atómica para controlar una fuga de petroleo.

La idea es, en esencia, disparar una bomba atómica en el agua, para provocar un movimiento de tierra que cierre la fuga. Simple, bestia, pero efectivo.

Más info:
http://www.bbc.co.uk/dna/h2g2/A685109
http://www.onlinenevada.org/Sedan_Crater
Cráter Sedan en Google Maps

Y eso es todo por hoy. Como deberes, os propongo buscar donde tenéis el refugio nuclear más cercano

Licencia de las imágenes
Comparativa de armas atómicas: Copyright Popular Mechanics
Lanzamiento de un misil Peacemaker: Dominio público, realizada por el gobierno de los EEUU y extraída de la Wikipedia
Cráter Sedan: Dominio público, realizada por el gobierno de los EEUU y extraída de la Wikipedia

¿Hay alguién allí? Las veces que creímos recibir respuesta

Si sólo estamos nosotros, cuanto espacio desaprovechado
Carl Sagan

Desde que descubrimos la inmensidad del universo, una de las preguntas que empezó a hacerse la humanidad es ¿hay alguién allí? De momento, la respuesta parece ser un rotundo y desolador NO. Sin embargo, ha habido ocasiones en la historia de la humanidad en la que algunos creyeron que la respuesta era otra, y que realmente no estábamos solos.

Finales del siglo XIX: Los canales de Marte

Estamos en una época en la que nuestra capacidad para escudriñar el espacio era aún más escasa que la que tenemos en la actualidad y el conocimiento de nuestro propio sistema solar era mínimo. De nuestro vecino Marte conocíamos apenas dos cosas, que posee casquetes polares de hielo y que el resto del planeta es un inmenso desierto, en especial las zonas ecuatoriales.

En 1877 la órbita marciana colocaba al planeta en una posición perfecta para ser observado. Aprovechando estas circunstancias el italiano Giovanni Schiaparelli realizó un estudio detallado de la superficie marciana. En ella descubrió una serie de canales, que él consideró eran una especie de ríos por los que circulaba el agua desde los polos al resto del planeta, lo que permitiría la presencia de vida orgánica en el planeta.

Los canales de Marte

Schiaparelli era un científico reputado conocido por haber demostrado, entre otras cosas, que las llamadas “lluvias de estrellas”, como las Perseidas o Lágrimas de San Lorenzo, corresponden al paso de cometas cerca de nuestra órbita. Así que sus estudios fueron tomados en consideración por muchos miembros de la comunidad científica.

Entre ellos se encontraba Percival Lowell, otro reputado astrónomo. Lowell fue más allá de los estudios de Schiaparelli y afirmó que los ríos marcianos no eran sino canales artificiales, creados por seres inteligentes para traer agua desde el polo a unas hipotéticas zonas de cultivo.

Lowell escribió tres libros defendiendo su teoría sobre los marcianos. En ellos describía a esta hipotética cultura marciana como una sociedad al borde de la extinción, que trataba de obtener agua desesperadamente para evitar la extinción. Estas historias fueron bien acogidas en la cultura popular e inspirarían libros como La Guerra de los Mundos, de H.G. Wells, en el que los marcianos nos atacan ferozmente.

Sin embargo la mayoría de la comunidad científica consideraba sus conclusiones exageraciones sin apenas base. Así, poco a poco, la mayoría de astrónomos fueron desechando las ideas de Lowell. Por suerte, Lowell supo ver su error y dejó sus hipótesis marcianas para centrarse en la búsqueda de un supuesto planeta que estaría situado más allá de la órbita de Neptuno. Aunque no lo encontró en vida, sus trabajos permitieron que el astrónomo norteamericano Clyde Tombaugh descubriera este planeta al que llamó Plutón, en honor a Percival Lowell (Las iniciales de Lowell, PL son las iniciales de Plutón)

1967: El faro de las estrellas

En 1967 en un observatorio astronómico en Cambridge, el profesor Antony Hewish y su alumna de graduado Jocelyn Bell, detectaron una extraña señal proveniente del espacio. La señal se diferenciaba de las tantas otras que se captan desde espacio por una importante peculiaridad, su extrema periodicidad. En concreto la señal se repetía de manera exacta en un periodo de 1.3373 segundos. Puedes escuchar el sonido aproximado en este vídeo:



Esta regularidad desconcertó a los científicos. ¿Qué podría crear una señal así? Entre las posibilidades se consideró como posibilidad que fuera una señal artificial, creada por algún tipo de seres inteligentes. Una especie de faro para guiar a unos posibles viajantes por el espacio. O tal vez algún sistema de comunicación, un grito de “Aquí estamos” audible a miles de años luz.

Aunque es cierto que esta autoría alienígena no se tomo excesivamente en serio, la señal fue bautizada LGM-1, siglas de Little Green Men, Hombrecillos verdes, una manera de llamar a los extraterrestres muy común en la cultura popular.

Como era de esperar, incluso por los propios científicos, la señal tenía un origen natural, aunque no menos interesante. Estaba causada por una estrella de neutrones, es decir, los restos de una estrella que, tras explotar como Super Nova, constituyen una nueva estrella, formada únicamente por neutrones agrupados en una estructura de una densidad extrema.

La señal periódica, llamada Pulsar, se crea debido a la radiación disparada por la estrella en su giro. El hecho de que dicha señal sea tan regular proviene de la estructura hiperdensa de la estrella de neutrones.

Antony Hewish recibió el Nobel de Física por este descubrimiento y su explicación

1977: Wow! ¡Los extraterrestres!

En 1970, bajo el auspicio de la NASA, se inició el programa para la búsqueda de Inteligencia Extraterrestre (SETI) La idea de este programa es rastrear el universo, buscando señales de radio artificiales enviadas por algún tipo de seres inteligentes más allá de nuestro sistema solar.

El sistema funciona mediante una serie de radiotelescopios que escuchan las señales recibidas desde el espacio, buscando anomalías. Las señales reciben un código en función de su intensidad. Las de menor intensidad, reciben el código 1. Según aumenta el rango de intensidad, va aumentando el número: 2, 3, 4, etc. A partir del 9, se usan letras: A, B, C, etc. Normalmente el espacio se “lee” mediante telescopios fijos en superficie, por lo que, debido a la rotación de la tierra, cada región del espacio solo estaría siendo escuchada durante poco más de un minuto.

Radiotelescopios usados por el SETI

Antiguamente los ordenadores del SETI guardaban un registro en papel de dichas señales, que después eran revisadas a mano, buscando picos de intensidad. La mayoría de las señales son de nivel de intensidad entre 1 y 3 y de vez en cuando se reciben señales de rangos entre 6 y 9.

En 1977 se leyó lo siguiente: 6EQUJ5

Esta señal superaba ampliamente la intensidad de todas las recibidas hasta el momento. Y había algo mucho más interesante. La frecuencia de la señal estaba alrededor de los 1420Hz, coincidente con la frecuencia de emisión del hidrógeno.

Esto era muy interesante, pues la mayoría de los científicos de SETI consideraban que dicha frecuencia sería una de las frecuencias lógicas para usar en una señal del tipo “estamos aquí”, al ser claramente reconocible. Por supuesto, antes de sacar ninguna conclusión, el descubridor de la señal, Jerry R. Ehman, examinó primero todas las posibilidades.

Lo primero fue descartar que fuese un fenómeno natural, como un planeta, asteroide o estrella. Los análisis de los mapas celestiales lo descartaban, al provenir de una región del espacio teóricamente vacía. Después se investigó las órbitas de los distintos satélites artificiales, pero nuevamente ninguno encajaba. De forma similar se descartó la posibilidad de que fuese una señal emitida por un avión, o una señal rebotada desde alguna antena en tierra. Hay que tener en cuenta que la frecuencia 1420 está restringida y no se permite para usos civiles.

Así que, una vez descartadas todas las explicaciones para un origen natural y para un origen artificial terrestre, se pensó en la posibilidad de que fuese una emisión de algún tipo de inteligencia extraterrestre. El problema es, de ser así, ¿por qué solo se recibió esta señal una vez? Ehman opina que, de ser de origen alienígena, la señal no sería un mensaje destinado a decir “estamos aquí”, sino que tendría otra función.

El auténtico problema es que esta señal, ni ninguna parecida, fue vuelta a detectar. Con lo cual, a día de hoy, sigue inexplicada.

Fuentes (en inglés)
Caneles de Marte en Wikipedia
Percival Lowell en Wikipedia
The discovery of Pulsars en BBC
Wow! Signal – 30th Anniversary Report por Jerry R. Ehman

Imágenes
Mapa de los caneles de Marte, por Giovanni Schiaparelli, obtenida en Wikimedia (Dominio Público)
Is anyone out there? de Cuellar, CC Reconocimiento No Comercial en Flickr

Viajando por el tiempo. Base teórica.

Muchas historias de ciencia ficción tienen como base los viajes por el tiempo. Una persona o nave entra en una singularidad, artificial o natural, que la hace viajar a través del tiempo, apareciendo en el pasado. Pero, ¿cuál es la base teórica de todo esto?

El espacio y el tiempo clásicos

Veamos primero en que consiste el tiempo. Según la teoría clásica de Newton, el espacio y el tiempo son el escenario donde suceden los sucesos físicos. Las partículas están localizadas en algún lugar del espacio y se mueven por él. Por su parte, el tiempo avanza inexorablemente, igual para todos.

Según las teoría físicas de Newton, es imposible viajar por el tiempo. Básicamente, el tiempo avanza a su ritmo, siempre el mismo y a la misma velocidad para todos. Desde este punto de vista es totalmente imposible un viaje por el tiempo, pues el paso del tiempo no puede ser alterado lo más mínimo.

El espacio-tiempo relativista

Imagen de la curvatura del espacio

Con la teoría de la relatividad, se incluyen una serie de conceptos importantes que podrían permitirnos viajar en el tiempo. El primero, es que espacio y tiempo no serían conceptos separados, sino que estarían relacionados entre sí, afectándose mutuamente. Y ya que podemos viajar por el espacio, ¿podríamos hacerlo por el tiempo?

La segunda parte, y la más interesante, es que el espacio y el tiempo pueden ser afectados por objetos que tengan gran masa o que se muevan a grandes aceleraciones ( desde el punto de vista relativista, el efecto de la atracción por masa es indistinguible de la aceleración ) Veamos un ejemplo clásico.

Imaginemos que el espacio es un lámina de plástico. Si mantenemos esta lámina en tensión, obtendremos una superficie totalmente plana. Ahora bien si colocamos encima un objeto pesado, como una bola de plomo, se curvará. Pues así es como funciona la gravedad según la teoría de la relatividad.

Curvando el tiempo

Llegados a este punto y partiendo de la base de que el tiempo está relacionado con el espacio y, por tanto, lo que afecte al espacio también podría afectar al tiempo, llegamos a la parte interesante. Las grandes aceleraciones afectan al flujo de tiempo. Así, si nos desplazamos a velocidades próximas a la luz, percibiremos el paso del tiempo de manera distinta a seres que estén en posiciones más o menos estáticas. Igualmente, si nos absorbiera un agujero negro, el tiempo se nos eternizaría.

Veamos un par de gráficas. En la primera tenemos una partícula en condiciones normales. La linea es el flujo temporal. En la mayoría de los casos, se percibe como una linea recta.

Tiempo sin curvar

Ahora aceleremos un poco o aumentemos la masa en un punto (recordemos, a efectos relativistas, los efectos gravitatorios y la aceleración son equivalentes). Nuestro tiempo empieza a curvarse.

Tiempo ligeramente curvado

¿Y si seguimos aumentando la masa o la velocidad? Pues acabaríamos por curvar tanto el tiempo, que volvería hacia atrás. Acabamos de viajar hacía atrás en el tiempo.

Tiempo curvado en bucle

Y así es como se viajaría en el tiempo, curvando el espacio tiempo hasta que se forme un bucle temporal. Esto lo podemos conseguir mediante una gran aceleración, tanta como para superar la velocidad de la luz, o mediante algún objeto supermasivo, como un agujero negro.

Una aspecto interesante es que tendríamos que tener cuidado, pues no solo curvamos el tiempo, sino también el espacio. Con lo cual puede que al viajar atrás en el tiempo apareciéramos en algún lugar inesperado

Problemas

Por supuesto no todo es tan sencillo. El problema básico es que la misma teoría relativista que inicialmente permite los viajes por el tiempo, también nos dice que la historia del universo es conocida y no puede ser cambiada. Por tanto si en el futuro alguien fuese capaz de desarrollar algún tipo de máquina de viaje en el tiempo, lo más probable es que ya debiésemos saberlo. Y no parece ser así.

Esto nos lleva a un tema del que quiero hablar desde hace tiempo y es el determinismo científico. Pero esto, junto con las razones teóricas que nos impiden en la práctica viajar por el tiempo, serán materia para futuros artículos.

Bibliografía y fuentes

Primera imagen obtenida en Astroseti. El resto son elaboración propia, como se podía deducir por su cutrez.

Libros: El universo en una cáscara de nuez. Stephen Hawking. Capítulo 5: Protegiendo el pasado

El Teorema de Napoleón y su discusión con Laplace

Los sabios son los que buscan la sabiduría; los necios piensan ya haberla encontrado
– Napoleón Bonaparte

Para algunos Napoleón fue un ególatra ansioso de poder que trató de subyugar a toda Europa. Para otros fue un hombre ilustrado que consiguió cimentar la base de los estados europeos actuales. Así, por ejemplo, el código civil francés actual se basa en el código civil introducido por Napoleón en 1804. Aparte, Napoleón era un gran aficionado a la ciencia y a las matemáticas

Hoy vamos a contar dos anécdotas sobre Napoleón. La primera, su discusión con Laplace y la segunda, algo menos conocida, el teorema que lleva su nombre

Laplace y la variable Dios

Retrato de Laplace

Laplace era un matemático francés que fue ministro de Interior de Francia y que sería nombrado conde durante el gobierno napoleónico. Conocido por muchas aportaciones a las matemáticas, una de ellas fue la escritura del libro “Mecánica celeste”, un tratado de astronomía tan completo a dicha materia como lo fue el “Principia Mathematica” de Newton a la física. También es conocido por ser uno de los principales defensores del determinismo científico, esto es, que todo puede ser determinado y predicho por la ciencia.

Algunos sectores más conservadores de Francia criticaron a Laplace por no incluir ninguna referencia a Dios en su Mecánica Celeste. Un día, conversando con Napoleón, el emperador le preguntó por la ausencia del creador y Laplace le respondió con la siguiente frase:

“Señor, no he necesitado esa hipótesis”.

La respuesta gustó mucho a Napoleón, que se la contaría a otro gran matemático, Lagrange, que también era un protegido del emperador y que respondería a Napoleón con otra frase: “No necesitar a Dios es una bella hipótesis, explica además muchas cosas”

El teorema de Napoleón

Como dijimos antes, Napoleón era muy aficionado a las matemáticas y de hecho, existe un teorema que lleva su nombre. El teorema no es realmente suyo, sino de un matemático italiano, Lorenzo Mascheroni, que le dedico un libro de geometría a Napoleón y este, agradecido, ordenó traducir el libro al francés y con lo que quedaría asociado dicho teorema a su persona

El teorema es muy sencillito y lo voy a contar no de forma matemática, sin ecuaciones. Si queréis, podéis ir a por un papel y un lápiz, pues se basa de un teorema de geometría.

Cojamos un triángulo cualquiera. Pintemos en cada uno de sus lados un triángulo equilátero (los tres lados iguales). Calculemos ahora los centros de esos tres nuevos triángulos. Pues bien, el teorema nos dice que el triángulo resultante de unir esos tres puntos es también equilátero.

El teorema también es aplicable si dibujamos los triángulos hacia adentro

Representación gráfica del teorema de napoleón

Y este es el teorema de Napoleón y su relación con Laplace.

Fuentes

Sobre la discusión con Laplace
Sobre el teorema de Napoleón (Fuente original para la imagen del teorema)
Biografía de Laplace

Vectores víricos. Virus que curan

La medicina de principios del siglo XXI nos va a proporcionar muchas sorpresas. En estos momentos existen, en mi opinión, dos lineas de trabajo extremadamente interesantes, las células madre por un lado y la ingeniería genética por otro. Dentro de las aplicaciones de la ingeniería genética quisiera destacar una, por su futura utilidad y por lo llamativa de la misma. El uso de vectores víricos

¿Qué es un virus?

Virus del SIDA

Para entender que es un vector vírico, primero tenemos que entender que es un virus. Básicamente un virus es un organismo que es capaz de parasitar células de nuestro cuerpo, inyectando su propio código genético en las mismas. ¿Consecuencias? Pues que cuando las células infectadas empiecen con su proceso de reproducción celular crearán nuevos virus, en lugar de nuevas células.

Otra características que tienen los virus es que normalmente solo infectan a un tipo específico de células. Por ejemplo, el retrovirus del VIH ataca al sistema inmune mientras que el ébola infecta el sistema circulatorio.

Por tanto, tenemos un pequeño organismo capaz de afectar a determinadas células de forma selectiva, provocando que dichas células generen nuevos organismos, definidos por la información genética del virus atacante. Los científicos pensaron, ¿no existirá alguna manera de usar esto en nuestro propio beneficio?

Si. El uso de vectores víricos.

¿Qué es un vector vírico?

Veamos un ejemplo

Cojamos como ejemplo el cáncer. Existen algunos tipos de cánceres muy resistentes a los tratamientos tradicionales debido a que las células cancerígenas generan un tipo de proteína que las protege de las medicinas. Bien, ¿y si pudiéramos evitar la generación de dichas proteínas? Aquí entran en juego los vectores víricos.

La idea es la siguiente. Cogemos un virus, como el del VIH (sí, el que causa el SIDA). Mediante ingeniería genética le extraemos de su información genética la parte que es dañina para nosotros. Y ahora la sustituimos por la información genética necesaria para crear “contra-proteínas”, capaces de inutilizar las proteínas que protegen a las células cancerígenas.

¿El resultado? El vector vírico entrará en nuestro cuerpo y proveerá a nuestras células de la información necesaria para acabar con las proteínas de defensa cancerígenas. Una vez eliminadas estas defensas, los tratamientos tradicionales tendrán vía libre para actuar.

Y esto, ¿no es peligroso?

En principio cuando te dicen que van a usar virus genéticamente alterados para curar, lo primero que te viene a la cabeza es ¿no será peor el remedio que la enfermedad? Si después te cuentan que el virus usado es generalmente el VIH, los temores crecen. Bien, mediante ingeniería genética se crean virus “seguros”.

Eliminación del factor dañino: Lo primero, lógicamente, es quitar la parte negativa del virus. En nuestro caso, cogeríamos el VIH y le quitamos toda información genética que pudiese generar la enfermedad del SIDA.

Estabilización genética: Uno de los principales problemas con los virus es su alta mutabilidad. En nuestro caso, el peligro estaría en introducir un virus “benigno”, que este mutase, y cambiase su código genético al de un virus nuevamente perjudicial o a algo peor. Por esto se añaden estabilizadores a los vectores víricos. Gracias a ellos se consiguen virus casi inmutables, anulando la variabilidad genética.

Para que hagáis una idea, en el caso de los vectores víricos basados en VIH se cambia el 70% del código genético original.

En resumen, una gran idea, que puede darnos muchas alegrías a medio plazo. De momento, la mayoría de las investigaciones están pendientes de ser probadas en humanos, pero seguro que tarde o temprano empiezan a usarse de manera generalizada

Fuentes

Wikipedia
Wired ( Vía menéame)

La hipótesis Gaia

Imagen de la tierra desde el espacio

Hoy vamos a hablar de una hipótesis científica que suele causar bastante controversia por su nombre. Se llama “Hipótesis Gaia” y fue desarrollada por el químico James Lovelock y extendida por la bióloga Lynn Margulis.

El nombre está tomado de la diosa griega Gaia, diosa de la tierra. Debido a esto muchas veces se asocia esta teoría a movimientos New Age o neopaganos que afirman que la Tierra es una entidad viva, o que la naturaleza tienen una propia conciencia. Nada de esto es afirmado por la hipótesis Gaia

Así que veámosla en detalle

Las atmósferas de Marte y la Tierra

Lovelock trabajaba en los años 60 en la NASA en un proyecto para la búsqueda de vida en Marte. Durante este proyecto constató que las condiciones atmosféricas marcianas diferían mucho de las terrestres. En concreto, la combinación de gases de la atmósfera marciana es altamente tóxica para la vida, mientras que la terrestre es idónea.

¿Por qué es tan óptima esta combinación de gases en nuestra planeta? Si hubiese más metano, menos oxígeno o más dióxido de carbono, la vida sería mucho más complicada en nuestro planeta. Sin embargo, la atmósfera mantiene las condiciones más óptimas posibles para la existencia de vida. ¿Casualidad o no?

El medio condiciona la vida y la vida condiciona el medio.

Lovelock propuso la siguiente hipótesis. Las condiciones en la tierra son óptimas para la vida, porque la vida es capaz de optimizar las condiciones del medio para su propio beneficio conjunto.

Ejemplo clásico. Inicialmente las condiciones de la Tierra eran muy duras. Temperaturas elevadas, radiación solar y atmósfera desprovista de oxigeno. Sin embargo el desarrollo de las primeras bacterias con capacidades fotosintéticas permitió incrementar los niveles de oxígeno en la tierra. Esto provocó, entre otras cosas, un mayor filtrado de los rayos del sol, suavizando las temperaturas y permitiendo el desarrollo de nuevas especies.

Es decir, a partir de unas condiciones iniciales poco adecuadas, el desarrollo inicial de las primeras formas de vida, acaba por optimizar las condiciones vitales en todo el planeta.

Importante resaltar, que esta optimización no es un acto consciente, sino inconsciente y no dirigido. Podríamos decir que al igual que la selección natural dirige de manera inconsciente la evolución y optimización de la vida, la vida optimiza de manera inconsciente el ecosistema global.

Opinión

¿Qué es lo que me gusta de la hipótesis Gaia? Que Gaia es capaz de explicar una cosa muy importante: ¿Por qué las condiciones vitales de La Tierra son tan optimas para la vida en general y la humana en particular? Podríamos pensar que es casualidad, o que las condiciones de la Tierra hubiesen sido creadas a propósito. Pero Gaia explica de una manera bastante razonable el porqué la Tierra es tan cómoda para nosotros, insignificantes humanos.

Lo cual me lleva al principio antrópico, pero eso lo dejaré para otro día.

Para profundizar:

Programa de Redes dedicado a Gaia
http://www.guba.com/watch/3000110252

Transcripción de dicho programa (El texto también se encuentra en el libro Cara a Cara con la mente y el universo )
http://www.eduardpunset.es/charlascon_detalle.php?id=9

Artículo en Wikipedia [ENG]:
http://en.wikipedia.org/wiki/Gaia_hypothesis

El monumento a Fibonacci en Barcelona

Localizacion del monumento a Fibonacci en Barcelona

La imagen de arriba corresponde a Barcelona, concretamente a una zona al lado del Passeig de Joan de Borbó‎ donde los fines de semana suele haber un mercadillo de artesanía, entre otras cosas. Si os fijáis en la foto existen una serie de puntos negros dispuestos en linea recta paralelamente las escaleras del puerto. Al principio estos puntos están juntos entre ellos, en la zona donde están rodeados de árboles. Más adelante la separación entre los puntos crece. Otra cosa llamativa es que estos puntos, baldosas negras en realidad, tienen escritos en ellos una serie de números:

1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, ..

Si señores, dichas baldosas pertenecen a un monumento a La Sucesión de Fibonacci. Es un monumento bastante curioso, pues el tamaño de las baldosas y la separación entre las mismas van aumentando en una función más o menos próxima a la de Fibonacci.

Lamento no tener mejores fotos del lugar, tal vez la próxima vez que vaya a Barcelona, pero para los aficionados a las matemáticas, es un rincón lo suficientemente original como para acercarse a echarle un vistazo

Actualización: En caballe.cat han encontrado fotos del monumento. Realmente muy chulo 🙂

Monumento a Fibonacci en Google Maps