sábado, 31 de julio de 2010

Atención: Por mal clima el fin del mundo se pospuso hasta el 2012, lamentamos las molestias.

Pocas cosas le gusta mas a la gente que enfrentarse al inminente fin del mundo sin tener posibilidad alguna de salvar su vida. Es como si las mejores vacaciones fuera coronada con lluvias de fuego y toda clase de castigos caídos desde el cielo, salidos de las aguas y emergidos del suelo. Afortunadamente nuestro mundo gusta de terminar de forma periódica, o al menos eso parece.


Entre los favoritos para ser causa del fin del mundo esta la actividad solar, aunque exagerada y fuera de contexto.

También es conocido, para cualquiera que ha estudiado un poco de historia, que el ser humano gusta de cometer los mismo errores una y otra vez. Esto podría ser por la falla de una generación de registrar lo aprendido para beneficio de futuras generaciones (falla que puede tener un sinfín de causas) o lo que es mas viable, la falta por parte de una generación de disposición de aprender del pasado culpando a la falta de tiempo o asumiendo que somos mas inteligentes o sabios por el solo hecho de nacer después de generaciones pasadas. También, es muy evidente que si algo no nos gusta es auto-criticarnos y examinarnos, en particular si las conclusiones puede llevar a la conclusión de que hemos de modificar nuestra forma de pensar.

Un muy llamativo ejemplo es la larga lista de "finales del mundo" que se han dado en la historia. Según el calendario en uso en un cultura en particular se gusta de adjudicar a fechas numéricamente especiales de toda clase de significados solo por el hecho de ser múltiplos de algún otro número. De hecho en un conteo rápido y no muy exhaustivo se pueden encontrar mas de 50 predicciones del fin del mundo entre el año 30 y 2000. Y claro, no olviden el 14 de Agosto del 2008, cuando se anunció el supuesto fin del mundo por que el LHC (Gran Colisionador de Hadrones) destruiría al mundo (jamás entendí el "fundamento" de esta idea). El punto es que desde las predicciones bíblicas hasta los cálculos licenciosos sobre los supuestos efectos de las alineaciones planetarias, una gran cantidad de finales del mundo han dejado a sus "fans" vestidos y alborotados ya que no se presentan y no mandan ni una notita explicando el motivo de su falta de profesionalismo. Y cuando digo que los dejaron vestidos, es literal ya que se presento un caso en que un muy maleducado fin-del-mundo no se presento el 3 de Abril de 1843, aún cuando William Miller, quién se tomo la molestia de hacer la predicción, había vendido una gran cantidad de "togas blancas de la ascensión" de diseño exclusivo, lindo color blanco que combina con las nubes y garantizadas a ayudarte a entrar en el paraíso. Pero ya que se no se terminó el mundo ni consumido por el fuego (probablemente por recortes presupuestales en el combustible) la fecha de cambió y se anunció que el fin sería el 7 de Julio. Resulta que ese fue un día muy agradable así que anunció aun otra postergación para el final, ahora el 21 de Marzo de 1844. En esta ocasión aquellos que esperaban el final se alegraron ya que fueron sorprendidos por una fuerte tormenta, pero se terminaron conformando con seguir existiendo, aunque mojados, hasta la nueva fecha, del 22 de Octubre. En dicha fecha tampoco se terminó el mundo, lo que dejó muy desilusionados (pero ya secos) a miles que esperaban tocar en las puertas del cielo.


Otros favoritos con los cometas.

Por supuesto el señor Miller amasó una fortuna vendiendo las "togas de la ascensión" (algo nada ético, considerando que ni siquiera eran impermeables). Pero lo mas interesante es que mucha e la misma gente que espero el final en la primer fecha lo siguió esperando en las siguientes, esto dió lugar a algo que los psicólogos llaman "disonancia cognitiva" que se da cuando uno tiene en su conjunto de ideas conjuntos de información o "hechos" (verificados y/o asumidos) que se contradicen y tiene a reconciliarlos, en el proceso generando toda clase de explicaciones y racionalizaciones. Es decir, seguimos con la misma idea a pesar de que algo mas lo contradiga y para salvar las contradicciones los justificamos e inventamos toda clase es excusas. Ahora, sería hasta cierto punto entendible incurrir en la disonancia cognitiva en casos en los cuales algunas ideas muy preciadas están en peligro, pero es llamativo que al no ver realizado el prospecto de un final inminente se nieguen a dejar morir esa idea.


Y claro, los aceleradores de partículas, de los cuales constantemente esperan que salga un hoyo negro que se coma la Tierra (lo cual, obviamente, no es siquiera viable).

Así que tanto como individuos y como especie tendemos no modificar nuestras ideas sobre nuestra propia destrucción. Esto, junto con la falta de aprendizaje histórico se puede ver hoy. Los invito a observar y estudiar el mas reciente "fin del mundo", el 2012. Entre las cosas que me han llamado la atención es la justificación anticipada. En esta ocasión se usa el término "fin del mundo" solo al principio (sirve para llamar la atención, vender el libro, dar el "click" en el sitio web y no cambiarle de canal a la tele) pero luego cambia a "grandes cambios" o "gran crisis". Probablemente esto es muy adecuado ya que el mundo muestra una gran renuencia a terminar y por "granes cambios" o "gran crisis" se puede entender cualquiera de las muchas cosas que pasa en un año común. Aún así, de seguro cada cosa que pase en el 2012 se dirá que fue predicho por lo Mayas (después de que pase, claro), así que cada avión que se estrelle, el resultado de cada elección, la conducta del mercado, incendio forestal y todo lo que suceda habrá sido predicho por los Mayas.

Es muy claro que por alguna razón (morbo, creencia sincera, fanatismo, interés económico) algunas personas seguirán esperando mas fines del mundo, mientras que otros seguirán estudiando toda clase de aspectos de la condición humana y la forma de pensar de las personas y de actuar de los grupos. En lo personal, prefiero estar en el segundo grupo.

Libros recomendados:
  1. Richard Kyle, "The last days are here again: A history of the end times," Baker Books, (1998), Pag 111.
  2. Watchtower magazine, 1924-JUL-15, Pag 211
  3. William Martin, "Waiting for the End: The growing interest in apocalyptic prophesy," The Atlantic Monthly, 1982-JUN. http://www.theatlantic.com/
  4. "Herman L. Hoeh," Wikipedia, , de: http://en.wikipedia.org/
  5. Mike Harris Jr., "Arnold Murray. False Teacher. False Prophet.," Mikes Christian Corner, en: http://www.mikeschristiancorner.com/


Blogalaxia Tags:

martes, 27 de julio de 2010

Tecno-evo III

Cuando hablamos de evolución se nos vienen muchas ideas a la mente, algunas de ellas erróneas. En primer lugar se piensa que por "evolución" se implica un mejoramiento, que las versiones modernas son superiores en todo aspecto sobre las antiguas, cuando en realidad solo implica una adaptación, una "superioridad" válida solo en un momento y un ambiente. Por otra parte se cree que solo existe la evolución Darwiniana, siendo que está es solo la mas conocida, la que gobierna el mundo natural, pero se puede tener, por ejemplo, una evolución artificial. Un caso muy particular es lo que hemos hecho con los animales que hemos domesticado, como los perros, en cuyo caso, a base de ir seleccionando crías de lobos cada vez mas mansas y amistosas a nosotros fuimos, poco a poco generando los perros actuales.


Árbol evolutivo de la especie humana constituye ejemplo típico para especies biológicas.

Pero existen sistemas artificiales que también están sometidos a una evolución Darwiniana. En particular los programas de computadoras, el software puede ser sometido a procesos de selección, que si bien son artificiales tienden a simular la selección natural por la complejidad en se dan. Pero antes de continuar, hablaremos un poco sobre un programa muy particular que ha evolucionado con una gran similitud a la forma en que evolucionan las especies biológicas. Este software es el sistema operativo Linux. Linux, si bien es un conjunto de programas, lo trataré como un sistema, compuesto por varias partes que interactúan y se necesitan mutuamente.

Linux es un sistema operativo, es decir un programa que se encarga de administrar los recursos de una computadora e interactuar con el usuario. Es decir, es el "mayordomo" que se encarga de mantener la computadora funcionando y coordinar a los programas que usamos como usuarios. Es decir el deseamos usar un procesador de textos, el sistema operativo lo llama y atiende para que pueda cumplir su cometido. Por ejemplo si mandamos al procesador de textos grabar el archivo en el que estamos trabajando, el sistema operativo ayuda a dicho programa traduciendo la orden de "grabar el archivo" en instrucciones tan específicas que la computadoras pueda ejecutar.


Tux, la mascota y emblema de Linux (no tengo idea de por que es un pinguino).

La mayoría de las personas utilizan alguna versión del sistema operativo "Windows" (sin saber que tienen opción, y que ese sistema venía con la computadora por un acuerdo comercial impuesto por Microsoft). Las curiosas propiedades evolutivas de Linux se deben a su origen. Linux nació como un proyecto de tesis de Linus Torvalds (el nombre de "Linux" viene del nombre propio de su creador salvo por el remplazo de la "s" por una "x"). La tesis de Torvalds tenia bastante sentido. En aquel tiempo existía (y aún existe) un sistema operativo llamado Unix, el cual era conocido entre los computólogos por su estabilidad y confiabilidad. Pero tenía un problema, en ese tiempo (1991) no cualquier computadora tenía los recursos para funcionar con Unix, este era usado en aplicaciones donde el funcionamiento de grandes sistemas de computo era vital (bancos, gobiernos, hospitales, etc), de aquí que poco después nació una version pequeña de Unix, llamada Minix, creada por Andrew Tanenbaum, el cual si funcionaba en cualquier PC. Pero Minix carecía de la funcionalidad de Unix, no podía hacer todo el abanico de acciones de las que era capaz Unix. De aquí la idea de crear un híbrido, una cruza de ambos sistemas operativos, tan pequeño y ligero como Minix, pero tan versátil y confiable como Unix, el resultado fue Linux.

El objetivo, entonces, de Linus Torvalds era crear un sistema operativo tan ligero que cualquier computadora, sin importar que tan pocos recursos tenga, lo pueda mantener y al mismo tiempo debía ser confiable y seguro (la política era: que la computador atrabaje para uno, no uno para la computadora). Así que Linux se centró en hacer el uso mas eficiente posible de los recursos, tan es así que algunas distribuciones (luego aclararé que es una distribución) de Linux no requieren que la computadora tenga disco duro ni mas de 640 k de RAM. Bien pero el punto principal es que Linux fue creado con el propósito de cumplir una función en un sistema en particular, hacer funcionar programas en una computadora con pocos recursos. Esta fue la primera de las dos ideas detrás de Linux.

La segunda vino cuando se llego la hora de decidir como de distribuiría Linux. Casi todos los programas computacionales se distribuyen bajo una licencia de propietario, es decir, alguien, una compañía vende el derecho de poseer y usar el programa a alguien dándole ciertas libertades y restringiendo otras, en especial las condiciones en las que se instalará y usará el programa. Pero Torvalds decretó que Linux estaría bajo una licencia que ha evolucionado a lo que hoy se conoce como Licencia Pública General (LPG, o GPL en Inglés) la cual dice que una ves que uno es poseedor de Linux, sin importar como es que llegó a nuestro poder, podemos hacer lo que nos de la gana con él. Es decir, si queremos los instalamos o no, en las computadoras que queramos, lo podemos regalar, copiar, vender, regalar copias al primero que pase por la calle o en fin, hacer lo que nuestro cyber-corazoncillo o las voces en nuestra cabeza nos indiquen, PERO , con la condición de que siempre demos crédito al autor, digamos que donde lo obtuvimos nosotros y si es que lo vendemos o lucramos de alguna manera, se ofrezca una versión gratuita o digamos donde se puede obtener dicha versión y que el nuevo producto herede esta licencia y condiciones. Es decir, ustedes puede bajar Linux, modificarlo todo lo que deseen, y luego venderlo, pero están obligados a ofrecer una versión completamente funcional que sea gratis, luego alguien mas puede hacer lo mismo con ese producto. Un caso de esto es un distribución de Linux llamada SuSE (puedes comprar la versión de SuSE para empresas o bajar gratuitamente de internet la versión para le hogar, de alguna manera me parece muy adecuado eso de que las empresas paguen y el individuo no).

Pero aparte de la pesadilla que la LPG implica para los comerciantes al atentar contra los monopolios, esta licencia dió lugar a que Linux se fuera modificando. Aquí es donde entra en acción la evolución. Al tener todo el derecho de obtener Linux y modificarlo, muchos programadores iniciaron un ciclo que continua hasta hoy, en el cuál le agregan programas y opciones a Linux, le dan o quitan "características" para generar un mejor Linux (según lo que cada quién entienda por mejor). Por ejemplo, digamos que mis dos hermanos (un antropólogo y el otro adicto a la historia) y yo bajamos una versión dada de Linux. Podríamos estar de acuerdo en que nos gusta, pero que estaría mejor con algunos pequeños cambios, cada uno buscaría los cambios que mejor se acomoden a sus necesidades. Por ejemplo, el historiador podría buscar que el sistema operativo maneje mejor enormes archivos sin tener problemas de fragmentación o de saturación de RAM, el antropólogo podría buscar que el S.O. trabaje en una máquina sometida a toda clase de condiciones adversas la hacer investigación de campo tales como altas temperaturas, funcionar a base de baterías, etc. Mientras que yo como físico buscaría que el S.O. sea bueno y rápido haciendo cálculos. De esta manera (si fuéramos realmente buenos programando) crearíamos cada uno una versión nueva que "evolucionó" de la versión antigua que los tres bajamos y las podríamos pasar a nuestros respectivos colegas, estas diferentes versiones de Linux (diferentes pero todas compatibles entre si, son las distribuciones, yo podría llamar al mi distribución PabloxLinux, mientras que supongo que saldrían también JuanixLinux y OmaxLinux). Cada una de las distribuciones puede irse adaptando al ir apareciendo versiones mejoradas y eventualmente alguien la puede alterar tanto que genera una nueva distribución.


Árbol de distribuciones de Linux, se puede ver la evolución de unas a partir de otras en respuesta a cambios en las necesidades del usuario y disponibilidad de recursos.

A diferencia de los programas tradicionales que cambian de una versión a otra según se decreta en una compañía "guiada" por investigación de mercado (y lo que salga mas barato y se venda mas caro). Linux cambia según las necesidades algún grupo de personas. Cambia cuando esta cometido a condiciones diferentes, según en que tipo de computadora se use y para qué. Así que como ven, las distribuciones de Linux se comportan como las especies biológicas en el sentido de evolucionar en función de su ambiente y la potencial competencia(por usuarios) entre sí. El medio ambiente serían las computadoras de los usuarios. Y los atributos de cada distribución las herramientas que tendrán para sobrevivir ya que si me gusta Linux, pero no me satisface mi distribución simplemente cambiaré a otra (esto me pasó al cambiar de ser usuario de SuSE a Ubuntu).

En este punto se puede ver claramente como un sistema artificial como Linux puede evolucionar de forma Darwiniana, con procesos de selección en los que se generan nuevas especies (distribuciones), selección que nace de la competencia entre las distribuciones para ocupar el mayor espacio posible del ecosistema (computadoras de usuarios) y eventuales proceso de extinción. Y esto es un aspecto muy relevante de la evolución de la tecnología ya que genera soluciones tecnológicas que son ajustadas a las necesidades precisas del usuario. Por ejemplo, en un computadora con Windows, obtengo un sistema operativo genérico que trata a una laptop y una PC de forma casi igual salvo por los controladores (archivos que ayudan al sistema operativo a usar las partes de la computadora) específicos (que serán decretados por el fabricante), pero al instalar Ubuntu Linux (el sistema operativo que uso) el sistema se ajusta a mi computadora, tengo por ejemplo, el mismo sistema en mi Laptop y una PC y se puede notarla diferencia en el uso de los recursos, es decir, el sistema averigua con que recursos dispone y se adecúa a estas necesidades.

Así que se tiene que la tecnología puede evolucionar de forma que siga solo la practicidad de la miniaturización o especialización (ver Tecno-Evo I), la implementación de tecnologías por razones políticas, las iniciativas privadas que dan origen a una gran cantidad de soluciones (ver Tecno-Evo II), y bajo algunas condiciones especiales, una evolución darwiniana que genera nuevos sistema que se están mejorando continuamente optimizándose para un medio en particular y que han de cambiar al cambiar el medio.

En sí, lo que tiene la última palabra es la utilidad que le encontramos a una tecnología en particular. Y así como hace 50 años nuestros aparatos cotidianos serían inimaginables, dentro de 50 años nos reiremos de lo que tenemos hoy y lo que esperábamos del futuro.





domingo, 25 de julio de 2010

Tecno-evo II

Como vimos en la entrada pasada, una de las principales formas de adelanto o "progreso" tecnológico es por medio del refinamiento de una sola forma de hacer las cosas. Pero consideremos ahora el motivo detrás del impulso que se le da a ciertas tecnologías. En particular nos centraremos en el impulso político y la evolución darwiniana aplicados a sistemas artificiales.


Con mas de 20 años de retraso llegó la Estación Espacial Internacional. Retraso causado por decisiones políticas interfiriendo en su desarrollo.

Se escuchará raro eso de un impulso político detrás del desarrollo de alguna tecnología ya que por lo general solo las ramas militares de los gobiernos buscan el desarrollo tecnológico con fines no muy políticamente correctos, pero se han dado casos en los que existen intereses políticos detrás de la implementación de alguna tecnología (el lector no familiarizado con las bajezas del funcionamiento de la política puede interpretar esto como el querer forzar la aceptación de algo, sin importar su eficiencia, consecuencias o impacto). Un ejemplo de esto fue la decisión, hace unos años de la NASA de adoptar la política de cambiar de lanzar pocas sondas grandes y confiables a lanzar muchas sondas pequeñas y baratas. Por supuesto esta decisión se vio muy bien ante el congreso y era justo lo que le pidieron al entonces administrador de la NASA (un economista). El resultado fue el final de la era de las grandes sondas destinadas a estudiar muchos aspectos de algún planeta durante varios años y el inicio de la era de sondas pequeñas fabricadas con muy baratos dispositivos electrónicos ya existentes en el mercado (es decir, usar modems y demás circuitos diseñados para PCs y equipo de uso aquí en la Tierra), lo cual dio como resultado una serie de fracasos, entre sondas que fallaban en camino a su objetivo, otras que no encendían componentes importantes (por ejemplo, al acercarse a un planeta, es importante encender los retro-cohetes) y otras que simplemente se "perdían". Si algun lector ha seguido la astronáutica de los años recientes recordará una época en la que a la NASA parecía que todo le salia mal.




Space Ship One, la nave ganadora del Premio X.
Arriba, con el motor encendido y ganando altura.
Centro, entrando en la atmósfera, con las alas dobladas para reducir la velocidad.
Abajo, a punto de tocar tierra después de su vuela inaugural.


Un ejemplo mas claro fueron los planes de Estados Unidos de poner una estación espacial en órbita, idea que viene de la administración Reagan (ya que la URSS tenía una, EEUU debía tener otra), la cual implicaba poner la estación en el espacio a mediados de los 80s. Cuando se anunciaron los planes, los ingenieros y científicos de la NASA aclararon lo difícil y costoso que sería desarrollar la tecnología, probarla y ponerla en órbita y propusieron hacer un trato con los soviéticos para establecer una estación entre ambos, la URSS pondría el conocimiento y experiencia mientras que EEUU pondría parte del capital y el transbordador para posicionar el equipo en órbita. Pero por supuesto, ¡Era inaceptable colaborar con un rival tan grande como la URSS!¿Como se atreven a pensar en cooperar cuando se puede competir intentando derrotar al otro? Así que lo políticamente correcto fue invertir una impresionante cantidad de dinero en desarrollar una tecnología de reciclamiento de agua y aire (que ya existía en la URSS) y la cuál jamas se llegó a implementar demorando años y desperdiciando recursos en repetir pruebas en Tierra (las cuales, obviamente no son representativas del ambiente en el espacio). Y todo para que a fin de cuentas se terminara con el mismo acuerdo inicial, solo que con años de demora. La estación espacial actual es una versión extendida del plan de cooperación original.

Y muchos de los problemas de la estación son las demoras causadas por el otro error tecnológico impuesto políticamente a la NASA, el transbordador espacial. Originalmente desarrollado como una nave "parche", es decir, algo para llegar al espacio en al era de transición entre los Apollo y el desarrollo de una nave completamente reutilizable (tal como un avión espacial) y con la cuál experimentarían para aprender mas sobre el control de dichas naves, el transbordador gustó tanto al gobierno que decidieron cancelar el presupuesto para desarrollo posterior (volaba, subía y bajaba cosas del espacio y se veía bonito en la revistas, ¿para que quieren mas?). Así que la NASA se quedó enredada con copias de una nave que no se había desarrollado hasta sus etapas de madurez y que resultaba impresionantemente cara y complicada de operar. Así que de estos ejemplos en la tecnología espacial, que son famosos mas no los únicos, que el desarrollo de tecnología por propósitos políticos no deja muy buenos resultados (sobre todo por la manía de los gobiernos de solo pensar en si mismos y a muy corto plazo).


Otros de los participantes del Premio X.

Pero hace unos años se lanzó una iniciativa de los mas sorprendente. Un grupo de personas establecieron, sin fines de lucro y con dinero propio, el Premio X. Este fue un certamen para otorgar un premio de 10 millones de dólares al primer individuo o grupo no-gubernamental que construya y lance una nave espacial privada, transporte dos pasajeros afuera de la atmósfera y repita el vuelo dentro de un plazo estipulado, es decir que sea reutilizable. Por supuesto no falto quién pensó que sería un disparate eso de estimular a cualquier loco visionario que ha visto demasiada ciencia ficción a querer repetir hazañas de Star Trek o Battlestar Galactica arriesgando sus vidas y potencialmente las de otros. Afortunadamente siempre hay algún loco visionario que sufriendo el mismo efecto, intelectualmente embriagante, por el replicador o la holocubierta del Enterprise y el motor FTL o los Cylons de Galactica que el Quijote sufrió con las novelas caballerescas, no duda ni piensa dos veces antes de iniciar el diseño de sus naves personales.

Un total de 25 equipos de varios países se inscribieron, y desarrollaron, no la misma copia del mismo tema, sino algunas soluciones muy innovadoras. Mientras que el subir es relativamente sencillo, el principal problema de viajar al espacio es bajar y vivir para contarlo, en especial por las temperaturas tan elevadas al re-entrar en la atmósfera. Claro, una solución es, como en el transbordador, cubrir la nave de cubos de cerámica especial que aisla del calor. Pero este material es increíblemente caro. Así que salieron soluciones muy ingeniosas; el equipo ganador(Burt Rutan de Scaled Composites y la nueva empresa de viajes espaciales Virgin Galactic), por ejemplo, construyó una nave que despega desde un avión, se eleva con cohetes, al regresar dobla sus alas para causar tanta resistencia al aire que nunca se llegue a la velocidad que la caliente mas de lo que puede manejar y luego aterriza como un planeador, el equipo da Vinci tiene un cohete con una especie paracaídas invertido que se pega al cuerpo de la nave, otros proponen un avión aeroespacial con motores de reacción modificados, un sistema de frenado que usa rotores similares a los de los helicópteros en lugar de paracaídas, unos despegan desde barcos, aviones e inclusive globos, aterrizan sobre ruedas, en el mar, con patas y hasta patines. Este enorme despliegue de creatividad es sin duda gracias a que cada equipo tenia completa libertad para lograr el objetivo.

Y de aquí el resultado interesante. Mientras que las tecnologías impulsadas políticamente, donde se involucran una gran cantidad de recursos y personas suelen quedarse estancadas, vemos que los esfuerzos como el Premio X en realidad llevan a desarrollar nuevas formas de resolver problemas, la esencia de la tecnología. Y de esto se trata el avance en la tecnología, de ideas, de generar, probar, descartar y refinar ideas. Así vemos que la NASA no tiene ninguna posibilidad de competir en cuanto a innovación con el Premio X.



Inspiración para muchos de los participantes en el Premio X, Battlestar Galactica y Star Trek.

En la próxima entrada hablaremos sobre un muy interesante caso de evolución darwiniana en la tecnología. Pero antes me gustaría mencionar un hecho que es en si mismo un tributo a los 25 equipos del Premio X; el premio fue otorgado ya a Burt Rutan, pero esto no a detenido a muchos de los demás participantes que continúan con sus planes y pruebas de motores, sistemas de soporte de vida y re-ingreso atmosférico, inclusive, la mayoría de ellos (incluyendo al ganador) ya han gastado mas de los 10 millones de dolares que pudieron aspirar a ganar. El premio no es sobre los 10 millones, es sobre salir al espacio. Es sobre lograr hacer algo a riesgo de la vida propia solo por el hecho de ser algo que sería un honor hacer, algo que es correcto, sea lanzarse contra gigantes o salir al espacio.



jueves, 22 de julio de 2010

Tecno-Evo I

El desarrollo de la tecnología es algo curioso. Si tiene un poco de paciencia pueden observar que en ocasiones sigue rutas muy lógicas y predecibles y repentinamente dar impresionantes saltos hacia adelante para luego quedarse estancada en algún punto. En sí para entender el muy curioso fenómeno que es la evolución de la tecnología hemos de considerar las fuerzas que actúan y el impacto que tienen.


Tornillo de Arquímedes. Utensilio para elevar agua por medio de la rotación de planos inclinados activados por una manivela.

En primer lugar, consideremos que la fuerza básica del cambio en la tecnología es la necesidad. El enfrentarnos a algún problema o situación nueva nos lleva a buscar una nueva solución que puede ser en forma de alguna máquina. Un claro ejemplo de esto fue el desarrollo de soluciones tecnológicas por medio de máquinas simples en el pasado. Pensemos en el tornillo de Arquímedes, implementado hace 2,300 años. Este sencillo pero ingenioso dispositivo empleaba el principio del "plano inclinado", es decir una rampa, para subir agua de forma sencilla. Como se ve en la figura, al dar vuelta a la manivela se logra inducir una fuerza en el fluido que lo obliga a subir a lo largo de la tubería. Es algo bastante sencillo pero resulta evidente que es mucho mas cómodo y eficiente subir agua con uno de estos sistemas que cubeta por cubeta. Tan eficiente resultó el tornillo que luego se le utilizó para mover sustancias granulosas tales como cereales. El merito en este desarrollo lo tiene el pensar en una forma adecuada de utilizar una maquina simple(el plano inclinado), aumentando la complejidad del sistema, para dotarlo de nuevas habilidades (transportar un fluido) y con esto resolver una necesidad.


Disco Duro IBM 350 (la enorme caja metálica en el monta-cargas, si, todo eso). Este dispositivo tenia una capacidad de almacenamiento de 5 Megabytes.

Así que al tener una necesidad, al estar frente aun problema que hemos de resolver, tenemos que una opción es la de tomar elementos sencillos y combinarlos de forma que se termina con un sistema mas complejo pero capaz de realizar nuevas tareas, por definición, una nueva máquina. De igual forma, una nueva maquina puede ser desarrollada desde cero totalmente o lo que es mas común, ser un sistema que sigue la misma idea de algún otro ya existente pero tiene alguna ventaja, tal como el ser mas pequeño o económico. Un ejemplo de esto último es el aparente desarrollo de la tecnología computacional, la cual sigue los mismos principios básicos en su funcionamiento desde sus orígenes y la cual, desde el invento del circuito integrado no ha hecho mas que miniaturizarse, e inclusive desde antes, objetivo básico era el mismo, lograr componentes mas pequeños. Así que las computadoras nuevas son fundamentalmente iguales a las computadoras de los 80's.




Arriba, variedad de discos duros de diferentes años. El mas pequeño es de 3.5 pulgadas y almacena 2 Tera-bytes
Centro. Estructura de muescas para almacenar información en un CD.
Abajo. Estructura de muescas en un DVD

Entendamos el diseño básico de una computadora. En esencia, se trata de lograra una maquina que resuelva sumas usando una corriente eléctrica. El principio funcional es el que siguiente sabiendo que una corriente eléctrica puede ser del voltaje que queramos, podemos interpretar dicho voltaje como numero. Cuando decimos que las computadoras usan ceros y unos es por que sus circuitos están diseñados para funcionar con dos voltajes; cuando se tiene un voltaje de 1v (v es de Volt, que es la unidad de voltaje) se interpreta como un cero, cuando el voltaje es de 5v se interpreta como un uno. Luego si consideramos que usando el sistema binario( un sistema de numeración que solo tiene dos signos "0 y 1" a diferencia del nuestro que tiene 10 signos "0,1,2,3,4,5,6,7,8 y 9") podemos escribir cualquier cantidad como una combinación de ceros y unos, entendemos que podría ser diseñado un circuito que al combinar voltajes genere el equivalente la resultado de una suma. Mas aún, si a uno de los números a ser sumados se le cambia de signo de positivo a negativo tendríamos una resta en lugar de suma, la multiplicación se puede lograr repitiendo varias veces la misma suma y la división se puede tratar como un caso especial de multiplicar por un numero que esta dividiendo a un uno (por ejemplo, 3 entre 20 se puede resolver como 3 POR 1 20-avo). Por lo que lograr un circuito que sume, te genera toda una calculadora, esta la idea básica detrás de la computadora, además de que igual, a base a sumas se puede hacer todo lo que haga su PC o Laptop, desde editar imágenes hasta redactar entradas de algún Blog.


Una de las primeras computadoras, funcionando a base de bulbos.

Así que si uno desarrolla una maquina tal que haga esto, una maquina que sume, tendría una computadora. La forma en la se logró crear la maquina sumadora ideal fue por medio electrónicos, en particular con bulbos, los cuales luego fueron remplazados por los mas pequeños transistores los cuales luego fueron remplazados por los circuitos impresos (los circuitos impresos son pastillas de silicio que contienen miles de transistores en una escala microscópica), de esta forma se pueden tener muchos mas circuitos sumadores y en consecuencia se pueden lograr mas cálculos al mismo tiempo.

0..................0
1...................1
10.................2
11..................3
100...............4
101................5
110................6
111.................7
1000.............8
1001.............9
1010 ...........10
1011 ............11
1100.............12
1101.............13
1110.............14
1111..............15
Ejemplo del empleo de sistema binario. A la derecha se encuentran los primeros 16 números del sistema decimal y a al izquierda su equivalente en binario. Noten que en binario apenas las dos primeras cantidades (0 y 1) tienen un signo y que a partir de la tercera se tienen que combinar los signos (10), pero esto pasa también en decimal, solo las primeras diez cantidades tienen un signo particular y a partir de la 11a se deben combinar.

De igual manera el impresionante incremento en al capacidad de almacenamiento de los discos duros esconde el hecho de que esa tecnología continúa siendo básicamente la misma. El ancestro directo del disco duro es la cinta magnética (la genealogía se remota la venerables tarjetas perforadas), pero desde el primer disco duro, el cual consistía en un conjunto de "platos" con una estructura de surcos parecida a los antiguos discos musicales de vinilo en los cuales se grababa segmentos magnetizados como "norte" o "sur". Los discos duros actuales son básicamente iguales, salvo que los surcos son mas delgados, los segmentos mas pequeños y los circuitos de lectura y escritura son mas rápidos, por lo que se puede almacenar mas información y se tiene acceso a ella con mayor velocidad. Pero al igual que con los procesadores, la tecnología es simplemente una mejora de la anterior. Esta idea se transfirió a los CDs que funcionan igual salvo por el hecho de que en lugar de usar un medio magnético se basa en un material óptico que desvía un láser, mientras que un DVD es lo mismo pero con canales y muescas mas pequeñas.




Arriba. Un transistor, puede remplazar al bulbo como componente principal de un circuito sumador, pero es mucho mas pequeño.
Centro. Estructura central del venerable procesador Intel 8080 de 1974, contenía 6 mil transistores microscópicos.
Abajo, procesador moderno, contiene mas de 125 millones de transistores.

Así que vemos que las tecnología de la información es un buen ejemplo de como el refinar algo ya existente es una forma eficiente de obtener mejores resultados. Pero regresando al tema de las fuerzas que impulsan la evolución de la tecnología, vemos un patrón, la necesidad de computa cada día mayor de los usuarios (tanto por exigir mas de las computadoras como por querer poner computadoras en todo) impulsó a los fabricantes a ofrecer computadoras mas veloces, en este caso fue la necesidad en el mercado y la posibilidad de mejorar la tecnología de forma relativamente sencilla; miniaturizando y concentrando, lo que impulsó y guió la evolución de esta tecnología, vemos que la multitud de consumidores, buscando mejores computadoras. Al que el tornillo de Arquímedes, que contaba con muchas personas que requerían una solución al problema de subir agua (con la diferencia de que con en ese aso ya no se podía mejorar mucho), estas tecnologías fueron rápidamente aceptadas ¿Pero que pasa cuando el impulso es de un solo elemento? ¿Y como evoluciona una tecnología sometida a procesos de selección Darwinianos? Estos temas los veremos en la siguiente entrada.


sábado, 17 de julio de 2010

Juventud turbulenta

Es común que cuando uno es joven, sobre todo adolescente, escuchar a los adultos hablarle a uno sobre lo turbulenta que es la juventud. Y por lo general uno se pregunta ¿Por que turbulenta? ¿Que tiene de turbulenta? Así que en lugar de sermonear a los lectores adolescentes sobre las virtudes de la tranquilidad y la obediencia (seguramente aquí mismo dejarían la lectura) mejor hablaremos de la turbulenta juventud de los pequeños planetas terráqueos del sistema solar.

Si me concentro en la juventud de los planetas terráqueos es por que quiero enfocarme en los procesos y las consecuencias de las eras tempranas del sistema solar. En particular de la era llamada "Periodo de Bombardeo Intenso" . La cual fue una era en al cual el sistema solar pasó de su etapa inicial a la configuración actual. Esta fue el resultado de un proceso natural de limpieza del sistema solar. Al ir orbitando los planetas atraían al material en forma de gas, polvo y pequeños asteroides que se encontraban cercanos a sus órbitas. lo que ocasionaba constantes lluvias meteóricas que incluian a muchos cuerpos de cientos de metros y algunos inclusive de decenas de kilómetros. Estos cuerpos eran el desecho del proceso de formación planetaria, por lo que el Periodo de Bombardeo Intenso es considerado el periodo de limpieza después del nacimiento del sistema solar.


Simulación de la migración de los planetas Jovianos desde su posición original (izquierda) hasta lo localización actual (derecha) mostrando la forma en la que se "limpio" el sistema solar exterior de detritos (puntos blancos). Imagen de Gomez et al.

Como se ha mencionado en otras entradas de este blog, el sistema solar inició su formación hace unos 5 mil millones de años a partir de la condensación de un segmento de una nube molecular (nebulosa), del total de la masa del segmento que se condensó la mayor parte (mas del 90%) se fue a formar el Sol, y solo un reducido segmento a constituir el resto, lo que incluye los planetas, lunas, asteroides y cometas. La mayor parte de la masa que "sobró" del Sol se condensó en un disco, llamado "disco proto-planetario" del cuál nacerían planetas y asteroides, los cometas, en su mayoría, se formarían en una nube esférica en las zonas exteriores del sistema solar llamada "nube de Oort". Inicialmente el sistema solar se encontraba en una configuración diferente a la actual, las orbitas de los planetas eran diferentes y se tenían mas cuerpos de los actuales, mas asteroides, cometas, satélites e inclusive planetas. Y los planetas que existían se encontraban en etapas iniciales de su evolución.

Con el paso del tiempo, los planetas, entre ellos, la Tierra, evolucionaron geológicamente. En pocas palabras inició el proceso de estratificación en el manto terrestre, los componentes mas pesados se precipitaron hacia el núcleo y los mas ligeros se quedaron en la superficie. Pero en los primeros 1000 millones de años del sistema solar, muchos de los cuerpos existentes en orbita al Sol fueron eliminados, unos escaparon al espacio, otros colisionaron con otros cuerpos y terminaron formando parte de dichos cuerpos. Lo mas importante de la actividad, el "Periodo de Bombardeo Intenso" concluyó en unos cuantos cientos de millones de años. Durante este periodo es cuando nació la Luna, aparentemente de una colisión entre la Tierra 1 (la presente es Tierra 2) que era un planeta un poco mas pequeño y con una proporción menor de Hierro y un pequeño planeta (algunos astrónomos los llaman Orfeo), el resultado de la colisión fue la fusión completa de Orfeo y Tierra 1 para dar como resultado Tierra 2 (mayor y con mas Hierro) y la Luna.

Después de este periodo la Tierra se veía diferente a como es actualmente, su corteza mas delgada y solidificada recientemente, los océanos apenas condensándoce y la atmósfera apenas siendo liberada por los volcanes. Y en lugar del típico paisaje que desde el espacio actualmente se puede ver de la Tierra, que consiste en grandes océanos interrumpidos por continentes y la cubierta de nubes bloqueando al visión por aquí y por allá, el paisaje era de un suelo casi continuo, solo interrumpido por ocasionales depósitos de agua y algunos cuantos cráteres interrumpiendo la superficie. En ese entonces la Tierra aún tenía un tenue anillo similar en estructura al de Saturno, pero mas pobre en material, el cual caía en espiral lentamente hacia el planeta, franqueado por una Luna con muchos menos cráteres, un que otro ocasional "temblor de Luna" en su superficie y la cuál se encontraba mas cerca de la Tierra.

Luego, después de un periodo de relativa tranquilidad que duró unos cuantos cientos de millones de años inició el "Periodo de Bombardeo Intenso Tardío" el cual sucedió en un periodo en el cual la Tierra ya contaba con océanos mas extensos aunque con una litosfera mas regular, la diferencia entre las partes mas altas (montañas) y las mas profundas (cuencas marinas) no era tan marcada como hoy.

Una muy buena pregunta es: ¿Que causó este segundo periodo de bombardeo? Si ya había concluido el proceso de eliminación de detritos, ¿De donde llegaron todos los nuevos cuerpos que estaban chocando contra los planetas terráqueos?

Una posible explicación viene de la formación del otro tipo principal de planetas, los jovianos, es decir los planetas gigantes, como Júpiter, Saturno, Urano y Neptuno. Según los mejores modelos computacionales, estos planetas se debieron de formar en un orden diferente al actual, Júpiter se encontraba mas lejos del Sol, mientras que los otros tres lo hicieron mas cerca de su posición actual. Pero la interacción gravitatoria entre los gigantes, ocasionó que migraran hasta su configuración actual (como pueden ver, los planetas en su juventud suelen ser mucho mas activos e interesantes), pero en este proceso alteraron la órbita de una gran cantidad de asteroides y cometas que se habían formado en el sistema solar exterior y que habían sobrevivido al Periodo de Bombardeo Intenso gracias a las enormes distancia que separan los cuerpos en aquellas regiones, sin embargo el tener al enorme Júpiter acercándose al Sol, mientras Saturno, Urano y Neptuno deambulan por ahí como su buscaran su lugar en un "juego de las sillas interplanetario" es suficiente para perturbar a cualquier cometa o asteroide por alejado que esté.


Edad de cristales de zirconio encontrados de litosfera. La formación de estos cristales le da una idea a los geólogos de las condiciones ambientales que reinaban en al Tierra en el momento. Se encontró que entre los 4400 y 4000 millones de años al pasado, la Tierra pasó por un momento de relativa tranquilidad entre el Periodo de Bombardeo Intenso y el Periodo de Bombardeo Intenso Tardío.

El resultado, fue que sobre la joven Tierra cayeron grandes cuerpos que ocasionaron mucho mas que cráteres, también se les apunta como potenciales responsables de la existencia de los enormes continentes que tenemos actualmente. Un impacto de tales magnitudes (imaginen el impacto de un cuerpo del tamaño de Guatemala) sería suficiente como para alterar la forma en que el magma llega a la superficie. El impacto "golpearía" la litosfera dejándola cóncava por arriba y convexa por abajo de manera que cualquier segmento de magma (llamados "plumas") que esté ascendiendo se desviaría y empujaría hacia arriba algún pequeño continente sobre ella (algún "cratón" en torno al cuál se generará mas suelo) de manera que la parte de salga del agua sea mayor o si se desvía y empuja el suelo marino (que suele ser mucho mas delgado que un continente) es muy probable que lo "rompa" para dar lugar a volcanes y eventualmente cadenas de islas volcánicas (como Hawai).

Todo esto se encuentra aún en etapa de estudio, pero según los estudios de migración planetaria de Gomez et al (Ver revista NATURE 435), de formación continental de Simpson (ver revista SCIENTIFIC AMERICAN Enero 2010) y datación de cratones de Short (SCIENTIFIC AMERICAN Octubre 2005), es muy probable que la dinámica del nacimiento y estabilización del sistema solar tenga una gran influencia sobre aspectos claves de la formación de la Tierra como la conocemos.



div class="bgtags">Blogalaxia Tags:

jueves, 15 de julio de 2010

Mas vale maña que fuerza

Uno de los temas mas populares en al astronomía contemporánea es la búsqueda de planetas extrasolares, tanto por su interés en la búsqueda de potenciales lugares habitables como por su estudio dentro de la astronomía planetaria, sobre todo son importantes para mejorar nuestros modelos sobre la formación planetaria. Proyectos como Kepler y Corot que han puesto en orbita telescopios destinados al estudio de estrellas en búsqueda de planetas que las estén orbitando son los que hacen descubrimientos que mas fácilmente llegan hasta los oídos del público.


Diagrama de una gráfica que muestra el brillo de una estrella y la forma en la que disminuye (en escala exagerada) al pasar un planeta frente a ella. Este es el método de detección planetaria por Tránsito.

Pero un aspecto poco conocido es el método para detectar los planetas. Un planeta es un cuerpo muy pequeño y oscuro que se encuentra muy cerca de una estrella, por lo que detectarlo es sumamente difícil. Es como intentar ver un mosquito que camina sobre un foco de muy alta intensidad. Así que la solución típica que se aplica en la astronomía cuando se requiere observar algo nuevo, recolectar mas luz, no sirve en este caso. Aquí no sirve aumentar la fuerza bruta, en cambio la solución es tener mas maña. No se necesitan telescopios mas grandes, sino saber usar mejor los datos de los telescopios existentes, es decir desarrollar métodos nuevos mas eficientes.

Algunos de estos métodos son de lo mas ingenioso, los dos mas populares consisten uno en observar con detenimiento la estrella y estudiar su movimiento para detectar la leve influencia gravitatoria de algún planeta que la orbite (método de corrimiento Doppler), el otro consiste en medir con la mayor precisión posible para intentar detectar cuando un planeta pase frente a ella y bloquee parte de la luz (por pequeña que sea) y así cause que desde la Tierra la estrella se vea un poco mas tenue (método de detección de Tránsitos). Estos dos métodos han dado cuantiosos resultados pero tienen un inconveniente; que con la tecnología actual solo se pueden detectar planetas gigantes, y salvo contadas excepciones estos son considerablemente mas grandes que Júpiter, los pequeños planetitas como la Tierra siguen siendo indetectables.


Gráfica mostrando el método de detección de Tránsitos con las medidas exactas del tiempo de inicio y conclusión. Observando alteraciones en estos tiempos se podrían encontrara planetas adicionales al causante del Tránsito.

Este problema podría finalmente quedar resuelto por un equipo de astrónomos de Alemania, Polonia y Bulgaria. Este equipo, liderado por Gracjan Maciejewski de la universidad de Jena (Alemania) combinó los dos métodos principales mencionados anteriormente. La nueva forma de detección consiste en tomar mediciones muy precisas del brillo de la estrella, como ya se hacía al detectar tránsitos, pero a diferencia del método anterior, cada tránsito se estudia y se compara con cálculos realizados en computadoras sobre la orbita de los planetas que son responsables del Tránsito, todo esto para lograr detectar pequeñas variaciones en el tiempo en el cuál inician y terminan los Tránsitos (cada órbita del planeta corresponde a un Tránsito)con el propósito de detectar pequeñas perturbaciones, no en la estrella, sino en el planeta que sean causadas por otros cuerpos orbitales de menor masa. Es decir, detectar la influencia gravitatoria de un planeta pequeño empujando o jalando al planeta mas grande responsable del Tránsito. De acuerdo a los cálculos del equipo, un planeta como la Tierra podría alterar el momento de inicio o final del Tránsito de un planeta parecido a Júpiter en un minuto.

Por el momento están usando un telescopio de 0.9 metros para estudiar estrellas y ya han encontrado un planeta con este método, llamado WASP-3c que tiene unas 15 masas terrestres (aproximadamente la masa de Urano) que perturbaba el Tránsito de otro planeta (WASP-3b) de 630 masas terrestres. Hasta el momento es el único planeta detectado con este nuevo método y no es muy pequeño que digamos pero esperemos que se aplique a mas estrellas y sea puesto a prueba.


viernes, 9 de julio de 2010

Chiquitos y raros

Como es conocido, el principal elemento de estudio en la paleontología son los fósiles. Ya sean fósiles de plantas o animales, los diferentes tipos de fósiles tienen su origen en diferentes especies o procesos de fosilización, y a cada uno se le pueden sacar información.


Ejemplo de una Diatomea, exoesqueleto de un ser unicelular que vive en ambientes acuáticos, su presencia en el sedimento implica la presencia de cuerpos de agua en el pasado. Fotografía de Hannes Grobe.

En parte, la tarea de un paleontólogo consiste saber extraer la información contenida en un fósil. Al igual que en un caso policiaco atendido por un detective obsesionado, el paleontólogo debe descifrar tanto como se pueda, so solo importa como murió lo que sea que haya dejado el fósil, también es relevante saber como vivía, con quienes se relacionaba e inclusive como fue el mundo que habitó. Datos como si el ser fosilizado vivía en el agua o en tierra firme, que comía y como conseguía su comida, como se defendía y/o atacaba, y si es posible, saber también el clima, geografía y localización del hogar del ser en cuestión. Por otra parte, la tarea del paleontólogo consiste en saber introducir la información obtenida en un contexto mas grande. Es decir, asumamos que aprendimos todo lo posible sobre alguna especie en particular, nos quedaría preguntarnos ¿que papel jugó en el ecosistema de su tiempo? y sobre todo ¿que nos enseña sobre la evolución, tanto de las especies como del planeta? ¿que aprendemos sobre los métodos de investigación?

Para ayudar con este propósito, tenemos algunos indicios muy claros. Por ejemplo, la forma los dientes; mientras que los dientes alargados y afilados indican una dieta carnívora, los planos y bajos indican el consumo de vegetales. Así, podríamos encontrar un fósil parcial, es decir un pedazo del animal únicamente, como un solo diente o un segmento de mandíbula, y sabríamos que en ese lugar, en la era de que el animal vivía, al menos una especie de depredadores habitaban el lugar.


Ejemplo de un Acritarco, fósil microscópico que no se puede clasificar por alguna razón, tal como estar incompleto o carecer de elementos distintivos.

Pero existen unos fósiles que si bien no tienen el glamour de los dinosaurios o tiburones primitivos son de lo mas interesantes , estos son los microfósiles. Estos son los restos fosilizados de seres microscópicos, desde el plancton hasta algas unicelulares. Los microfósiles son de los ejemplares mas abundantes que cualquier época pasada nos haya dejado. Como en todos los ecosistemas, las especies microscópicas son mucho mas abundantes que las macroscópicas, y esto, junto con el hecho de que muchas especies microscópicas tienen un exoesqueleto compuesto de minerales y que por lo mismo dura bastante tiempo, lo cual es ideal para la fosilización.


Otro microfósil, este es un grano de polen de hace 250 millones de años.

Y al poseer un genoma mas sencillo y tener tiempos de vida mas corto (lo que implica generaciones mas cortas, en contraste con especies mas longevas como nosotros, donde las generación dura mas de 20 años) su evolución es mucho mas rápida (entre ellos una generación puede durar minutos u horas) . Esto implica que el exoesqueleto puede cambiar en relativa rapidez, ya que una especie aparecerá y desaparecerá en cuestión de poco millones de años o inclusive menos. Por lo tanto algunos microfósiles dejarán exoesqueletos muy distintivos y fáciles de rastrear con los cuales se podrían saber una variedad de datos. Por ejemplo sabemos que una especie dada habitará en un momento dado en algún ecosistema específico. Si bien se presentará una tendencia a expandirse pero esto tendría que ser de forma gradual.

Por lo tanto la identificación de microfósiles en un lugar nos puede revelar cierta información. Por ejemplo, en las costas de Brasil y Gabón (costa oeste de África) se han detectado de estos fósiles de seres unicelulares que vivían en lagos, por la similitud se ve que la especie fue originaria de algún lago en particular y se extendió a las regiones adyacentes. Pero estas criaturas no eran del tipo que soporta agua salada, por que es imposible que cruzaran el Atlántico. Esta evidencia apoyó la afirmación de la Tectónica de placas, ya que implica que Brasil y Gabón debieron de estar colindándose mutuamente en algún punto del pasado. Datando los fósiles se concluye que un continente que incluía a Sur América y África juntos existía en el hemisferio sur y que este supercontinente tenía en su centro una larga fisura que corría de norte a sur a lo largo de la cuál se separaría y la que se transformaría en el océano Atlántico, la misma fisura tenía aproximadamente por el centro una región de lagos donde habitaban las pequeñas criaturas que dejaron los microfósiles que encontramos 130 millones de años después. Este escenario concuerda a la perfección con el modelo actual de la deriva continental.


Simulación de la deriva continental, nótese como en un periodo centrado en hace 135 millones de años Sur América y África se encontraban unidas.

Pero los microfósiles tienen una gracia adicional, debido a lo sencillos que son, basta con un segmento para poder reconocerlo u obtener información, incluso aquellos que no se sabe en que clasificación caen, los "acritarcos" puede revelar datos interesantes. No es una perdida muy grave no poder clasificar a un segmento de microfósil si sabes que era de un animal marino o si conoces su edad (determinada por algún factor externo al fósil) y encuentras mas segmentos parecidos en otro lugar, puedes concluir que ambos terrenos son de aproximadamente la misma edad. Así que como vemos estos restos de seres vivos, aunque sean acritarcos pueden ser de gran utilidad, inclusive para que los fósiles mas grandes y llamativos se puedan situar en un mejor contexto.


Otro ejemplo de un Acritarco.


miércoles, 7 de julio de 2010

Un blog de ciencia con conciencia

Como es conocido, estamos pasando por un proceso de cambio climático debido a nuestra actividad industrial. Esto implica que estamos calentando la atmósfera, lo cual a su vez eleva la temperatura de todo lo que se encuentre en la superficie, incluyendo mares, casquetes polares, etc. Y elevar la temperatura de todo esto tiene consecuencias, en particular en al alteración de la forma en la que se distribuye la energía solar que llega a la Tierra y por lo tanto en el clima.

Roble, ejemplo de árbol, sistema que es muy eficiente y económico para atrapar carbono que de otra forma estaría en la atmósfera haciendo el papel de gas de invernadero.

El centro del problema es nuestra emisión de carbono, en particular monóxido y bióxido de carbono. Estos gases se acumulan en la atmósfera y absorben calor del Sol, el resultado es que nuestra atmósfera contiene mas gases calientes de lo normal. Por su puesto existen mecanismos que eliminan dichos gases de la atmósfera, tales como la absorción por plantas realizando fotosíntesis, o deposición en los océanos. Pero estamos introduciendo mas carbono en la atmósfera del que se puede retirar de forma natural, de aquí su peligrosa acumulación. Simplemente estamos introduciendo tanto carbono que no se podría absorber de forma natural sin que se tome alguna acción. Pero para saber que hacer hemos de considerar que opciones realistas tenemos.

Mientras que estos temas son muy susceptibles a despertar toda clase de pasiones suele ocurrir que se toman acciones que son sentimentalmente satisfactorias pero terriblemente ineficientes, por lo que hemos de considerar que lo mas eficiente es si un gran numero de personas realizamos modificaciones a nuestra forma de vida. Por supuesto, son las grandes empresas las que mas contaminan y de todos los países del mundo es Estados Unidos el principal responsable de los problemas ecológicos (junto con algunos políticos, de salud, seguridad y económicos). Pero es mucho más fácil que uno esté dispuesto a realizar un pequeño cambio. Y existe una forma de medir que tanto carbono entra en la atmósfera por nuestra culpa, una medida llamada "huella de carbono", que es la cantidad total de carbono que viene de nuestras acciones. Por ejemplo, cosas tan simples como tostar un pan, dejan una huella de carbono. La cantidad total de carbono al tostar un pan, es la suma de la contaminación que se debe a la construcción del tostador (extracción materias primas, transporte, transformación, ensamblaje, etc), la elaboración del pan y operación del tostador (generación de energía). De la misma manera, operar un automóvil implica no solo quemar gasolina, sino gastar los neumáticos y el ensamblaje previo del automóvil.

Tomando todo esto en consideración procuré averiguar cual era mi "Huella de Carbono" y resulta que soy responsable de la entrada en la atmósfera de un poco menos de 7 toneladas al año. De las cuales la mitad son causadas por mi subcompacto (motor de 1.3 litros) que uso como medio de transporte y casi todo el resto por mis hábitos de consumo. Así que mientras tomo acciones para reducir mi aportación al incremento de temperatura (prometo optar por productos locales y con la menor cantidad de empaque posible) me pregunté ¿cuál es la huella de carbono de "De Galaxias y Fósiles" (costo de energía eléctrica, uso de computadora, etc )? No tengo idea de los detalles del cálculo pero alguien con una muy buena iniciativa se tomó la molestia de estimar que basta con un solo árbol para absorber el carbono emitido por escribir un blog durante 50 años e inclusive se eliminaría carbono de otras actividades (ir al mandado por ejemplo).

Tan innovadora iniciativa es anunciada en el sitio www.kaufda.de y consiste es solicitar a los bloggers del mundo hacer sus blogs "carbono-neutrales" al escribir una entrada sobre el tema (esta misma) y colocar el logotipo adecuado, a cambio ellos plantarán un árbol para eliminar la huella de carbono. De manera adicional decidí plantar 5 arbustos (y sirven de cerco para que no se salga mi perro "Acritarco" y haga enojar al perrito vecino) y una gardenia, de cuyo bienestar me encargaré, para reducir aún mas mi huella de carbono.

Esta iniciativa es sorprendentemente simple y por lo tanto eficiente que invito a otros bloggers o cualquiera que tenga un sitio en internet a unirse. Si se plantase un árbol por cada blog en la blogosfera, reduciriamos en varios cientos de miles de toneladas la cantidad de carbono en la atmósfera.



Así que mientras manejamos menos, en carros mas pequeños, cuidamos mas la energía y consumimos de forma mas inteligente, plantar algún que otro arbolito no está de mas.

¡¡Bloggers del mundo, unanse!!
(bueno, si no quieren, no se unan, pero de perdida planten un árbol)