La primera gran cumbre del siglo XXI

Diario El Comercio del 06 de diciembre de 2009, suplemento El Dominical.
Por: Martha Meier

“The American way of life is not negotiable” (El estilo de vida americano no es negociable), dijo convencido George Bush padre durante la Cumbre de la Tierra (Río de Janeiro, junio 1992), cuando se invocaban acciones concretas contra el cambio climático. Dignísimo padre de su lamentable hijo y al fin y al cabo con una fortuna vinculada al petróleo, Bush papá dejó claro que lo suyo no era preocuparse por reducir el uso de combustibles fósiles.

Cambia, todo cambia
Mañana en Copenhague se reunirán los principales líderes del mundo —representantes de 192 países— justamente para acordar reducciones de las emisiones —especialmente de dióxido de carbono, CO2— generadas por los combustibles fósiles, responsables del calentamiento global. Esto llevará sin duda a notables cambios en el estilo de vida de los terrícolas. “La Conferencia sobre Cambio Climático en Copenhague (COP-15) será el punto de quiebre en la lucha para prevenir el desastre climático”, dice Yvo de Boer, secretario ejecutivo de Naciones Unidas para el tema. Y añade: “La ciencia lo demanda, la economía lo apoya, las futuras generaciones lo requieren”.

De Kyoto a Copenhague
En 1995, la ONU lideró las negociaciones para un convenio climático. El instrumento dio fuerza vinculante a la Convención Marco de las Naciones Unidas sobre Cambio Climático (CMNUCC), suscrita en 1992 en Río de Janeiro. El asunto nuevamente no desveló a la administración de Bush padre. El 11 de diciembre de 1997, finalmente —como era de esperarse sin Estados Unidos—, el planeta adoptó el Protocolo de Kyoto (vigente hasta el 2012 y razón de las negociaciones para un tratado sustitutorio). Ya con los demócratas asentados en la Casa Blanca, el 12 de noviembre de 1998 un sonriente Bill Clinton, en gesto simbólico y fotográfico, suscribió el protocolo (pese a que el Senado ya había rechazado el documento por 95 votos contra 0). En marzo del 2001, el presidente George W. Bush, dignísimo hijo de su lamentable padre, retiró a Estados Unidos del protocolo jamás ratificado por su país. Por coincidencia o mensaje de la Pachamama, el 2001 fue uno de los años más calurosos en muchas décadas.

Con los ojos en Obama
No es de sorprender que los ojos del mundo recaigan hoy sobre el presidente Barack Obama. Estados Unidos junto con China han sido una verdadera piedra en el zapato a lo largo del proceso hacia la COP-15 Copenhague. Dos potencias económicas en el limbo, reacias a establecer compromisos. Nada para estar optimistas. En las últimas semanas ambas naciones han dado señales positivas. Habrá que esperar con los dedos cruzados al 19 de diciembre. Fin de la reunión y ¿comienzo de una nueva era?

El club del co2
Comunidad Europea: Con una población claramente identificada con la causa ambiental y menos dependiente de los combustibles fósiles desde la Segunda Guerra Mundial, por los altos precios. Copenhague es la ciudad del planeta que más usa la bicicleta como transporte, y 20% de la producción energética de Dinamarca procede del viento. Fue Europa la que mantuvo vivo el Protocolo de Kyoto, ratificándolo cuando Estados Unidos lo dejó

Estados Unidos: El congreso perfila —a paso de perezoso— una ley sobre el clima. Muy presionados por los lobbies energéticos. La lógica de Obama es: “No hagamos de lo perfecto enemigo de lo esencial”, con lo que queda claro que cualquier reducción es mejor que ninguna. Todd Stern es el negociador encargado.

China: El mayor emisor de CO2 del planeta. Propone que el 0,7% del PBI anual de las naciones desarrolladas (295 mil millones de dólares) doten de fuentes de energía limpia a los países en vías de desarrollo.

India: Sostiene que sus emisiones per cápita nunca serán tan altas como las de los estadounidenses. No llevan propuestas.

Los de los bosques tropicales:
Son países en vías de desarrollo. No tienen muchas emisiones pero sí mucha quema y tala de bosques, con lo que se pierden importantes sumideros de carbono. El interés es que se reconozca el valor de sus árboles en pie por los servicios ambientales que prestan. ¿Ficha principal? Brasil.

Australia: el mayor exportador de carbón mineral del mundo.

Japón: No muestra mucho entusiasmo.

Estados del golfo: Pueden beneficiarse gracias a sus inmensas reservas de gas, energía considerada “semilimpia” y cuyos precios se elevarían.

El Gran Impacto Cósmico Que Pudo Acabar Con los Dinosaurios, Emplazado en la India y No en México


Una misteriosa cuenca frente a la costa occidental de la India podría ser el mayor cráter conocido de la Tierra, provocado por un devastador impacto cósmico. Y si las conclusiones de un nuevo estudio están en lo cierto, este impacto pudo haber sido el responsable del exterminio de los dinosaurios hace 65 millones de años.
Sankar Chatterjee, de la Universidad Tecnológica de Texas, y un equipo de investigadores examinaron detenidamente la enorme Cuenca de Shiva, una depresión sumergida en la zona Oeste de la India, que es explotada intensamente por su petróleo y gas. Algunos cráteres complejos están entre los yacimientos de mayor producción de hidrocarburos en el planeta.

Si los investigadores tienen razón, éste es el cráter más grande conocido en nuestro planeta. Se ha calculado que el astro que ocasionó este cráter debía medir unos 40 kilómetros de diámetro. El impacto de un cuerpo de estas dimensiones es capaz de generar su propia tectónica.
En cambio, el objeto que golpeó la Península de Yucatán, y al que comúnmente se considera culpable de exterminar a los dinosaurios, tenía sólo entre 8 y 10 kilómetros de diámetro.

Es difícil imaginarse el cataclismo causado por el impacto que forjó la Cuenca de Shiva. Pero si el equipo tiene razón, el choque vaporizó la corteza de la Tierra en el punto de colisión, dejando sólo el material ultracaliente del manto. Es probable que el impacto impulsara las colosales erupciones volcánicas de las cercanas Deccan Traps, que desparramaron lava en una enorme área a su alrededor. Además, el impacto separó las Islas Seychelles de la placa tectónica de la India, y las envió hacia África.

La evidencia geológica es espectacular. El borde externo de la Cuenca de Shiva forma un anillo de unos 500 kilómetros de diámetro, rodeando el pico central. La mayor parte del cráter yace sumergida sobre la plataforma continental de la India, pero el lugar donde toca tierra firme está caracterizado por altos acantilados, fallas activas y manantiales de aguas termales. El impacto parece haber recortado o destruido la mayor parte de la capa de granito de 50 kilómetros de espesor en la costa occidental de la India.

El Artico Podría Llegar a Emitir Más Dióxido de Carbono del Que Absorbe

El Ártico podría alterar el clima de la Tierra si se convierte en una fuente neta de dióxido de carbono. El Ártico captura o absorbe actualmente hasta el 25 por ciento de este gas, pero el cambio climático podría alterar esa cantidad, según un nuevo estudio.
David McGuire del USGS (U.S. Geological Survey, el servicio estadounidense de prospección geológica) y de la Universidad de Alaska en Fairbanks, y sus colegas, muestran que el Ártico ha sido un importante sumidero de carbono desde finales de la última Edad del Hielo, pero que eso puede cambiar drásticamente. En promedio, el Ártico ha representado entre un 10 y un 15 por ciento de todo el sumidero global del carbono. Sin embargo, la rápida velocidad del cambio climático en el Ártico, casi dos veces mayor que en latitudes más bajas, podría eliminar este sumidero y convertir la región en una fuente neta de dióxido de carbono.

El carbono entra generalmente en los océanos y masas de tierra del Ártico procedente de la atmósfera, y se acumula en grandes cantidades en el permafrost, la capa helada del suelo por debajo de la superficie de la tierra. A diferencia de las tierras activas, en el permafrost el carbono no se descompone. Gracias a ello, el carbono queda atrapado en la tierra helada. Las condiciones frías de la superficie también retardan la velocidad de descomposición de la materia orgánica, permitiendo que la absorción de carbono en el Ártico exceda lo que éste produce.
Pero las tendencias recientes al calentamiento podrían cambiar este equilibrio. Las temperaturas más cálidas que las de antaño podrían acelerar la tasa de descomposición de la materia orgánica de la superficie, liberando más CO2 a la atmósfera. Mayor preocupación reviste el hecho de que el permafrost ha empezado a deshelarse, exponiendo los suelos previamente helados a la descomposición y la erosión. Estos cambios podrían revertir el papel histórico del Ártico como un sumidero de dióxido de carbono.

En el plazo de unas pocas décadas, el permafrost en deshielo podría dejar también los terrenos más encharcados, una situación que podría promover la actividad de organismos productores de metano.

Actualmente, el Ártico es una fuente sustancial de metano emitido a la atmósfera: la cantidad liberada cada año alcanza tanto como 50 millones de toneladas. La cifra de 400 millones de toneladas de dióxido de carbono que el Ártico captura anualmente es ciertamente más elevada. Pero el metano es un gas de efecto invernadero muy potente, aproximadamente 23 veces más potente que el dióxido de carbono. Si se acelera la descarga de metano ártico a la atmósfera, el calentamiento global podría acelerarse de manera notable.
20 de Noviembre de 2009

LAS TIERRAS RARAS

UNOS MINERALES MUY NECESARIOS
Por: Tomás Unger
Diario El Comercio del 17 de noviembre de 2009.
En el desarrollo tecnológico las ideas siempre han precedido a los inventos, en muchos casos debido a la falta de los materiales adecuados. El ala delta de Leonardo hubiera volado si en lugar de caña, lona y soga, hubiera tenido tubos de duraluminio, cables de acero y nailon. El diseño básico del motor de los automóviles de Fórmula 1 data de 1911, pero los metales, lubricantes y combustibles de la época no permitían pasar de 3.000 revoluciones por minuto, mientras los de hoy pasan las 16.000.
En la era digital nuestros millones de artefactos electrónicos y su infraestructura requieren de materiales con características especiales. Esto es más notorio cuando se trata de producir en gran escala artefactos cada vez más pequeños y livianos. Entre los materiales requeridos, aunque en pequeñas cantidades, se encuentra un grupo de metales que lleva el nombre de tierras raras. El nombre no se debe a que sean escasos, sino porque en los minerales se presentan siempre combinados y en pequeñas cantidades difíciles de separar.
LA FAMILIA
La familia de las tierras raras consta de 17 elementos, todos metales. Quince forman un bloque en la tabla periódica (del número atómico 57 al 61) llamados lantánidos; los otros dos elementos, el escandio y el itrio (números atómicos 21 y 39), se encuentran en otro lugar de la tabla pero tienen características muy parecidas. Por esta razón la Unión Internacional de Química Pura y Aplicada (Iupac) considera que los elementos que forman las tierras raras son 17.
El primer elemento de esta familia fue descubierto en 1787 en una roca negra del pueblo de Ytterby de Suecia. Del análisis del mineral los químicos suecos aislaron varios elementos, entre los cuales estaba uno que no conocían, al que bautizaron itrio en honor al pueblo donde lo encontraron. Para 1803 habían aislado otro al que llamaron cerio en honor a la diosa Ceres, y fue la primera tierra rara de los lantánidos identificada como elemento.
DEL LASER AL PETRÓLEO
Los 15 elementos desde el lantano, con el número atómico 57, hasta el lutecio, con el número atómico 71, son similares en sus características físicas y en estado natural nunca se presentan solos. Por sus características físicas y químicas, que son similares en todos, tienen aplicación en diversos artefactos electrónicos y, como elementos de aleación, dan características especiales a los metales y al vidrio. Algunos ejemplos pueden ilustrar la variedad de los usos y la razón por la cual ha crecido la demanda de las tierras raras.
El escandio (Sc), un metal blanco plateado descubierto en 1869 en Suecia, con bajo peso específico y un alto punto de fusión (1,541º C), es un componente de ciertas aleaciones ligeras de la industria aeronáutica (los aviones MIG 21 y 29 lo usan). Pequeñas cantidades también se usan en las lámparas halógenas y los tubos de la cámaras de TV. El itrio (Y), a pesar de llamarse tierra rara, es 400 veces más abundante en la corteza terrestre que la plata, pero se presenta en los minerales en muy pequeña proporción. Curiosamente, las rocas traídas de la Luna tienen un contenido relativamente alto de itrio. Este metal se usa en los sensores de oxígeno (sonda Delta) en los escapes de automóviles, en la fabricación de diodos emisores de luz (LED) y en los cristales para lentes fotográficos, entre otros.
Con características parecidas al itrio, el lantano (La), se usa en encendedores y en los tubos de vacío. La industria cinematográfica lo usa para cristales ópticos especiales. Ahora un nuevo uso le ha dado gran importancia al lantano: en las baterías de níquel-hidruro metálico, como las que emplea el automóvil híbrido Prius. El cerio (Ce) se usa en convertidores catalíticos para automóviles, en aditivos para combustible diésel y en imanes de tungsteno, entre otros.
El prometio (Pm) es un elemento obtenido artificialmente que la NASA emplea en baterías nucleares. El samario (Sm) se usa para las luces de arco en los proyectores de cine, en láseres y en reactores nucleares. También hay samario en los imanes de los auriculares, en las guitarras eléctricas y otros instrumentos electrónicos. El europio (Eu) se emplea en la fabricación de láseres, televisores y lámparas fluorescentes. Entre sus diversos usos están las tiras fosforescentes que tienen los billetes de euros para evitar la falsificación.
El gadolinio (Gd) se emplea en tubos de TV, en ciertos tipos de memoria de computadora y en aleaciones de acero y cromo. Otro uso es como agente de contraste intravenoso para la resonancia magnética. El terbio (Tb) se usa en los sensores del sonar marino y para dar el verde intenso a las pantallas de TV. El disprosio (Dy) se emplea en la fabricación de láseres y discos compactos, entre otros. El holmio (Ho) es el más magnético de todos los elementos conocidos, por lo que se utiliza en imanes y en ciertos láseres y en aparatos de microondas especializados. El erbio (Er) tiene un uso muy importante en la transmisión por fibra óptica, donde también se emplea en los láseres que amplifican la señal.
El tulio™ se usa en rayos X y el iterbio (Yb) para producir rayos gamma y aleaciones de acero. El praseodimio (Pr) es también un amplificador para la fibra óptica, se usa en iluminación y para colorear cristales ópticos. Los imanes permanentes más potente son de neodimio (Nd), por lo que se usa para discos duros, auriculares, micrófonos y guitarras eléctricas. También se emplea para lentes de astronomía y en el láser más potente del mundo*. El lutecio (Lu) por su rareza y alto precio tiene menos aplicaciones, pero siempre se usa en el craqueo catalítico del petróleo.
EL FUTURO
Debido a que se usan en muy pequeñas cantidades, los volúmenes de tierras raras que se consumen son relativamente pequeños. Por ejemplo, el neodimio, a pesar de sus múltiples e importantes aplicaciones, tiene una demanda de solo 7.000 toneladas al año, pero que va en aumento. Este es el caso para todas las tierras raras. Hasta los años 90 la producción estaba repartida entre China, EE.UU., con un tercio cada uno, y el tercio restante dividido principalmente entre Australia, Brasil, India y Sri Lanka. Debido al costo, la mayoría de las minas han cerrado y hoy el 95% de la producción está en China, cuya industria electrónica usa dos tercios. Para el tercio restante China está imponiendo cuotas.
Esta situación y la demanda de tecnología “verde” ha aumentado la búsqueda de depósitos minerales que contienen tierras raras. A pesar de la crisis económica se están invirtiendo cientos de millones en esta búsqueda. Por lo pronto se ha encontrado nuevos yacimientos en Australia y empresas mineras los están buscando en Norteamérica y Sudáfrica. En Sudamérica, Chile ya tiene yacimientos de tierras raras y, dada la geología similar de los Andes, es posible que tengamos alguno, lo cual sería una nueva fuente de riqueza para nuestro futuro.En Gran Bretaña, para la investigación nuclear se ha construido el Helen, un láser de neodimio y vidrio de un teravatio (un millón de millones de kW).

La digitalización de imágenes

Los premios Nobel
Por: Tomás Unger
Hace unos días fueron anunciados los premios Nobel de Ciencia de este año. Entre ellos hay biólogos y físicos, hoy nos ocuparemos de uno de los últimos. El premio de Física fue dividido en dos, la mitad para el físico chino-inglés Charles Kuen Kao, llamado el padre de la fibra óptica. La otra mitad será compartida por el físico canadiense Willard Sterling Boyle y el físico norteamericano George Elwood Smith, por haber inventado el sensor CCD (dispositivo de carga acoplada) que ha hecho posible la digitalización de imágenes, elemento esencial de la era digital multimedia.
EL PRINCIPIO
Hace 40 años los físicos de los famosos laboratorios Bell* decidieron hacer un teléfono con pantalla de TV. Se trataba de una manera más sencilla y compacta de captar y transmitir una imagen y una memoria para almacenarla. Fue en 1969 que Boyle y Smith, que trabajaban en este proyecto, construyeron un semiconductor que podía captar, transmitir y almacenar datos. Se dieron cuenta de inmediato de que, aplicando el efecto fotoeléctrico (conversión de luz en electricidad), podían captar imágenes. Así nació el CCD.
Hoy millones de cámaras fotográficas y de video son fabricadas con pequeños CCD de gran capacidad. Cada uno de ellos es miles de veces más eficiente que el creado hace 40 años, pero el principio con el que funciona es el mismo: el CCD convierte en corriente la imagen a través de píxeles, diminutas celdas fotoeléctricas sensibles a la luz. El voltaje fluctúa de acuerdo con la intensidad de la luz y es registrado digitalmente. Este flujo de información que describe la variación de la luz es registrado por la corriente cuyas fluctuaciones son almacenadas en una memoria.
Este es el proceso que describe una pantalla de píxeles, cada uno con su registro de intensidad de luz y hasta armar el cuadro. El primer CCD fue fabricado comercialmente en 1974 por la empresa Fairchild y tenía 100 píxeles de ancho por 100 de alto, en total 10 mil (diez kilopíxeles). Unos años después el ingeniero Kazuo Iwama de Sony** logró fabricar un CCD de gran capacidad y en 1986 presentó el primer formato digital. El video no era comprimido y requería un enorme ancho de banda para manejar la información. Iwama, quien hubiera debido participar de este Nobel, murió en 1982, pero en su tumba hay un CCD en reconocimiento a su gran contribución.
EL COLOR
El CCD se fue perfeccionando y rápidamente encontró una gran variedad de aplicaciones. A diferencia de nuestra retina o la película fotográfica, el CCD puede ser sensible a la luz infrarroja y a la ultravioleta, con lo cual se puede usar en cámaras para visión nocturna o, como hacen ciertos insectos, observar el mundo en ultravioleta. Esta capacidad de registrar en frecuencias más allá de la luz visible ha revolucionado la astronomía y ha permitido una nueva visión del universo. En esta gran variedad de usos la aplicación del CCD es siempre la de captar imágenes, ya sean fijas o en movimiento, grabarlas y almacenarlas, para que luego puedan ser reproducidas.
Para reemplazar la película fotográfica, cosa que eventualmente ha hecho, al CCD le faltaba la capacidad de captar el color. Para distinguir colores, como lo hace nuestra retina, hay que separar los tres componentes básicos: rojo, verde y azul, y medir la proporción en la que producen el color captado. Con este fin el CCD registra separadamente, ya sea por filtros o prismas, la intensidad de rojo, verde y azul, convirtiéndola en información digital que es almacenada. Siempre se trata del mismo principio, un proceso de información, con una larga fila de datos que describen lo que ha captado la pantalla del CCD punto por punto. Así, en una cámara fotográfica que tiene 4 megapíxeles (4 millones), hay tres datos de intensidad de color por cada píxel y su mezcla produce el color original.
FOTOGRAFÍA DIGITAL
Una cámara digital comercial típica tiene un CCD pequeño, que no llega a 8 mm x 6 mm, con unos 4 millones de píxeles. Para esto hay que tener en cuenta que un CCD capta aproximadamente el 70% de la luz que recibe, por lo que es mucho más eficiente que la película fotográfica a la cual ha sustituido, que captura solo alrededor de 2% de la luz que incide en ella.
La eficiencia del CCD ha permitido crear una variedad de cámaras, que han encontrado una gran diversidad de usos. Desde las pequeñas cámaras de vigilancia, la webcam que permite videoconferencias, las cámaras de los teléfonos celulares 3G, hasta el telescopio espacial Hubble usan algún tipo de CCD.
En el caso de la astronomía, aun el telescopio más potente o el espacial que está fuera de la atmósfera no pueden captar directamente la débil imagen de galaxias que están a millones de años luz de distancia. Sin embargo, el CCD, con su gran sensibilidad, en una exposición de varias horas ha logrado captar galaxias a más de 10 mil millones de años luz de distancia.
EL ARCHIVO
El Nobel recibido por los físicos Boyle y Smith refleja solo en parte la importancia del invento por el cual su contribución fue premiada. Hoy la imagen es parte de nuestro gigantesco archivo digital. Esto incluye la capacidad de transmitirla, guardarla en discos ópticos (CD), procesarla, comprimirla y manipularla con diversos programas. La transición a la televisión digital es posible gracias al CCD. Además de la proliferación de cámaras, desde las de vigilancia hasta las de más alta resolución usadas en astronomía y las destinadas a reemplazar la película en el cine, todas usan como “retina” un dispositivo de carga acoplada que convierte la luz en una corriente cuyas fluctuaciones se registran como información digital.
A partir de la aparición del CCD, y una de sus versiones que es el escáner, nuestra capacidad de recuperar, conservar y archivar imágenes ha crecido en varios órdenes de magnitud. No sería posible imaginar la era digital de multimedia sin el pequeño dispositivo inventado hace 40 años, que hoy se fabrica por decenas de millones cada año.
Diario El Comercio del 20 de octubre de 2009

Científicos británicos descubren un planeta “suicida”

ASTRONOMÍA

LONDRES [EFE]. Un equipo de científicos británicos descubrió un planeta con un volumen diez veces superior al de Júpiter que orbita tan cerca de su estrella matriz que las corrientes estelares deben haberlo conducido ya a la destrucción. En un novedoso estudio que publica la revista científica “Nature”, un grupo de astrónomos de la Universidad de Keele (Reino Unido) asegura que este planeta, bautizado como WASP-18b, es una rareza en el mundo de la astronomía y que la probabilidad de observar un fenómeno semejante es de una entre mil.
Diario El Comercio del 27 de agosto de 2009.

El primer telescopio cumplió cuatro siglos de creación

ASTRONOMÍA. INVENTO DE GALILEO GALILEI
Cuando se presentó ante las autoridades en 1609 se recalcó su uso militar y no el científico.
ROMA [EFE]. Los astrónomos de todo el planeta conmemoraron ayer el cuarto centenario del reconocimiento oficial del primer telescopio, un invento del científico italiano Galileo Galilei (1564-1642) que cambió para siempre el rumbo de la astronomía.
El 25 de agosto de 1609 el Senado de Venecia hacía suyo este invento del genio renacentista y aprobaba un aumento de salario para Galileo como profesor de Geometría, Mecánica y Astronomía en la Universidad de Padua, cargo que ocupó durante unos meses hasta que decidió volver, con su telescopio, a Florencia.
Las autoridades de la República de Venecia aceptaron así la propuesta del científico toscano de quedarse con el uso exclusivo de un telescopio que solo cuatro días antes había sido presentado oficialmente en la torre del campanario de la plaza de San Marcos y que, en un principio, sería utilizado con fines defensivos.
“El lugar de la presentación fue el campanario de San Marcos, que aún existe. Desde una altura de unos 60 metros, se podía observar más allá del horizonte del mar. Allá arriba Galileo había montado su telescopio”, explica a Efe Paolo Galluzzi, director del Museo de Historia de las Ciencias de la ciudad italiana de Florencia.
“Allí mostró a los presentes, que eran numerosos senadores y personajes destacados, las prestaciones de este nuevo instrumento, sobre todo por su valor militar y estratégico”, añade.
Como resultado de esta presentación y de las posibilidades casi mágicas que el telescopio ofrecía, el Senado de Venecia acordó aumentar el salario de Galileo de 320 a 1.000 florines, es decir, lo triplicó, y dio muestras del valor que tenía el invento del pisano.
El genio renacentista, que mostró interés por casi todas las artes existentes en la época, se convirtió así en el padre de un invento que ha supuesto y sigue suponiendo mucho para una Astronomía que no volvió a ser la misma desde entonces.
Tomado del Diario El Comercio; edición del 26 de agosto de 2009.

La Red Clara

La Red CLARA (Cooperación Latino Americana de Redes Avanzadas) es una malla de cables ópticos tendida sobre el vasto territorio de América Latina.
Por Benjamín Marticorena Físico
Diario La República 26 de agosto de 2009.
No es sólo una carretera para el tránsito no comercial, rápido y fidedigno, de imágenes y textos de una universidad a otra, es el instrumento para integrar las comunidades de investigación e innovación en campos como la salud, la biodiversidad, desastres naturales, ciencias de materiales, energías renovables, clima, etc.
En efecto, a partir de un nodo en Sao Paulo, que se extiende por debajo del océano para emerger triunfalmente en España y conectarse a la red europea GÉANT, más tramada y transitada que esta joven red latinoamericana. Se enlaza también a la red Internet II de los Estados Unidos por el oeste y el este, respectivamente, mediante cables de Tijuana a San Diego y de Panamá a Miami. Y a la red APAN del Asia-Pacífico, CLARA se vincula mediante Europa, su devota aliada en esta buena aventura.
Así, los investigadores de los –hasta ahora– 13 países latinoamericanos socios de CLARA dialogan entre sí y con todo aquel que produce conocimientos útiles para la sociedad. CLARA, sin fines de lucro, ofrece teleconferencia, información científica y tecnológica privilegiada, repositorios de materiales temáticos requeridos por las comunidades científicas latinoamericanas y, en general, una plataforma exclusiva de relacionamiento con los científicos e innovadores del mundo.
CLARA fue posible por la inspirada perseverancia de un grupo de latinoamericanos que dirigen redes nacionales de investigación y gracias al apoyo experto y financiero de la Comunidad Europea mediante el programa ALICE (América Latina Interconectada Con Europa).
En CLARA el Perú está representado por la Red Académica Peruana (RAAP), constituida por varias universidades públicas y privadas y algunos institutos de investigación que se conectan al mundo mediante un nodo en Lurín. Es el momento para que el gobierno central, los de las Regiones y el sector privado, afinen su sentido estratégico y respalden, con la prueba de sus presupuestos, la expansión de la producción científica y el impulso a una educación superior de excelencia en el país.

Máquinas de la fábrica a la casa

Desde participar en la construcción de un automóvil hasta hacer la limpieza del hogar. Cada vez se diversifican más los usos de los robots. La realidad alcanza a la ficción

Por: Tomás Unger

Gracias al cine y a la televisión la palabra “robot” nos evoca imágenes de ciencia ficción. El señor Data de “Viaje a las estrellas” y el Terminator (hoy gobernador de California) son ejemplos clásicos. Aunque todavía muy lejos de los del cine, están los robots antropomorfos (de forma humana) que varias fábricas japonesas han construido para lucir su alto nivel de tecnología. Asimo, de Honda, saluda a los visitantes y sirve bebidas; Topio, de Tosy, juega pimpón y Partner, de Toyota, toca trompeta. Todos ellos caminan y, si bien son un impresionante alarde de tecnología, difieren sustancialmente de los millones de robots que trabajan hoy en el mundo.
LA DEFINICIÓN
El nombre robot viene del checo (“robota” = “trabajo”, “robotnik” = “trabajador”), inventado por el escritor Karel Capek en 1920 para los androides de su obra de teatro. Desde entonces se ha usado indiscriminadamente para describir diversas máquinas. La Organización Internacional para la Estandarización (ISO, por sus siglas en inglés) tiene una definición: “Un manipulador multipropósito para aplicaciones industriales automáticas que se mueve en tres ejes, programable y reprogramable, controlado automáticamente pudiendo estar fijo o móvil”*.
Más sencillamente, una máquina capaz de adecuar sus acciones a las demandas de su entorno.
Dicho en otra forma, la información de sensores le permite actuar de manera prevista para las circunstancias. Este concepto se puede ampliar diciendo que el robot “interactúa con su entorno”, pudiendo decidir entre alternativas de acción. Hoy existe una gran variedad de aparatos que cumplen con estos requisitos, desde aspiradoras hasta vehículos exploradores de Marte, pasando por casi un millón de máquinas industriales; todos ellos son robots.
INDUSTRIA Y SERVICIOS
Actualmente hay cerca de un millón de robots trabajando en fábricas en diversas tareas: desde armar automóviles y envasar productos hasta fabricar microchips. Los robots industriales han permitido desarrollar tecnologías que han sido luego aplicadas a otros usos, abaratando la fabricación de sistemas automáticos. Un buen ejemplo son los robots de servicio, como el Roomba (se pronuncia “rumba”). Aunque su nombre evoca el baile, es una aspiradora de la cual ya se han vendido 3 millones de unidades. Un disco de 34 cm de diámetro por 9 cm de alto, Roomba se pasea por la casa recogiendo basura y evitando obstáculos. Cuando no queda nada por limpiar regresa a su enchufe para recargar baterías.
Un aparato similar producido por una fábrica de motos sueca se encarga de cortar el pasto evitando juguetes u objetos tirados en el jardín. Para que no se escape a la casa vecina, se coloca un alambre que limita su campo de acción. Robots de servicio más complicados reparten correspondencia y útiles en las fábricas y otros distribuyen café y sándwiches. Robots con diverso grado de complejidad cumplen tareas de servicio en diversas actividades.
En Hong Kong se fabrica un guardián para la casa, conectado por Wi-Fi a la computadora, que informa sobre lo que pasa en la vivienda. Su cámara recorre todo y si el gato se está metiendo a la despensa, desde la computadora o el teléfono celular se le puede espantar. Si estiramos la definición, podríamos incluir entre los robots de servicio los exploradores de Marte que trabajan para la NASA, controlados desde la Tierra, recogiendo y analizando muestras del suelo marciano, enviando fotos e informando sobre su entorno.
Entre los llamados robots de servicio están los que cumplen tareas peligrosas, desde desarmar bombas hasta inspeccionar edificios colapsados, derrumbes y actuar en situaciones donde peligra la vida humana. Esta cualidad ha llevado a los robots a la guerra, donde reemplazan a soldados y pilotos. Hoy, la mayoría de los vuelos de reconocimiento y parte de las incursiones aéreas en los campos de batalla los hacen pequeños aviones sin piloto, provistos de sensores e instrumentos. A veces se equivocan, lo cual le puede costar la vida a los que están en tierra, pero no muere ningún piloto.
LA EVOLUCIÓN
Tres elementos son esenciales para el funcionamiento del robot: los sensores, los actuadores y los programas. Los sensores informan al robot sobre el entorno y pueden ser ópticos, acústicos, táctiles o químicos, como nuestros sentidos, con diversos grados de sensibilidad. Los actuadores son los mecanismos que ejecutan los movimientos necesarios para responder a una situación determinada y los programas procesan la información y deciden la acción a tomar. La tecnología ha evolucionado en los tres campos.
Los sensores hoy son minúsculas cámaras, se ha reducido el tamaño de los micrófonos y aumentado la sensibilidad de los detectores de presión. Los actuadores han adquirido un alto grado de control al punto que hoy existe una mano artificial, manejada por un guante, capaz de sacar un huevo de una cesta sin romperlo. Pequeños músculos neumáticos controlan los dedos, mientras que una membrana piezoeléctrica (que produce electricidad por presión) transmite la sensación al guante del operador. Cuando el operador pueda ser reemplazado por un programa, será posible la verdadera mano robótica capaz de operaciones delicadas.
DE VUELTA AL FUTURO
Si bien la imagen del robot sigue siendo la de los androides del cine y los perritos de juguete que ladran y saludan, los millones de robots operativos son máquinas con determinadas funciones que no se asemejan al hombre pero lo reemplazan en diversas tareas. Ya sea por repetitivas, peligrosas o demasiado costosas para ser llevadas a cabo por humanos, las tareas del robot van en aumento. En la medida en que se asemejan más a la actividad humana, el robot que las ejecuta es más antropomorfo ya sea por sus actitudes, movimientos o forma.
En una reciente feria coreana la recepcionista era un maniquí que contestaba preguntas en varios idiomas, hacía gestos de cortesía y daba indicaciones con la mano. Todas son funciones posibles de hacer con una pantalla, un parlante y una cámara; sin embargo, el haberlas instalado en un maniquí cambia la percepción de quienes interactúan con ella. La sensación de observar una forma humana con gestos, voz y respuestas nos acerca a la idea de que el señor Data y Terminator son posibles.
La realidad es otra. El razonamiento y decisiones de los robots de ficción están fuera del alcance de la tecnología actual. En alguna ocasión hemos explicado {ver El Comercio de fecha 7 de abril del 2009 o aquí más arriba} la diferencia entre los procesos del cerebro humano y los de la computadora más potente, que a su lado es un juguete de cuerda. Aun así, si bien los programas que manejan al robot no pueden alcanzar el nivel del cerebro humano, el progreso de los sensores, actuadores y programas podrá hacerlos capaces de realizar tareas cada vez más complejas.
Uno de los campos en los cuales esta evolución está avanzando a paso acelerado es el militar. El matar sin exponerse a morir siempre ha sido un anhelo, desde los cazadores neolíticos hasta los generales de hoy. Ejecutar tareas peligrosas y explorar lo desconocido son también metas antiguas en las que el robot puede reemplazar exitosamente al hombre. A medida que avanza la tecnología tendremos un número cada vez mayor de máquinas que nos reemplacen. Es más, a través de ellas, como en el caso de los exploradores en Marte, podremos llevar a cabo tareas imposibles para el hombre. Ya no lo llegaré a ver, pero quizá en un futuro no tan lejano el gobernador de California pueda ser un robot de verdad.

Textos tomados del diario El Comercio
25 de agosto de 2009.

El indicador de la barbarie

MALOS CÁLCULOS DESTRUYEN EL PLANETA
Por: Oswaldo de Rivero Embajador

Tras el recalentamiento del planeta y sus desastrosas consecuencias está, sin duda, la ideología del crecimiento perpetuo del producto bruto interno (PBI). Este indicador del agregado de toda la producción nacional no descuenta la depredación de los recursos naturales no renovables y la emisión de gases de efecto invernadero. Es decir, acepta un crecimiento económico que usa al medio ambiente como si fuera una materia prima inagotable. Pero el PBI crece y el planeta no.
A pesar de que el crecimiento del PBI significa destrucción del hábitat humano, la mayoría de economistas, y sobre todo los políticos, rinden culto a este crecimiento como el tótem del desarrollo de la riqueza nacional. Esta veneración de la destrucción del propio hábitat es tan ilógica como venerar la función de la célula cancerosa que crece destruyendo su propio organismo.
Hoy se están haciendo esfuerzos para reemplazar PBI con nuevos indicadores más científicos y éticos. Los profesores Herman E. Daly y John B. Cobb Jr., de la Universidad de Maryland, han creado un nuevo cálculo de la prosperidad llamado Índice de Bienestar Económico Sostenible (ISEW, por sus siglas en inglés) que sustrae del PBI las pérdidas ecológicas. Cuando lo aplicaron, la prosperidad de EE.UU. cambió. Su renta per cápita había declinado 10% desde 1976.
Otros expertos han creado el Indicador de Progreso Genuino (GPI), que también sustrae del PBI los costos externos de la destrucción de recursos no renovables, a los que añade la contaminación, el desperdicio de energía, la congestión del tráfico y los costos de la delincuencia. Tras aplicarlo, la renta per cápita de EE.UU. entre 1982-2002 no creció 56%, como oficialmente se calculó, sino tan solo 2%.
También está la propuesta del profesor Hiroyuki Yoshikawa de la Universidad de Tokio, llamada “factoría inversa”. Dice que se debe establecer en el mundo un nuevo sistema cíclico industrial compuesto por industrias dedicadas solo a reciclar y crear productos reciclables. Industrias que no dejan desperdicios sino insumos para crear otros productos también reciclables. Solo se podría contabilizar como riqueza la producción industrial.
Mientras el PBI no sea reemplazado por un nuevo indicador, la destrucción ecológica del planeta no cesará. Y, entonces, en un futuro no muy lejano, tendremos que medir la inviabilidad de las naciones por la gran escasez de agua, alimentos y energía.
Tal vez, en un siglo, cuando una futura generación estudie nuestra civilización y vea que contabilizamos como desarrollo un crecimiento económico que consistía en destruir la biodiversidad, recalentar la atmósfera, derretir los glaciares, crear escasez de agua, alimentos y energía y subir peligrosamente el nivel de los mares, clasificará al PBI como el más conspicuo indicador de nuestra barbarie.


Textos tomados del diario El Comercio
del 24 de agosto de 2009

Invalidan una de las últimas teorías para viajar por encima de la velocidad de la luz

Una investigación, con participación del Consejo Superior de Investigaciones Científicas (CSIC), señala dos obstáculos que parecen invalidar la propuesta teórica del motor de curvatura para viajar más rápido que la luz, a más de trescientos mil kilómetros por segundo. Esta hipótesis se basa en el movimiento del propio espacio tiempo que, en principio, puede contraerse y expandirse sin límite de velocidad. Las conclusiones del trabajo aparecen publicadas en la revista Physical Review D.
Paradójicamente, la teoría del motor de curvatura tiene su origen en la ficción: se trata del mecanismo que permite a los personajes de la serie de ciencia ficción Star Trek surcar el espacio más rápido que la luz, o a velocidades superluminares, mediante la distorsión del espacio tiempo.
Su salto al terreno científico tuvo lugar en 1994, año en el que el físico mexicano Miguel Alcubierre publicó un artículo en la revista Classical and Quantum Gravity titulado “El motor de curvatura: viaje hiperveloz en el marco de la Relatividad General”. Este trabajo aprovecha la flexibilidad de la geometría del espacio tiempo, que se curva en presencia de materia del mismo modo en que, por ejemplo, una pelota situada sobre una sábana tensada curva el tejido a su alrededor. En el Universo, los objetos de mayor masa producen curvaturas más acentuadas. Sobre esta base, Alcubierre diseñó un medio de transporte en forma de burbuja con paredes compuestas de materia exótica (un tipo de materia aún hipotético que tiene propiedades gravitatorias repulsivas) que producen una contracción del espacio tiempo en la proa y una dilatación en la popa similares a una ola en el mar.
El investigador del CSIC Carlos Barceló, del Instituto de Astrofísica de Andalucía, en Granada, explica: “Una nave dentro de la burbuja alcanzaría su destino sin moverse por la distorsión local del espacio tiempo, igual que un surfista situado sobre la cresta no ejerce un movimiento propio pero alcanza la orilla gracias al de la ola”. Según los autores, esta hipótesis matemática mostraba debilidades desde su publicación, aunque no se descartaba. Sin embargo, explican, hay un punto que no se había contemplado hasta el momento y que puede afectar al movimiento de esa burbuja: cómo actúan las fluctuaciones cuánticas ante las curvaturas.
De acuerdo con las estimaciones del trabajo, si la burbuja se desplaza a velocidad superior a la de luz, los tripulantes verán como las paredes anterior y posterior se comportan respectivamente como un horizonte negro y otro blanco, similares a los que tienen los agujeros negros. Así, si el astronauta de la nave mira hacia atrás no verá absolutamente nada, un horizonte negro, ya que se está desplazando a mayor velocidad que la luz y ninguna señal puede alcanzarle; en cambio, la proa de la nave recibirá todas las señales, y por ello se habla de horizonte blanco.
Dos horizontes problemáticos
Los autores calcularon cómo se comportan las fluctuaciones cuánticas en ambos horizontes cuando la burbuja se acerca a la barrera de la luz, y han hallado dos efectos que impiden el viaje. En ambos casos, el escollo se encuentra en el vacío del Universo. Según la teoría cuántica, en este estado la energía no es equivalente a cero, sino que de forma constante nacen y se aniquilan parejas de partículas tan rápido que resulta imposible detectar su presencia, y por ello se conocen como partículas virtuales. Sin embargo, bajo ciertas condiciones, como una fuerte distorsión del espacio tiempo, esas partículas pasan a ser reales. Esto es lo que ocurre en ambos horizontes de la burbuja ideada por Alcubierre, con consecuencias negativas.
En el horizonte negro, el astronauta se toparía con la radiación de Hawking, enunciada por Stephen Hawking en 1974. Se trata de un efecto conocido en los agujeros negros debido a la creación y destrucción de parejas de partículas: el enorme campo gravitatorio del agujero negro puede romper el par y absorber una de las partículas, mientras que la otra escapa. Así se produce un resplandor que procede del horizonte y que, en el caso de la burbuja, depende del grosor de la pared: una pared fina, más fácil de obtener en teoría, presentaría temperaturas muy altas que podrían destruir la nave que viajara en su interior.
Pero, aunque pudieran construirse paredes tan gruesas que la temperatura producida por la radiación de Hawking no fuera un obstáculo, el horizonte blanco supone un impedimento insalvable, según la investigación. La contracción del espacio tiempo en la parte delantera produciría igualmente la ruptura de pares de partículas, con la diferencia de que irían amontonándose en la pared. “Este fenómeno provocaría un crecimiento exponencial de energía incontrolable, y hace inconsistente la construcción porque tiende a autodestruirse”, apunta Barceló. “O inventamos una manera de contrapesar esa energía con una energía inversa, lo cual parece inverosímil, o simplemente hay que admitir que no podemos superar la velocidad de la luz por razonables periodos de tiempo”, añade el investigador del CSIC.
Otra opción consiste en no atravesar la barrera de la luz, de modo que no se produjeran horizontes, ni radiación de Hawking, ni altas temperaturas. Como los autores señalan al final del artículo, “quizá viajar al 99% de la velocidad de la luz no esté tan mal, después de todo”.
Fuente: CSIC

La astronomía desde Galileo hasta nuestros días

Principio Galileano de Matematicidad de la Naturaleza
Según González, lo que se celebra es el Principio Galileano de Matematicidad de la Naturaleza. “Para Galileo la naturaleza está escrita en lenguaje matemático”. Esto tienes dos versiones de interpretación: la débil y la fuerte. La débil es aquella que interpreta que lo que está escrito en lenguaje matemático es el movimiento de los astros, la dinámica astral. La versión fuerte es la que dice que todo fenómeno que ocurre en la naturaleza tiene una ley matemática a la que está sometida.
Esto que es una creencia galileana constituye la base de toda nuestra civilización. Es el gran paradigma galileano del que se ha alimentado toda la ciencia moderna. Ni la física, ni la química, ni la biología, ni la medicina tienen procesos de matematización. “Lo que no quiere decir que Galileo fracasase porque todos los occidentales seguimos pensando que la naturaleza es normativa, actúa conforme a leyes, quizás no todas ellas matemáticas. Este principio galileano de matematicidad es la cuestión principal del curso. Ortega y Gasset decía que la ciencia es una forma especial de creencia. Y la creencia fundamental que tenemos es esta afirmación de Galileo”, ha comentado.
La revolución galileana
Galileo aseguró que la tierra era un planeta más, que se movía y que no estaba en el centro. El centro es el sol. Introdujo en la historia el sistema heliocéntrico y geodinámico. La revolución galileana tiene cuatro manifestaciones. La primera es la manifestación observacional. Explicaba que existen millones de estrellas, la luna tienen montañas y valles no es un astro perfecto, el sol tiene manchas, Venus presenta fases y Júpiter tiene cuatro satélites.
La tierra centro de la luna, el sol centro de los planetas y Júpiter centro de cuatro satélites. La segunda es la manifestación filosófica que va contra la dualidad. La dualidad desde Aristóteles había dicho que la tierra era el mundo de lo imperfecto y el cielo el mundo de lo perfecto. Que en la tierra había mutaciones y que en el cielo todo era idéntico a sí mismo. “Con la revolución de Galileo los cielos van a dejar de ser perfectos”.
La tercera manifestación es la revolución filosófico-matemática. “El universo está escrito en lenguaje matemático, no caben por tanto milagros”. Y la cuarta y última de las manifestaciones es la revolución teológica. Galileo se convierte en el gran revolucionador de la teología de principios del siglo XVII sin quererlo. Galileo habla de tres principios teológicos. El primero afirma que el universo es obra de Dios y hay que conocerlo y estudiarlo. El segundo contemplaba que las sagradas escrituras eran obra de hombres. Y el tercero aseguraba que había que interpretar las sagradas escrituras a la luz del conocimiento que se tiene del universo.
“Aunque en su momento estas afirmaciones crearon polémica especialmente en el seno de la iglesia católica, a día de hoy cualquiera de los documentos pontificios del siglo XX incluyendo la Encíclica de Benedicto XVI de hace apenas dos meses tienen explícitamente manifestados los tres principios teológicos de Galileo”, ha asegurado.
Los sabios del momento, que eran los teólogos, despreciaron entonces las afirmaciones de Galileo. En las universidades los saberes estaban clasificados. Los más sabios, cultos e inteligentes eran profesores de teología, los algo menos sabios de filosofía y los menos sabios de geometría. “Galileo era matemático-filósofo y pretendió enseñarles a los teólogos lo cual en esa época era impensable. Pero sin ninguna duda Galileo era el sabio y quiénes lo juzgaban eran poco sabedores de lo que sucedía. Los delirios de la soberbia superan el atrevimiento de la ignorancia”.

Tomado de Noticiencias de elgallodigital.com

Revolución relativa del origen del Universo

Alberto Chamorro Belmont, Catedrático de Física Teórica de la Universidad del País Vasco, ha explicado en Laredo que “hoy en día no hay ninguna teoría que prediga que hubo un inicio para el universo, un big-bang, no sabemos si algún día la tendremos”
Alberto Chamorro Belmont, Catedrático de Física Teórica de la Universidad del País Vasco, ha explicado en Laredo las dos teorías de la relatividad de Einstein. Lo ha hecho dentro del curso de Cosmología que dirige Francisco González de Posada, donde ha asegurado que “hoy en día no hay ninguna teoría que prediga que hubo un inicio para el universo, un big-bang, no sabemos si algún día la tendremos”.
“Muy frecuentemente se cuela en las informaciones que la teoría cosmológica moderna predice que hubo un inicio para el universo al cual se le llama big-bang pero esto no es cierto. Porque hoy sabemos que la cosmología moderna cuando se extrapolan sus ecuaciones hacia el pasado conduce a la existencia de un inicio para el universo, pero cuando esos se hace se está extrapolando la teoría más allá de su actual rango de validez”, ha explicado.
Durante sus dos intervenciones el Catedrático ha explicado a los asistentes la primera revolución relativista, lo que supuso y la significación de la relatividad especial, publicada en el año 1905 por Einstein. La segunda revolución relativista, la teoría general de la relatividad, que se debe al esfuerzo de Einstein cuando a finales de 1915 publica las bases fundamentales de esta teoría. Además, ha mencionado las implicaciones que para la descripción del universo, es decir, la cosmología, tuvo la teoría general de la relatividad y los fundamentos físico-matemáticos de la cosmología.
La teoría de la relatividad especial
La primera revolución relativista supuso la resolución de problemas fundamentales como que la luz se propagaba en un medio imponderable denominado éter y se trataba de poner de manifiesto el movimiento de la tierra con respecto al éter. Einstein niega la existencia de este medio.
La física se componía de dos dominios separados que eran el corpus de la mecánica newtoniana y el corpus de a teoría electromagnética de Maxwell. Estos dos corpus habían tenido mucho éxito, pero así como las ecuaciones fundamentales de la mecánica newtoniana eran invariables bajo el llamado grupo de Galileo de transformaciones, las ecuaciones fundamentales de la teoría electromagnética no eran invariables bajo este grupo de transformaciones sino bajo otro grupo de transformaciones denominado de Lorentz.
“Era molesto para los físicos que hubiera dos dominios separados de la física regidos por leyes de simetría distintas”, ha comentado. Como la mecánica newtoniana había tenido tanto éxito la mayoría de los físicos intentaron modificar la teoría electromagnética de Maxwell para hacerla invariante. Pero Einstein tuvo la osadía de considerar que la teoría electromagnética estaba bien y modificar la mecánica newtoniana “electromagnetizándola”, modificando sus ecuaciones para hacerlas invariables bajo el grupo de simetría que hacía invariantes las ecuaciones de Maxwell. El conjunto de la teoría electromagnética unido a la mecánica newtoniana electromagnetizada es lo que constituye la teoría especial de la relatividad.
“Esta primera revolución relativista tuvo consecuencias modernas como la equivalencia de masa y energía, un concepto diferente del espacio y el tiempo, problemas como fenómenos de la dilatación del tiempo, etc”, ha argumentado.
La teoría de la relatividad general
En la cosmología es la teoría general de la relatividad la que tiene mayores implicaciones. La teoría general de la relatividad fue una extensión de la teoría especial para englobar y poder describir en su seno los fenómenos gravitatorios y para poder describir también la física desde el punto de vista de sistemas no inerciales.
La fuerza fundamental que domina en el cosmos a gran escala es la fuerza gravitatoria. Cuando la fuerza gravitatoria se pudo describir mediante una teoría, como la teoría general de la relatividad, la aplicación de esta teoría de las ecuaciones fundamentales de la gravitación de Einstein a todo el cosmos nos da junto con algunas hipótesis de simetría, que reciben el nombre de principio cosmológico, que viene a decir que el universo es isótropo y homogéneo, “nos conduce a unas soluciones que son la base de la cosmología moderna”.
Implicaciones presentes
Ambas teorías de la relatividad tuvieron unas implicaciones que vivimos en el presente. Ambas teoría están en la base del GPS para determinar la posición de los objetos en cada instante. En la definición de metro como estándar de longitud. En todo lo que tiene que ver con la energía nuclear de fusión, y los modernos aceleradores de partículas.
Pero además de todo lo anterior, la relatividad general tiene sobretodo una implicación, “nos ha dado una visión científica de todo el universo que es la cosmología moderna en la cual podemos hablar de que el universo hace 14.000 millones de años era muy distinto del actual, no existían galaxias, estrellas, ni seres vivos. La cosmología moderna ha tenido mucho éxito porque ha predicho cosas que después se han observado como la expansión del universo”.

Tomado de Noticiencias en elgallodigital.com

El Perú tuvo su primer enlace en directo con el espacio

COSMONAUTA RUSO SE COMUNICÓ DESDE ESTACIÓN INTERNACIONAL

La transmisión radial tuvo una duración de cerca de diez minutos. Hay la posibilidad de enviar papa peruana en la próxima misión
“Estuve en Machu Picchu y me gustó mucho”, dijo el cosmonauta Gennady Ivanovich Padalka desde la Estación Espacial Internacional (EEI), en lo que fue el primer contacto desde el espacio con nuestro país.
Las cerca de cien personas que asistieron a la Universidad Nacional de Ingeniería (UNI) para escuchar la transmisión en directo rompieron en aplausos. Contrariamente a lo que muchos pensaban, el hombre que hablaba desde el espacio sí conocía el Perú.
Esta comunicación se realizó gracias a un convenio de cooperación entre la UNI y la Universidad de Kursk en Rusia, por el cual acordaron establecer contacto con la EEI mientras sobrevolaba la órbita terrestre, en la zona de Sudamérica.
“En este momento estoy tomando fotos de Lima “, agregó el comandante Padalka.
El enlace fue breve y el cosmonauta ruso aprovechó para responder algunas preguntas, hechas por científicos y estudiantes locales, sobre las investigaciones que se realizan en la EEI.
APOYO MUTUOEl interés de la casa de estudios rusa va orientado hacia un proyecto conjunto en el área de la biología, en el que experimentarán con la papa peruana para utilizarla en el futuro como alimento de los cosmonautas rusos en sus travesías espaciales. “La tripulación de ese país planifica realizar un viaje a Marte que tendrá una duración de cerca de tres años. Y aunque los cosmonautas se alimentan sobre todo con productos sintéticos, estamos viendo la forma de que lo hagan con un alimento natural como la papa”, explicó el rector de la UNI, Aurelio Padilla.
La idea consiste en probar cómo reaccionan los componentes de la papa a la falta de gravedad en el espacio y ver si es posible realizar cultivos para el futuro.
“La papa brinda múltiples opciones de cosecha, una es reducir el volumen en la tierra para deshidratarla y volver a darle su tamaño natural cuando ya se encuentre en la estación espacial, la otra es cultivarla, analizar su desarrollo y posteriormente, cosecharla”, agregó Padilla.
Un hecho que aportó notablemente en la realización del convenio y la transmisión desde el espacio fue la familiaridad con la que los expertos de la Universidad de Kursk ven a los estudiantes y profesores de la UNI, ya que con muchos de ellos mantienen constante comunicación debido al intercambio de información académica que realizan.
“El éxito de este enlace con el espacio quiere decir que nuestro proyecto de cooperación con la UNI va a tener un gran camino. Yo estoy seguro de que con la tecnología que tiene el Perú muy pronto estarán en el espacio”, señaló Atakishchev Oleg, vicerrector de la Universidad de Kursk.
En el proyecto participarán como colaboradores el Congreso de la República y el Ministerio de Defensa.
Tomado del Diario El Comercio
del 21 de agosto de 2009

¿Vivir en la Luna es una misión imposible?

Por: Manuel Luque Analista
Tomado del diario El Comercio
19 de agosto de 2009

La NASA, en conmemoración de los 40 años de la llegada del hombre a la Luna, envió este año dos sondas, para realizar exploraciones y determinar la existencia de hielo atrapado debajo de la corteza lunar. De descubrirse habría disponibilidad de agua y con ello, por electrólisis, la posibilidad de obtener hidrógeno y oxígeno.
Se crearían atmósferas artificiales en estructuras de burbujas cerradas, que servirían de hábitat al ser humano simulando las condiciones de la Tierra, construcciones reforzadas para resistir condiciones adversas de grandes diferencias térmicas en un día, con entorno sometido a la incidencia del violento viento solar y a radiaciones ultravioleta, alfa y beta intensas. Para movilizarse de un hábitat a otro se usaría ropa espacial refractaria a las radiaciones a modo de blindaje, no se sentiría el peso aparente de esta ropa espacial a causa de la menor gravedad de la Luna (seis veces menor que en la Tierra).
La energía eléctrica se generaría con reactores atómicos por fisión nuclear, también con paneles fotovoltaicos. La energía térmica con concentradores solares, ante la imposibilidad de quemar combustibles por carencia de aire. El día lunar, de aproximadamente 29 días terrestres, afectaría el biorritmo del ser humano. El organismo tendría que adaptarse a 14 ½ días terrestres continuos con luz del sol y a 14 ½ días terrestres continuos sin sol. La larga noche lunar, de casi 15 días terrestres, podría obstaculizar el abastecimiento de energía, debiéndose contar con buen número de baterías que acumulen la energía eléctrica. Son excepciones el polo norte lunar (siempre iluminado por la luz del sol) y el cráter Shackleton (hacia el polo sur lunar, con iluminación casi permanente). Allí se implementarían sistemas de generación eléctrica fotovoltaica permanente para abastecer a los hábitats propuestos.
Las celdas de combustible (“fuel cells”), que emplean hidrógeno y oxígeno obtenidos en la electrólisis del agua, representarían una fuente adicional de generación de energía eléctrica para el transporte en vehículos guiados con motores eléctricos. Para producir alimentos, los largos períodos de oscuridad en la Luna serían superados con invernaderos artificiales climatizados, iluminados, presurizados y dotados de oxígeno. El ser humano tendría que adaptarse a la ingravidez de la Luna. Existiría un debilitamiento gradual del corazón, al no estar forzado a resistir la fuerza de la gravedad, el músculo cardíaco perdería masa y la presión sanguínea bajaría, los latidos se harían más lentos con un corazón con menor trabajo de bombeo, el metabolismo celular sufriría transformaciones.
La bionanotecnología y la bioingeniería aportarían soluciones a ello con la incorporación de nanomáquinas y nanobombas con nanomotores biológicos en las arterias, con biosensores en los órganos para impulsar selectivamente la sangre a cada órgano en función a las necesidades de flujo y presión de sangre en cada uno, facilitando la circulación ante la ingravidez. No podemos descartar la alternativa de generar gravedad artificial. Los generadores gravitatorios podrían crear hábitats con un sistema de rotación que genere una aceleración centrífuga como imitación de la gravedad.
La expresión peyorativa de “vivir en la Luna” podría ser una realidad, gracias a la tecnología y al tesón del ser humano por explorar nuevos horizontes

Descubren planta carnívora que come ratas

Sorprendente hallazgo en las selvas de Filipinas. Es la primera vez que se identifica una especie vegetal con la capacidad de comer algo más que insectos.
BBC-Mundo. Casi todos hemos visto o escuchado de plantas carnívoras, pero la mayoría son muy poco impactantes y sólo son capaces de capturar y digerir pequeños insectos como moscas y hormigas.
Sin embargo, una nueva especie descubierta en Filipinas cambiará para siempre la reputación de estos vegetales. Se trata de Nepenthes attenboroughii (así nombrada en honor del conservacionista británico David Attenborough), una planta insectívora tan grande que es capaz de atrapar y devorar ratas en sus enormes trampas.
El hallazgo, cuyos detalles aparecieron publicados en la revista Botanical Journal of the Linnean Society, fue llevado a cabo durante una expedición de botánicos en las tierras altas del centro de Filipinas. La primera vez que se supo de su existencia fue en el año 2000 cuando dos misioneros cristianos dijeron haber visto a las enormes plantas.
El dato
Otro hallazgo. Durante la expedición, los botánicos también encontraron otra especie insectívora, Nepenthes deaniana, la cual no había sido vista en vida silvestre en 100 años.
Diario La República
Edición del 19 de agosto de 2009

Los pterosaurios tenían control de vuelo, según fósil presentado en Brasil

Investigadores brasileños presentaron hoy (miércoles) el fósil de un pterosaurio que demuestra que estos reptiles alados tenían un "absoluto control de vuelo" y da un nuevo rumbo a las investigaciones sobre esta especie.

El fósil del "Jeholopterus ningchengensis" fue encontrado en depósitos de cerca de 130 millones de años en la región de Mongolia interior (China) y presentado hoy en el Museo Nacional de Río de Janeiro por el paleontólogo brasileño Alexander Kellner, que participó del descubrimiento junto con investigadores británicos, chinos y alemanes.

Según Kellner, la importancia de este fósil radica en la existencia de unas estructuras en las alas que suponen todo un cambio en las teorías que hasta el momento se tenían sobre el animal y su capacidad de volar.

Estas nuevas estructuras, conocidas como picnofibras y actinofibras, sólo pudieron ser descubiertas gracias al trabajo con rayos ultravioleta del paleontólogo alemán Helmut Tischlinger.

Así, el hallazgo de las picnofibras, semejantes a los pelos de algunos mamíferos, permitió a los investigadores, en primer lugar, concluir que los pterosaurios eran animales endotérmicos y por tanto capaces de controlar la temperatura de su propio cuerpo.

También gracias a los rayos ultravioletas se supo que las actinofibras, que ya eran conocidas, se estructuran en una trama de varias capas a diferencia de lo que se pensaba hasta el momento.

Este hecho otorgaría una mayor resistencia a las alas de estos animales así como la capacidad para estirarlas y retraerlas a voluntad, lo que permite un vuelo estable y con alto control.
Las membranas encontradas en el pterosaurio serían incluso más resistentes que las que presentan algunos animales voladores actuales, como el murciélago.

Para el profesor Kellner, el hallazgo "elimina los modelos de estudio anteriores", según algunos de los cuales las alas de los pterosaurios sólo les servirían para planear.

Asimismo, el paleontólogo explicó que este descubrimiento "abre toda una gama de posibilidades para desencadenar nuevas investigaciones" en torno a estos animales, que no son considerados como aves pero tampoco como dinosaurios, a pesar de haber coexistido.

Sin embargo, el científico también apuntó que ahora se abre un nuevo reto para los investigadores que deberán concluir la composición exacta de estas estructuras y que hasta el momento trabajan con la hipótesis de que se trate de colágeno o fibras musculares.

Por otra parte, el paleontólogo destacó el valor de la región de Mongolia interior, en el noreste de China, donde fue encontrado el fósil presentado hoy y aseguró que en el futuro debe llegar mucha información desde allí porque la cantidad de fósiles que se encuentra es "tremenda".

Kellner también subrayó la importancia de la colaboración brasileña para llevar a cabo las investigaciones ya que, según el profesor, en este país se encuentran algunos de los mejores ejemplares de fósiles de pterosaurios.

La réplica del fósil hallado y reproducciones del animal en vida y de su membrana alar serán expuestas a partir de ahora en el Museo Nacional de Río de Janeiro. (Río de Janeiro, EFE)
Diario La República; 05 de agosto de 2009

DECODIFICAN ESTRUCTURA DEL GENOMA DEL VIH

SE DESARROLLARÁN MEDICINAS MÁS EFECTIVAS
Investigadores americanos decodificaron la estructura del genoma completo del virus del sida, lo que podría acelerar la investigación para desarrollar nuevos medicamentos antirretrovirales, según artículos publicados por la revista científica británica “Nature”.

Este trabajo abre la vía a nuevas investigaciones que deberían favorecer una mejor comprensión de las estrategias de infección del virus, según sus autores.

Kevin Weeks (de la Universidad de Carolina del Norte) y sus colegas consiguieron una larga “vista aérea” de la arquitectura del genoma del virus y de sus funciones posibles. “Empezamos igualmente a comprender las estrategias del genoma que permiten al virus escapar de la detección de su anfitrión humano”, comenta Kevin Weeks.

Los investigadores muestran así que la formación de proteínas está influenciada por elementos de la estructura interna del ARN. Lo que sugiere que la estructura misma del ARN podría tener un papel, hasta ahora no reconocido, en la expresión del código genético, según los investigadores.

Los biólogos especializados en el estudio de las estructuras podrán ahora servirse de este mapa del genoma para hacer juiciosamente grandes planes sobre ciertas regiones del genoma del VIH-1 y explorar antes sus funciones a nivel de átomo, según la revista científica “Hashim Al-Hashimi”. Parece que la búsqueda para disponer de una vista más fina, de alta resolución, de la estructura de todo el genoma ha empezado seriamente, escribe. En efecto, el genoma de este virus todavía no ha revelado todos sus misterios.

FÁRMACOS MÁS BARATOS
En tanto, la fundación del ex presidente Bill Clinton suscribió acuerdos con dos laboratorios farmacéuticos con el fin de que ofrezcan precios más bajos en medicamentos para pacientes de países pobres que padecen sida resistente a los fármacos. Uno de los acuerdos, con los laboratorios Mylan, reducirá el precio anual de cuatro medicinas antirretrovirales utilizadas como segunda línea de tratamiento para pacientes con el VIH que desarrollan resistencia a los primeros medicamentos con los que son atendidos.

El otro acuerdo, con los laboratorios Pfizer, reducirá el costo de un medicamento que se puede utilizar con otros fármacos para atender a pacientes infectados con tuberculosis.

“Este es un convenio muy importante”, indicó el ex presidente estadounidense Bill Clinton el jueves al realizar el anuncio.

EN PUNTOS
El VIH, como los virus de la gripe, la hepatitis C o la polio, tiene su información genética almacenada en una molécula de ácido ribonucleico (ARN), mientras que el genoma de los mamíferos se inscribe sobre la doble hélice del ADN (ácido desoxirribonucleico). Sin embargo, la información contenida en el ARN es mucho más compleja.

LA CIFRA
US$425 al año costará el conjunto de fármacos –que se deberán tomar una vez al día– de los laboratorios Mylan.
El Comercio; sábado 08 de agosto de 2009.