Científicos británicos descubren un planeta “suicida”

ASTRONOMÍA

LONDRES [EFE]. Un equipo de científicos británicos descubrió un planeta con un volumen diez veces superior al de Júpiter que orbita tan cerca de su estrella matriz que las corrientes estelares deben haberlo conducido ya a la destrucción. En un novedoso estudio que publica la revista científica “Nature”, un grupo de astrónomos de la Universidad de Keele (Reino Unido) asegura que este planeta, bautizado como WASP-18b, es una rareza en el mundo de la astronomía y que la probabilidad de observar un fenómeno semejante es de una entre mil.
Diario El Comercio del 27 de agosto de 2009.

El primer telescopio cumplió cuatro siglos de creación

ASTRONOMÍA. INVENTO DE GALILEO GALILEI
Cuando se presentó ante las autoridades en 1609 se recalcó su uso militar y no el científico.
ROMA [EFE]. Los astrónomos de todo el planeta conmemoraron ayer el cuarto centenario del reconocimiento oficial del primer telescopio, un invento del científico italiano Galileo Galilei (1564-1642) que cambió para siempre el rumbo de la astronomía.
El 25 de agosto de 1609 el Senado de Venecia hacía suyo este invento del genio renacentista y aprobaba un aumento de salario para Galileo como profesor de Geometría, Mecánica y Astronomía en la Universidad de Padua, cargo que ocupó durante unos meses hasta que decidió volver, con su telescopio, a Florencia.
Las autoridades de la República de Venecia aceptaron así la propuesta del científico toscano de quedarse con el uso exclusivo de un telescopio que solo cuatro días antes había sido presentado oficialmente en la torre del campanario de la plaza de San Marcos y que, en un principio, sería utilizado con fines defensivos.
“El lugar de la presentación fue el campanario de San Marcos, que aún existe. Desde una altura de unos 60 metros, se podía observar más allá del horizonte del mar. Allá arriba Galileo había montado su telescopio”, explica a Efe Paolo Galluzzi, director del Museo de Historia de las Ciencias de la ciudad italiana de Florencia.
“Allí mostró a los presentes, que eran numerosos senadores y personajes destacados, las prestaciones de este nuevo instrumento, sobre todo por su valor militar y estratégico”, añade.
Como resultado de esta presentación y de las posibilidades casi mágicas que el telescopio ofrecía, el Senado de Venecia acordó aumentar el salario de Galileo de 320 a 1.000 florines, es decir, lo triplicó, y dio muestras del valor que tenía el invento del pisano.
El genio renacentista, que mostró interés por casi todas las artes existentes en la época, se convirtió así en el padre de un invento que ha supuesto y sigue suponiendo mucho para una Astronomía que no volvió a ser la misma desde entonces.
Tomado del Diario El Comercio; edición del 26 de agosto de 2009.

La Red Clara

La Red CLARA (Cooperación Latino Americana de Redes Avanzadas) es una malla de cables ópticos tendida sobre el vasto territorio de América Latina.
Por Benjamín Marticorena Físico
Diario La República 26 de agosto de 2009.
No es sólo una carretera para el tránsito no comercial, rápido y fidedigno, de imágenes y textos de una universidad a otra, es el instrumento para integrar las comunidades de investigación e innovación en campos como la salud, la biodiversidad, desastres naturales, ciencias de materiales, energías renovables, clima, etc.
En efecto, a partir de un nodo en Sao Paulo, que se extiende por debajo del océano para emerger triunfalmente en España y conectarse a la red europea GÉANT, más tramada y transitada que esta joven red latinoamericana. Se enlaza también a la red Internet II de los Estados Unidos por el oeste y el este, respectivamente, mediante cables de Tijuana a San Diego y de Panamá a Miami. Y a la red APAN del Asia-Pacífico, CLARA se vincula mediante Europa, su devota aliada en esta buena aventura.
Así, los investigadores de los –hasta ahora– 13 países latinoamericanos socios de CLARA dialogan entre sí y con todo aquel que produce conocimientos útiles para la sociedad. CLARA, sin fines de lucro, ofrece teleconferencia, información científica y tecnológica privilegiada, repositorios de materiales temáticos requeridos por las comunidades científicas latinoamericanas y, en general, una plataforma exclusiva de relacionamiento con los científicos e innovadores del mundo.
CLARA fue posible por la inspirada perseverancia de un grupo de latinoamericanos que dirigen redes nacionales de investigación y gracias al apoyo experto y financiero de la Comunidad Europea mediante el programa ALICE (América Latina Interconectada Con Europa).
En CLARA el Perú está representado por la Red Académica Peruana (RAAP), constituida por varias universidades públicas y privadas y algunos institutos de investigación que se conectan al mundo mediante un nodo en Lurín. Es el momento para que el gobierno central, los de las Regiones y el sector privado, afinen su sentido estratégico y respalden, con la prueba de sus presupuestos, la expansión de la producción científica y el impulso a una educación superior de excelencia en el país.

Máquinas de la fábrica a la casa

Desde participar en la construcción de un automóvil hasta hacer la limpieza del hogar. Cada vez se diversifican más los usos de los robots. La realidad alcanza a la ficción

Por: Tomás Unger

Gracias al cine y a la televisión la palabra “robot” nos evoca imágenes de ciencia ficción. El señor Data de “Viaje a las estrellas” y el Terminator (hoy gobernador de California) son ejemplos clásicos. Aunque todavía muy lejos de los del cine, están los robots antropomorfos (de forma humana) que varias fábricas japonesas han construido para lucir su alto nivel de tecnología. Asimo, de Honda, saluda a los visitantes y sirve bebidas; Topio, de Tosy, juega pimpón y Partner, de Toyota, toca trompeta. Todos ellos caminan y, si bien son un impresionante alarde de tecnología, difieren sustancialmente de los millones de robots que trabajan hoy en el mundo.
LA DEFINICIÓN
El nombre robot viene del checo (“robota” = “trabajo”, “robotnik” = “trabajador”), inventado por el escritor Karel Capek en 1920 para los androides de su obra de teatro. Desde entonces se ha usado indiscriminadamente para describir diversas máquinas. La Organización Internacional para la Estandarización (ISO, por sus siglas en inglés) tiene una definición: “Un manipulador multipropósito para aplicaciones industriales automáticas que se mueve en tres ejes, programable y reprogramable, controlado automáticamente pudiendo estar fijo o móvil”*.
Más sencillamente, una máquina capaz de adecuar sus acciones a las demandas de su entorno.
Dicho en otra forma, la información de sensores le permite actuar de manera prevista para las circunstancias. Este concepto se puede ampliar diciendo que el robot “interactúa con su entorno”, pudiendo decidir entre alternativas de acción. Hoy existe una gran variedad de aparatos que cumplen con estos requisitos, desde aspiradoras hasta vehículos exploradores de Marte, pasando por casi un millón de máquinas industriales; todos ellos son robots.
INDUSTRIA Y SERVICIOS
Actualmente hay cerca de un millón de robots trabajando en fábricas en diversas tareas: desde armar automóviles y envasar productos hasta fabricar microchips. Los robots industriales han permitido desarrollar tecnologías que han sido luego aplicadas a otros usos, abaratando la fabricación de sistemas automáticos. Un buen ejemplo son los robots de servicio, como el Roomba (se pronuncia “rumba”). Aunque su nombre evoca el baile, es una aspiradora de la cual ya se han vendido 3 millones de unidades. Un disco de 34 cm de diámetro por 9 cm de alto, Roomba se pasea por la casa recogiendo basura y evitando obstáculos. Cuando no queda nada por limpiar regresa a su enchufe para recargar baterías.
Un aparato similar producido por una fábrica de motos sueca se encarga de cortar el pasto evitando juguetes u objetos tirados en el jardín. Para que no se escape a la casa vecina, se coloca un alambre que limita su campo de acción. Robots de servicio más complicados reparten correspondencia y útiles en las fábricas y otros distribuyen café y sándwiches. Robots con diverso grado de complejidad cumplen tareas de servicio en diversas actividades.
En Hong Kong se fabrica un guardián para la casa, conectado por Wi-Fi a la computadora, que informa sobre lo que pasa en la vivienda. Su cámara recorre todo y si el gato se está metiendo a la despensa, desde la computadora o el teléfono celular se le puede espantar. Si estiramos la definición, podríamos incluir entre los robots de servicio los exploradores de Marte que trabajan para la NASA, controlados desde la Tierra, recogiendo y analizando muestras del suelo marciano, enviando fotos e informando sobre su entorno.
Entre los llamados robots de servicio están los que cumplen tareas peligrosas, desde desarmar bombas hasta inspeccionar edificios colapsados, derrumbes y actuar en situaciones donde peligra la vida humana. Esta cualidad ha llevado a los robots a la guerra, donde reemplazan a soldados y pilotos. Hoy, la mayoría de los vuelos de reconocimiento y parte de las incursiones aéreas en los campos de batalla los hacen pequeños aviones sin piloto, provistos de sensores e instrumentos. A veces se equivocan, lo cual le puede costar la vida a los que están en tierra, pero no muere ningún piloto.
LA EVOLUCIÓN
Tres elementos son esenciales para el funcionamiento del robot: los sensores, los actuadores y los programas. Los sensores informan al robot sobre el entorno y pueden ser ópticos, acústicos, táctiles o químicos, como nuestros sentidos, con diversos grados de sensibilidad. Los actuadores son los mecanismos que ejecutan los movimientos necesarios para responder a una situación determinada y los programas procesan la información y deciden la acción a tomar. La tecnología ha evolucionado en los tres campos.
Los sensores hoy son minúsculas cámaras, se ha reducido el tamaño de los micrófonos y aumentado la sensibilidad de los detectores de presión. Los actuadores han adquirido un alto grado de control al punto que hoy existe una mano artificial, manejada por un guante, capaz de sacar un huevo de una cesta sin romperlo. Pequeños músculos neumáticos controlan los dedos, mientras que una membrana piezoeléctrica (que produce electricidad por presión) transmite la sensación al guante del operador. Cuando el operador pueda ser reemplazado por un programa, será posible la verdadera mano robótica capaz de operaciones delicadas.
DE VUELTA AL FUTURO
Si bien la imagen del robot sigue siendo la de los androides del cine y los perritos de juguete que ladran y saludan, los millones de robots operativos son máquinas con determinadas funciones que no se asemejan al hombre pero lo reemplazan en diversas tareas. Ya sea por repetitivas, peligrosas o demasiado costosas para ser llevadas a cabo por humanos, las tareas del robot van en aumento. En la medida en que se asemejan más a la actividad humana, el robot que las ejecuta es más antropomorfo ya sea por sus actitudes, movimientos o forma.
En una reciente feria coreana la recepcionista era un maniquí que contestaba preguntas en varios idiomas, hacía gestos de cortesía y daba indicaciones con la mano. Todas son funciones posibles de hacer con una pantalla, un parlante y una cámara; sin embargo, el haberlas instalado en un maniquí cambia la percepción de quienes interactúan con ella. La sensación de observar una forma humana con gestos, voz y respuestas nos acerca a la idea de que el señor Data y Terminator son posibles.
La realidad es otra. El razonamiento y decisiones de los robots de ficción están fuera del alcance de la tecnología actual. En alguna ocasión hemos explicado {ver El Comercio de fecha 7 de abril del 2009 o aquí más arriba} la diferencia entre los procesos del cerebro humano y los de la computadora más potente, que a su lado es un juguete de cuerda. Aun así, si bien los programas que manejan al robot no pueden alcanzar el nivel del cerebro humano, el progreso de los sensores, actuadores y programas podrá hacerlos capaces de realizar tareas cada vez más complejas.
Uno de los campos en los cuales esta evolución está avanzando a paso acelerado es el militar. El matar sin exponerse a morir siempre ha sido un anhelo, desde los cazadores neolíticos hasta los generales de hoy. Ejecutar tareas peligrosas y explorar lo desconocido son también metas antiguas en las que el robot puede reemplazar exitosamente al hombre. A medida que avanza la tecnología tendremos un número cada vez mayor de máquinas que nos reemplacen. Es más, a través de ellas, como en el caso de los exploradores en Marte, podremos llevar a cabo tareas imposibles para el hombre. Ya no lo llegaré a ver, pero quizá en un futuro no tan lejano el gobernador de California pueda ser un robot de verdad.

Textos tomados del diario El Comercio
25 de agosto de 2009.

El indicador de la barbarie

MALOS CÁLCULOS DESTRUYEN EL PLANETA
Por: Oswaldo de Rivero Embajador

Tras el recalentamiento del planeta y sus desastrosas consecuencias está, sin duda, la ideología del crecimiento perpetuo del producto bruto interno (PBI). Este indicador del agregado de toda la producción nacional no descuenta la depredación de los recursos naturales no renovables y la emisión de gases de efecto invernadero. Es decir, acepta un crecimiento económico que usa al medio ambiente como si fuera una materia prima inagotable. Pero el PBI crece y el planeta no.
A pesar de que el crecimiento del PBI significa destrucción del hábitat humano, la mayoría de economistas, y sobre todo los políticos, rinden culto a este crecimiento como el tótem del desarrollo de la riqueza nacional. Esta veneración de la destrucción del propio hábitat es tan ilógica como venerar la función de la célula cancerosa que crece destruyendo su propio organismo.
Hoy se están haciendo esfuerzos para reemplazar PBI con nuevos indicadores más científicos y éticos. Los profesores Herman E. Daly y John B. Cobb Jr., de la Universidad de Maryland, han creado un nuevo cálculo de la prosperidad llamado Índice de Bienestar Económico Sostenible (ISEW, por sus siglas en inglés) que sustrae del PBI las pérdidas ecológicas. Cuando lo aplicaron, la prosperidad de EE.UU. cambió. Su renta per cápita había declinado 10% desde 1976.
Otros expertos han creado el Indicador de Progreso Genuino (GPI), que también sustrae del PBI los costos externos de la destrucción de recursos no renovables, a los que añade la contaminación, el desperdicio de energía, la congestión del tráfico y los costos de la delincuencia. Tras aplicarlo, la renta per cápita de EE.UU. entre 1982-2002 no creció 56%, como oficialmente se calculó, sino tan solo 2%.
También está la propuesta del profesor Hiroyuki Yoshikawa de la Universidad de Tokio, llamada “factoría inversa”. Dice que se debe establecer en el mundo un nuevo sistema cíclico industrial compuesto por industrias dedicadas solo a reciclar y crear productos reciclables. Industrias que no dejan desperdicios sino insumos para crear otros productos también reciclables. Solo se podría contabilizar como riqueza la producción industrial.
Mientras el PBI no sea reemplazado por un nuevo indicador, la destrucción ecológica del planeta no cesará. Y, entonces, en un futuro no muy lejano, tendremos que medir la inviabilidad de las naciones por la gran escasez de agua, alimentos y energía.
Tal vez, en un siglo, cuando una futura generación estudie nuestra civilización y vea que contabilizamos como desarrollo un crecimiento económico que consistía en destruir la biodiversidad, recalentar la atmósfera, derretir los glaciares, crear escasez de agua, alimentos y energía y subir peligrosamente el nivel de los mares, clasificará al PBI como el más conspicuo indicador de nuestra barbarie.


Textos tomados del diario El Comercio
del 24 de agosto de 2009

Invalidan una de las últimas teorías para viajar por encima de la velocidad de la luz

Una investigación, con participación del Consejo Superior de Investigaciones Científicas (CSIC), señala dos obstáculos que parecen invalidar la propuesta teórica del motor de curvatura para viajar más rápido que la luz, a más de trescientos mil kilómetros por segundo. Esta hipótesis se basa en el movimiento del propio espacio tiempo que, en principio, puede contraerse y expandirse sin límite de velocidad. Las conclusiones del trabajo aparecen publicadas en la revista Physical Review D.
Paradójicamente, la teoría del motor de curvatura tiene su origen en la ficción: se trata del mecanismo que permite a los personajes de la serie de ciencia ficción Star Trek surcar el espacio más rápido que la luz, o a velocidades superluminares, mediante la distorsión del espacio tiempo.
Su salto al terreno científico tuvo lugar en 1994, año en el que el físico mexicano Miguel Alcubierre publicó un artículo en la revista Classical and Quantum Gravity titulado “El motor de curvatura: viaje hiperveloz en el marco de la Relatividad General”. Este trabajo aprovecha la flexibilidad de la geometría del espacio tiempo, que se curva en presencia de materia del mismo modo en que, por ejemplo, una pelota situada sobre una sábana tensada curva el tejido a su alrededor. En el Universo, los objetos de mayor masa producen curvaturas más acentuadas. Sobre esta base, Alcubierre diseñó un medio de transporte en forma de burbuja con paredes compuestas de materia exótica (un tipo de materia aún hipotético que tiene propiedades gravitatorias repulsivas) que producen una contracción del espacio tiempo en la proa y una dilatación en la popa similares a una ola en el mar.
El investigador del CSIC Carlos Barceló, del Instituto de Astrofísica de Andalucía, en Granada, explica: “Una nave dentro de la burbuja alcanzaría su destino sin moverse por la distorsión local del espacio tiempo, igual que un surfista situado sobre la cresta no ejerce un movimiento propio pero alcanza la orilla gracias al de la ola”. Según los autores, esta hipótesis matemática mostraba debilidades desde su publicación, aunque no se descartaba. Sin embargo, explican, hay un punto que no se había contemplado hasta el momento y que puede afectar al movimiento de esa burbuja: cómo actúan las fluctuaciones cuánticas ante las curvaturas.
De acuerdo con las estimaciones del trabajo, si la burbuja se desplaza a velocidad superior a la de luz, los tripulantes verán como las paredes anterior y posterior se comportan respectivamente como un horizonte negro y otro blanco, similares a los que tienen los agujeros negros. Así, si el astronauta de la nave mira hacia atrás no verá absolutamente nada, un horizonte negro, ya que se está desplazando a mayor velocidad que la luz y ninguna señal puede alcanzarle; en cambio, la proa de la nave recibirá todas las señales, y por ello se habla de horizonte blanco.
Dos horizontes problemáticos
Los autores calcularon cómo se comportan las fluctuaciones cuánticas en ambos horizontes cuando la burbuja se acerca a la barrera de la luz, y han hallado dos efectos que impiden el viaje. En ambos casos, el escollo se encuentra en el vacío del Universo. Según la teoría cuántica, en este estado la energía no es equivalente a cero, sino que de forma constante nacen y se aniquilan parejas de partículas tan rápido que resulta imposible detectar su presencia, y por ello se conocen como partículas virtuales. Sin embargo, bajo ciertas condiciones, como una fuerte distorsión del espacio tiempo, esas partículas pasan a ser reales. Esto es lo que ocurre en ambos horizontes de la burbuja ideada por Alcubierre, con consecuencias negativas.
En el horizonte negro, el astronauta se toparía con la radiación de Hawking, enunciada por Stephen Hawking en 1974. Se trata de un efecto conocido en los agujeros negros debido a la creación y destrucción de parejas de partículas: el enorme campo gravitatorio del agujero negro puede romper el par y absorber una de las partículas, mientras que la otra escapa. Así se produce un resplandor que procede del horizonte y que, en el caso de la burbuja, depende del grosor de la pared: una pared fina, más fácil de obtener en teoría, presentaría temperaturas muy altas que podrían destruir la nave que viajara en su interior.
Pero, aunque pudieran construirse paredes tan gruesas que la temperatura producida por la radiación de Hawking no fuera un obstáculo, el horizonte blanco supone un impedimento insalvable, según la investigación. La contracción del espacio tiempo en la parte delantera produciría igualmente la ruptura de pares de partículas, con la diferencia de que irían amontonándose en la pared. “Este fenómeno provocaría un crecimiento exponencial de energía incontrolable, y hace inconsistente la construcción porque tiende a autodestruirse”, apunta Barceló. “O inventamos una manera de contrapesar esa energía con una energía inversa, lo cual parece inverosímil, o simplemente hay que admitir que no podemos superar la velocidad de la luz por razonables periodos de tiempo”, añade el investigador del CSIC.
Otra opción consiste en no atravesar la barrera de la luz, de modo que no se produjeran horizontes, ni radiación de Hawking, ni altas temperaturas. Como los autores señalan al final del artículo, “quizá viajar al 99% de la velocidad de la luz no esté tan mal, después de todo”.
Fuente: CSIC

La astronomía desde Galileo hasta nuestros días

Principio Galileano de Matematicidad de la Naturaleza
Según González, lo que se celebra es el Principio Galileano de Matematicidad de la Naturaleza. “Para Galileo la naturaleza está escrita en lenguaje matemático”. Esto tienes dos versiones de interpretación: la débil y la fuerte. La débil es aquella que interpreta que lo que está escrito en lenguaje matemático es el movimiento de los astros, la dinámica astral. La versión fuerte es la que dice que todo fenómeno que ocurre en la naturaleza tiene una ley matemática a la que está sometida.
Esto que es una creencia galileana constituye la base de toda nuestra civilización. Es el gran paradigma galileano del que se ha alimentado toda la ciencia moderna. Ni la física, ni la química, ni la biología, ni la medicina tienen procesos de matematización. “Lo que no quiere decir que Galileo fracasase porque todos los occidentales seguimos pensando que la naturaleza es normativa, actúa conforme a leyes, quizás no todas ellas matemáticas. Este principio galileano de matematicidad es la cuestión principal del curso. Ortega y Gasset decía que la ciencia es una forma especial de creencia. Y la creencia fundamental que tenemos es esta afirmación de Galileo”, ha comentado.
La revolución galileana
Galileo aseguró que la tierra era un planeta más, que se movía y que no estaba en el centro. El centro es el sol. Introdujo en la historia el sistema heliocéntrico y geodinámico. La revolución galileana tiene cuatro manifestaciones. La primera es la manifestación observacional. Explicaba que existen millones de estrellas, la luna tienen montañas y valles no es un astro perfecto, el sol tiene manchas, Venus presenta fases y Júpiter tiene cuatro satélites.
La tierra centro de la luna, el sol centro de los planetas y Júpiter centro de cuatro satélites. La segunda es la manifestación filosófica que va contra la dualidad. La dualidad desde Aristóteles había dicho que la tierra era el mundo de lo imperfecto y el cielo el mundo de lo perfecto. Que en la tierra había mutaciones y que en el cielo todo era idéntico a sí mismo. “Con la revolución de Galileo los cielos van a dejar de ser perfectos”.
La tercera manifestación es la revolución filosófico-matemática. “El universo está escrito en lenguaje matemático, no caben por tanto milagros”. Y la cuarta y última de las manifestaciones es la revolución teológica. Galileo se convierte en el gran revolucionador de la teología de principios del siglo XVII sin quererlo. Galileo habla de tres principios teológicos. El primero afirma que el universo es obra de Dios y hay que conocerlo y estudiarlo. El segundo contemplaba que las sagradas escrituras eran obra de hombres. Y el tercero aseguraba que había que interpretar las sagradas escrituras a la luz del conocimiento que se tiene del universo.
“Aunque en su momento estas afirmaciones crearon polémica especialmente en el seno de la iglesia católica, a día de hoy cualquiera de los documentos pontificios del siglo XX incluyendo la Encíclica de Benedicto XVI de hace apenas dos meses tienen explícitamente manifestados los tres principios teológicos de Galileo”, ha asegurado.
Los sabios del momento, que eran los teólogos, despreciaron entonces las afirmaciones de Galileo. En las universidades los saberes estaban clasificados. Los más sabios, cultos e inteligentes eran profesores de teología, los algo menos sabios de filosofía y los menos sabios de geometría. “Galileo era matemático-filósofo y pretendió enseñarles a los teólogos lo cual en esa época era impensable. Pero sin ninguna duda Galileo era el sabio y quiénes lo juzgaban eran poco sabedores de lo que sucedía. Los delirios de la soberbia superan el atrevimiento de la ignorancia”.

Tomado de Noticiencias de elgallodigital.com

Revolución relativa del origen del Universo

Alberto Chamorro Belmont, Catedrático de Física Teórica de la Universidad del País Vasco, ha explicado en Laredo que “hoy en día no hay ninguna teoría que prediga que hubo un inicio para el universo, un big-bang, no sabemos si algún día la tendremos”
Alberto Chamorro Belmont, Catedrático de Física Teórica de la Universidad del País Vasco, ha explicado en Laredo las dos teorías de la relatividad de Einstein. Lo ha hecho dentro del curso de Cosmología que dirige Francisco González de Posada, donde ha asegurado que “hoy en día no hay ninguna teoría que prediga que hubo un inicio para el universo, un big-bang, no sabemos si algún día la tendremos”.
“Muy frecuentemente se cuela en las informaciones que la teoría cosmológica moderna predice que hubo un inicio para el universo al cual se le llama big-bang pero esto no es cierto. Porque hoy sabemos que la cosmología moderna cuando se extrapolan sus ecuaciones hacia el pasado conduce a la existencia de un inicio para el universo, pero cuando esos se hace se está extrapolando la teoría más allá de su actual rango de validez”, ha explicado.
Durante sus dos intervenciones el Catedrático ha explicado a los asistentes la primera revolución relativista, lo que supuso y la significación de la relatividad especial, publicada en el año 1905 por Einstein. La segunda revolución relativista, la teoría general de la relatividad, que se debe al esfuerzo de Einstein cuando a finales de 1915 publica las bases fundamentales de esta teoría. Además, ha mencionado las implicaciones que para la descripción del universo, es decir, la cosmología, tuvo la teoría general de la relatividad y los fundamentos físico-matemáticos de la cosmología.
La teoría de la relatividad especial
La primera revolución relativista supuso la resolución de problemas fundamentales como que la luz se propagaba en un medio imponderable denominado éter y se trataba de poner de manifiesto el movimiento de la tierra con respecto al éter. Einstein niega la existencia de este medio.
La física se componía de dos dominios separados que eran el corpus de la mecánica newtoniana y el corpus de a teoría electromagnética de Maxwell. Estos dos corpus habían tenido mucho éxito, pero así como las ecuaciones fundamentales de la mecánica newtoniana eran invariables bajo el llamado grupo de Galileo de transformaciones, las ecuaciones fundamentales de la teoría electromagnética no eran invariables bajo este grupo de transformaciones sino bajo otro grupo de transformaciones denominado de Lorentz.
“Era molesto para los físicos que hubiera dos dominios separados de la física regidos por leyes de simetría distintas”, ha comentado. Como la mecánica newtoniana había tenido tanto éxito la mayoría de los físicos intentaron modificar la teoría electromagnética de Maxwell para hacerla invariante. Pero Einstein tuvo la osadía de considerar que la teoría electromagnética estaba bien y modificar la mecánica newtoniana “electromagnetizándola”, modificando sus ecuaciones para hacerlas invariables bajo el grupo de simetría que hacía invariantes las ecuaciones de Maxwell. El conjunto de la teoría electromagnética unido a la mecánica newtoniana electromagnetizada es lo que constituye la teoría especial de la relatividad.
“Esta primera revolución relativista tuvo consecuencias modernas como la equivalencia de masa y energía, un concepto diferente del espacio y el tiempo, problemas como fenómenos de la dilatación del tiempo, etc”, ha argumentado.
La teoría de la relatividad general
En la cosmología es la teoría general de la relatividad la que tiene mayores implicaciones. La teoría general de la relatividad fue una extensión de la teoría especial para englobar y poder describir en su seno los fenómenos gravitatorios y para poder describir también la física desde el punto de vista de sistemas no inerciales.
La fuerza fundamental que domina en el cosmos a gran escala es la fuerza gravitatoria. Cuando la fuerza gravitatoria se pudo describir mediante una teoría, como la teoría general de la relatividad, la aplicación de esta teoría de las ecuaciones fundamentales de la gravitación de Einstein a todo el cosmos nos da junto con algunas hipótesis de simetría, que reciben el nombre de principio cosmológico, que viene a decir que el universo es isótropo y homogéneo, “nos conduce a unas soluciones que son la base de la cosmología moderna”.
Implicaciones presentes
Ambas teorías de la relatividad tuvieron unas implicaciones que vivimos en el presente. Ambas teoría están en la base del GPS para determinar la posición de los objetos en cada instante. En la definición de metro como estándar de longitud. En todo lo que tiene que ver con la energía nuclear de fusión, y los modernos aceleradores de partículas.
Pero además de todo lo anterior, la relatividad general tiene sobretodo una implicación, “nos ha dado una visión científica de todo el universo que es la cosmología moderna en la cual podemos hablar de que el universo hace 14.000 millones de años era muy distinto del actual, no existían galaxias, estrellas, ni seres vivos. La cosmología moderna ha tenido mucho éxito porque ha predicho cosas que después se han observado como la expansión del universo”.

Tomado de Noticiencias en elgallodigital.com

El Perú tuvo su primer enlace en directo con el espacio

COSMONAUTA RUSO SE COMUNICÓ DESDE ESTACIÓN INTERNACIONAL

La transmisión radial tuvo una duración de cerca de diez minutos. Hay la posibilidad de enviar papa peruana en la próxima misión
“Estuve en Machu Picchu y me gustó mucho”, dijo el cosmonauta Gennady Ivanovich Padalka desde la Estación Espacial Internacional (EEI), en lo que fue el primer contacto desde el espacio con nuestro país.
Las cerca de cien personas que asistieron a la Universidad Nacional de Ingeniería (UNI) para escuchar la transmisión en directo rompieron en aplausos. Contrariamente a lo que muchos pensaban, el hombre que hablaba desde el espacio sí conocía el Perú.
Esta comunicación se realizó gracias a un convenio de cooperación entre la UNI y la Universidad de Kursk en Rusia, por el cual acordaron establecer contacto con la EEI mientras sobrevolaba la órbita terrestre, en la zona de Sudamérica.
“En este momento estoy tomando fotos de Lima “, agregó el comandante Padalka.
El enlace fue breve y el cosmonauta ruso aprovechó para responder algunas preguntas, hechas por científicos y estudiantes locales, sobre las investigaciones que se realizan en la EEI.
APOYO MUTUOEl interés de la casa de estudios rusa va orientado hacia un proyecto conjunto en el área de la biología, en el que experimentarán con la papa peruana para utilizarla en el futuro como alimento de los cosmonautas rusos en sus travesías espaciales. “La tripulación de ese país planifica realizar un viaje a Marte que tendrá una duración de cerca de tres años. Y aunque los cosmonautas se alimentan sobre todo con productos sintéticos, estamos viendo la forma de que lo hagan con un alimento natural como la papa”, explicó el rector de la UNI, Aurelio Padilla.
La idea consiste en probar cómo reaccionan los componentes de la papa a la falta de gravedad en el espacio y ver si es posible realizar cultivos para el futuro.
“La papa brinda múltiples opciones de cosecha, una es reducir el volumen en la tierra para deshidratarla y volver a darle su tamaño natural cuando ya se encuentre en la estación espacial, la otra es cultivarla, analizar su desarrollo y posteriormente, cosecharla”, agregó Padilla.
Un hecho que aportó notablemente en la realización del convenio y la transmisión desde el espacio fue la familiaridad con la que los expertos de la Universidad de Kursk ven a los estudiantes y profesores de la UNI, ya que con muchos de ellos mantienen constante comunicación debido al intercambio de información académica que realizan.
“El éxito de este enlace con el espacio quiere decir que nuestro proyecto de cooperación con la UNI va a tener un gran camino. Yo estoy seguro de que con la tecnología que tiene el Perú muy pronto estarán en el espacio”, señaló Atakishchev Oleg, vicerrector de la Universidad de Kursk.
En el proyecto participarán como colaboradores el Congreso de la República y el Ministerio de Defensa.
Tomado del Diario El Comercio
del 21 de agosto de 2009

¿Vivir en la Luna es una misión imposible?

Por: Manuel Luque Analista
Tomado del diario El Comercio
19 de agosto de 2009

La NASA, en conmemoración de los 40 años de la llegada del hombre a la Luna, envió este año dos sondas, para realizar exploraciones y determinar la existencia de hielo atrapado debajo de la corteza lunar. De descubrirse habría disponibilidad de agua y con ello, por electrólisis, la posibilidad de obtener hidrógeno y oxígeno.
Se crearían atmósferas artificiales en estructuras de burbujas cerradas, que servirían de hábitat al ser humano simulando las condiciones de la Tierra, construcciones reforzadas para resistir condiciones adversas de grandes diferencias térmicas en un día, con entorno sometido a la incidencia del violento viento solar y a radiaciones ultravioleta, alfa y beta intensas. Para movilizarse de un hábitat a otro se usaría ropa espacial refractaria a las radiaciones a modo de blindaje, no se sentiría el peso aparente de esta ropa espacial a causa de la menor gravedad de la Luna (seis veces menor que en la Tierra).
La energía eléctrica se generaría con reactores atómicos por fisión nuclear, también con paneles fotovoltaicos. La energía térmica con concentradores solares, ante la imposibilidad de quemar combustibles por carencia de aire. El día lunar, de aproximadamente 29 días terrestres, afectaría el biorritmo del ser humano. El organismo tendría que adaptarse a 14 ½ días terrestres continuos con luz del sol y a 14 ½ días terrestres continuos sin sol. La larga noche lunar, de casi 15 días terrestres, podría obstaculizar el abastecimiento de energía, debiéndose contar con buen número de baterías que acumulen la energía eléctrica. Son excepciones el polo norte lunar (siempre iluminado por la luz del sol) y el cráter Shackleton (hacia el polo sur lunar, con iluminación casi permanente). Allí se implementarían sistemas de generación eléctrica fotovoltaica permanente para abastecer a los hábitats propuestos.
Las celdas de combustible (“fuel cells”), que emplean hidrógeno y oxígeno obtenidos en la electrólisis del agua, representarían una fuente adicional de generación de energía eléctrica para el transporte en vehículos guiados con motores eléctricos. Para producir alimentos, los largos períodos de oscuridad en la Luna serían superados con invernaderos artificiales climatizados, iluminados, presurizados y dotados de oxígeno. El ser humano tendría que adaptarse a la ingravidez de la Luna. Existiría un debilitamiento gradual del corazón, al no estar forzado a resistir la fuerza de la gravedad, el músculo cardíaco perdería masa y la presión sanguínea bajaría, los latidos se harían más lentos con un corazón con menor trabajo de bombeo, el metabolismo celular sufriría transformaciones.
La bionanotecnología y la bioingeniería aportarían soluciones a ello con la incorporación de nanomáquinas y nanobombas con nanomotores biológicos en las arterias, con biosensores en los órganos para impulsar selectivamente la sangre a cada órgano en función a las necesidades de flujo y presión de sangre en cada uno, facilitando la circulación ante la ingravidez. No podemos descartar la alternativa de generar gravedad artificial. Los generadores gravitatorios podrían crear hábitats con un sistema de rotación que genere una aceleración centrífuga como imitación de la gravedad.
La expresión peyorativa de “vivir en la Luna” podría ser una realidad, gracias a la tecnología y al tesón del ser humano por explorar nuevos horizontes

Descubren planta carnívora que come ratas

Sorprendente hallazgo en las selvas de Filipinas. Es la primera vez que se identifica una especie vegetal con la capacidad de comer algo más que insectos.
BBC-Mundo. Casi todos hemos visto o escuchado de plantas carnívoras, pero la mayoría son muy poco impactantes y sólo son capaces de capturar y digerir pequeños insectos como moscas y hormigas.
Sin embargo, una nueva especie descubierta en Filipinas cambiará para siempre la reputación de estos vegetales. Se trata de Nepenthes attenboroughii (así nombrada en honor del conservacionista británico David Attenborough), una planta insectívora tan grande que es capaz de atrapar y devorar ratas en sus enormes trampas.
El hallazgo, cuyos detalles aparecieron publicados en la revista Botanical Journal of the Linnean Society, fue llevado a cabo durante una expedición de botánicos en las tierras altas del centro de Filipinas. La primera vez que se supo de su existencia fue en el año 2000 cuando dos misioneros cristianos dijeron haber visto a las enormes plantas.
El dato
Otro hallazgo. Durante la expedición, los botánicos también encontraron otra especie insectívora, Nepenthes deaniana, la cual no había sido vista en vida silvestre en 100 años.
Diario La República
Edición del 19 de agosto de 2009

Los pterosaurios tenían control de vuelo, según fósil presentado en Brasil

Investigadores brasileños presentaron hoy (miércoles) el fósil de un pterosaurio que demuestra que estos reptiles alados tenían un "absoluto control de vuelo" y da un nuevo rumbo a las investigaciones sobre esta especie.

El fósil del "Jeholopterus ningchengensis" fue encontrado en depósitos de cerca de 130 millones de años en la región de Mongolia interior (China) y presentado hoy en el Museo Nacional de Río de Janeiro por el paleontólogo brasileño Alexander Kellner, que participó del descubrimiento junto con investigadores británicos, chinos y alemanes.

Según Kellner, la importancia de este fósil radica en la existencia de unas estructuras en las alas que suponen todo un cambio en las teorías que hasta el momento se tenían sobre el animal y su capacidad de volar.

Estas nuevas estructuras, conocidas como picnofibras y actinofibras, sólo pudieron ser descubiertas gracias al trabajo con rayos ultravioleta del paleontólogo alemán Helmut Tischlinger.

Así, el hallazgo de las picnofibras, semejantes a los pelos de algunos mamíferos, permitió a los investigadores, en primer lugar, concluir que los pterosaurios eran animales endotérmicos y por tanto capaces de controlar la temperatura de su propio cuerpo.

También gracias a los rayos ultravioletas se supo que las actinofibras, que ya eran conocidas, se estructuran en una trama de varias capas a diferencia de lo que se pensaba hasta el momento.

Este hecho otorgaría una mayor resistencia a las alas de estos animales así como la capacidad para estirarlas y retraerlas a voluntad, lo que permite un vuelo estable y con alto control.
Las membranas encontradas en el pterosaurio serían incluso más resistentes que las que presentan algunos animales voladores actuales, como el murciélago.

Para el profesor Kellner, el hallazgo "elimina los modelos de estudio anteriores", según algunos de los cuales las alas de los pterosaurios sólo les servirían para planear.

Asimismo, el paleontólogo explicó que este descubrimiento "abre toda una gama de posibilidades para desencadenar nuevas investigaciones" en torno a estos animales, que no son considerados como aves pero tampoco como dinosaurios, a pesar de haber coexistido.

Sin embargo, el científico también apuntó que ahora se abre un nuevo reto para los investigadores que deberán concluir la composición exacta de estas estructuras y que hasta el momento trabajan con la hipótesis de que se trate de colágeno o fibras musculares.

Por otra parte, el paleontólogo destacó el valor de la región de Mongolia interior, en el noreste de China, donde fue encontrado el fósil presentado hoy y aseguró que en el futuro debe llegar mucha información desde allí porque la cantidad de fósiles que se encuentra es "tremenda".

Kellner también subrayó la importancia de la colaboración brasileña para llevar a cabo las investigaciones ya que, según el profesor, en este país se encuentran algunos de los mejores ejemplares de fósiles de pterosaurios.

La réplica del fósil hallado y reproducciones del animal en vida y de su membrana alar serán expuestas a partir de ahora en el Museo Nacional de Río de Janeiro. (Río de Janeiro, EFE)
Diario La República; 05 de agosto de 2009

DECODIFICAN ESTRUCTURA DEL GENOMA DEL VIH

SE DESARROLLARÁN MEDICINAS MÁS EFECTIVAS
Investigadores americanos decodificaron la estructura del genoma completo del virus del sida, lo que podría acelerar la investigación para desarrollar nuevos medicamentos antirretrovirales, según artículos publicados por la revista científica británica “Nature”.

Este trabajo abre la vía a nuevas investigaciones que deberían favorecer una mejor comprensión de las estrategias de infección del virus, según sus autores.

Kevin Weeks (de la Universidad de Carolina del Norte) y sus colegas consiguieron una larga “vista aérea” de la arquitectura del genoma del virus y de sus funciones posibles. “Empezamos igualmente a comprender las estrategias del genoma que permiten al virus escapar de la detección de su anfitrión humano”, comenta Kevin Weeks.

Los investigadores muestran así que la formación de proteínas está influenciada por elementos de la estructura interna del ARN. Lo que sugiere que la estructura misma del ARN podría tener un papel, hasta ahora no reconocido, en la expresión del código genético, según los investigadores.

Los biólogos especializados en el estudio de las estructuras podrán ahora servirse de este mapa del genoma para hacer juiciosamente grandes planes sobre ciertas regiones del genoma del VIH-1 y explorar antes sus funciones a nivel de átomo, según la revista científica “Hashim Al-Hashimi”. Parece que la búsqueda para disponer de una vista más fina, de alta resolución, de la estructura de todo el genoma ha empezado seriamente, escribe. En efecto, el genoma de este virus todavía no ha revelado todos sus misterios.

FÁRMACOS MÁS BARATOS
En tanto, la fundación del ex presidente Bill Clinton suscribió acuerdos con dos laboratorios farmacéuticos con el fin de que ofrezcan precios más bajos en medicamentos para pacientes de países pobres que padecen sida resistente a los fármacos. Uno de los acuerdos, con los laboratorios Mylan, reducirá el precio anual de cuatro medicinas antirretrovirales utilizadas como segunda línea de tratamiento para pacientes con el VIH que desarrollan resistencia a los primeros medicamentos con los que son atendidos.

El otro acuerdo, con los laboratorios Pfizer, reducirá el costo de un medicamento que se puede utilizar con otros fármacos para atender a pacientes infectados con tuberculosis.

“Este es un convenio muy importante”, indicó el ex presidente estadounidense Bill Clinton el jueves al realizar el anuncio.

EN PUNTOS
El VIH, como los virus de la gripe, la hepatitis C o la polio, tiene su información genética almacenada en una molécula de ácido ribonucleico (ARN), mientras que el genoma de los mamíferos se inscribe sobre la doble hélice del ADN (ácido desoxirribonucleico). Sin embargo, la información contenida en el ARN es mucho más compleja.

LA CIFRA
US$425 al año costará el conjunto de fármacos –que se deberán tomar una vez al día– de los laboratorios Mylan.
El Comercio; sábado 08 de agosto de 2009.