lunes, 28 de marzo de 2011

La hora del planeta

Millones de personas en todo el mundo se sumaron este sábado a la Hora del Planeta, una iniciativa contra el cambio climático para dejar las ciudades a oscuras entre las 20:30 y 21:30 horas locales de cada país.
Los organizadores de la iniciativa, el Fondo Mundial para la Naturaleza (WWF), esperan con esta manifestación social presionar a los gobiernos para que avancen con políticas concretas en la protección del medio ambiente y la lucha contra el calentamiento global.
La Hora del Planeta comenzó en las islas Chatman (Nueva Zelanda) y culminará en las islas Cook, después de haber pasado por todos los husos horarios.

Respuesta masiva en España

En esta edición, España es el segundo país con más ciudades inscritas en la campaña, con 250, sólo superada por Canadá, con 422. Bélgica es el tercer país del ranking, con un total de 200 ciudades. En total, son 135 los países y territorios que han confirmado oficialmente su participación, con 4.500 ciudades a lo largo de los 7 continentes.
Bajo el lema 'Apaga la luz, enciende el planeta', edificios madrileños tan simbólicos como la Puerta de Alcalá, la Cibeles, el Palacio Real, el Tribunal Constitucional, el estadio Santiago Bernabéu, la catedral de La Almudena y San Francisco el Grande, entre otros, han pasado una hora a oscuras para concienciar al mundo de la necesidad de luchar contra el cambio climático.
La Sagrada Familia y la Torre AGBAR en Barcelona, se han quedado a oscuras así como el Castillo de Montjuïc o las fuentes ornamentales de la ciudad y en las Islas Baleares el castillo de Bellver, la Catedral de Palma y el palacio de la Almudaina han demostrado con su apagón su adhesión a esta campaña.
[foto de la noticia]
En San Sebastián, se ha apagado la iluminación de los principales edificios y los elementos ornamentales más emblemáticos, como las luces de la bahía de La Concha, la isla de Santa Clara y las murallas del monte Urgull, además de inmuebles como el Ayuntamiento y el Kursaal.
En esta 5ª edición, la Torre del Oro y la Giralda en Sevilla, las dos márgenes del río Guadalquivir y los puentes de San Telmo, Triana, Chapina y Barqueta, además de la Alhambra en Granada han apagado sus luces como respuesta a la convocatoria de la Hora del Planeta.
También han perdido su iluminación el Alcázar y la Catedral de Toledo, la muralla de Ávila y los ayuntamientos de Oviedo y Gijón y la fachada de la Casa Consistorial de Pamplona.
Los monumentos declarados patrimonio de la Humanidad de Galicia, como la muralla romana de Lugo, la catedral de Santiago o la Torre de Hércules de A Coruña se han sumado esta noche a la iniciativa. La política y el arte se han unido a la campaña, dejando a oscuras las sedes del PP y PSOE, el museo Reina Sofía y la Casa de América en Madrid y el Museo Guggenheim en Bilbao.

Un evento planetario y en la Red

Sydney, la ciudad donde en 2007 comenzó la iniciativa, se mantuvo 60 minutos en penumbra, y su famosa ópera fue uno de los primeros monumentos que apagó las luces en la jornada de hoy. A ella se sumarán a lo largo del día el rascacielos Burj Khalifa en Dubai, la torre Eiffel en París, el Cristo Redentor de Río de Janeiro, el edificio de Times Square en Nueva York, la Sagrada Familia en Barcelona, la Mezquita de Córdoba o el Palacio Real en Madrid.
En Nueva Zelanda, algunos conciertos previstos al aire libre tuvieron que celebrarse en salas porque llovía, mientras que en el Planetario de Wellington, los astrónomos no pudieron enseñar a los curiosos el mágico firmamento estelar porque el cielo estaba cubierto de nubes. "La naturaleza no se ha puesto de nuestra parte en esta edición de la Hora del Planeta", dijo Lee Barry, una de las organizadoras.
Incluso en la web, la iniciativa tuvo reflejo en varias páginas web, por ejemplo en ELMUNDO.es. Durante tres minutos, la home permaneció a oscuras.
La Hora del Planeta se ha convertido en pocos años en un gigantesco éxito de participación. No obstante, también hay voces críticas. "El clima no se salva con un apagón de luz", opina la organización defensora de los animales PETA. Quien quiera contribuir a la protección de la naturaleza, que renuncie a comer carne, añaden.

Las renovables se convirtieron en la principal fuente energética en 2010

La producción a partir de energías renovables experimentó durante 2010 un "fuerte incremento", gracias al aumento de la hidraulicidad y al continuado ritmo de instalación de estas tecnologías, hasta el punto de que aportaron el 32,3% de la electricidad, siete puntos más que en el ejercicio anterior, anuncio el secretario de Estado de Energía, Fabrizio Hernández.
Este porcentaje situó a las renovables, que incluyen fuentes como la eólica o la solar, como las de mayor peso dentro del 'mix' energético, por delante del 22% de los ciclos combinados (gas natural), del 20% de la nuclear, del 8% del carbón y del 4% del petróleo, anunció Hernández durante la presentación del Balance Energético 2010 en la sede del Ministerio de Industria.

Plan de energías renovables

En términos de energía final consumida, que incluye el transporte por carretera y la actividad no electrificada, las renovables aportaron el 13,2% del total, lo que "permite cerrar exitosamente el plan de energías renovables 2005-2010" y sitúa al país "por encima de la senda para alcanzar el objetivo de 2020" del 20%, señaló.
"Las renovables son por primera vez la fuente principal del 'mix' energético español y el porcentaje queda ya muy cercano de las cifras de los objetivos de 2020", aseguró el secretario de Estado, quien adelantó que la política de su departamento se centrará en el fomento de estas tecnologías y en la aplicación de medidas de ahorro y eficiencia.
El aumento de la contribución de las renovables vino acompañado de unincremento del 11,3% en el consumo de estas tecnologías y se produjo en un contexto de aumento del 2,1% en la demanda eléctrica y del 3% en el grado de autoabastecimiento del país.

jueves, 24 de marzo de 2011

El turísta suicida

Aunque la vida para mí tiene mucho valor,y comprendo a todos aquellos para los que la vida sea más importante que todo lo demás, tener el derecho a saber cuándo y cómo morir,me parece un dcho innegable de cualquier ser humano.
Finalmente decidamos que nuestro tiempo en este mundo acabe de forma natural o de forma artificial, siempre y cuando esta sea nuestra decisión, libre de cualquier privación de nuestra libertad, deberíamos poder tomarla nosotros mismos, sin haber nada ni nadie que nos impida terminar con nuestro sufrimiento, morir con la persona a la que amamos, o simplemente, tener el poder sobre nuesrta vida
En los casos expuestos en el documental, naturalmente que el caso del pobre hombre que decide no proseguir con el sufrimiento propio, y detoda su familia (debido a su grave enfermedad), es el caso que mejor se puede entender, simplemente eligió el mal menor
En el otro caso, es un poco más difícil la aceptación por parte del gobierno, o de cualquier persona en general, entender el por qué quiere morir la mujer con su marido- Aun así, como muy bien dice el hombre, la mujer tiene una idea en la cabeza, quiere elegir su muerte, cómo y con quien morir, y no veo que sea malo que el gobierno ofrezca una forma indolora y pacífica de morir.
En definitiva, opinoque cada día tenemos menos control sobre el futuro de nuestra vida. Desde el pobre hombre enfermo, que no desea terminar entre sufrimientos propios y ajenos, hasta aquél que desee morir de una formadeterminada, con una persona determinada, aunque no entendamos los motivos. Todos deberíamos tener el control sobre nuestra propia muerte, y que alguien decida por nosotros cuándo morir, o cuándo no hacerlo, es una privación de una derecho inseparable al ser humano.
En fin, ni todos debemos suicidarnos porque así lo prefiere la sociedad, ni todos debemos perder al derecho a hacerlo, por la misma razón

lunes, 21 de marzo de 2011

Un satélite para detectar 'tsunamis' desde el espacio

os sismógrafos y las boyas instaladas en el fondo del mar son los únicos instrumentos que en la actualidad permiten alertar a la población con algunos minutos de antelación de la inminente llegada de un tsunami (en el mejor de los casos, la población tiene menos de una hora para ponerse a salvo).
Cuando los sismógrafos registran un terremoto submarino de magnitud superior a 6,5 en la escala de Richter, hay riesgo de que se produzca un tsunami. Automáticamente se lanza una alerta aunque no exista la seguridad de que vaya a llegar a la costa. Sin embargo, en pocos años la tecnología espacial podría mejorar significativamente la predicción de estas devastadoras olasgigantes que han provocado una enorme catástrofe en Japón.
Un proyecto de la Agencia Espacial Europea (ESA) firmado por el ingeniero español Manuel Martín-Neira utiliza la tecnología de los satélites de observación de la Tierra para medir la altura de la superficie del océano. Las aplicaciones potenciales son numerosas pero seguramente la más significativa será la de poder detectar tsunamis con mayor antelación y precisión. El sistema PARIS está en fase de estudio pero podría ser una realidad en 2017 o 2018 si se cumple el calendario previsto para su lanzamiento.
Un sistema de 10 satélites PARIS permitirá detectar un tsunami en cualquier lugar del mundo con, al menos, 30 minutos de antelación.
El sistema desarrollado por este ingeniero de radiometría de microondas, que el pasado mes de junio recibió el premio Jaime I en la categoría de Tecnología, fue patentado a principios de los años 90 por la Agencia Espacial Europea, donde investiga. "En aquella época sólo estaba en órbita el sistema de navegación estadounidense GPS y el ruso GLONAS. Conforme pasaron los años, otros países comenzaron a desarrollar sus sistemas de navegación por satélite", explica Manuel Martín-Neira a ELMUNDO.es en conversación telefónica desde Holanda, donde se encuentra el ESTEC ('European Space Research and Technology Centre'), el centro de la ESA en el que trabaja.
Aunque los ensayos de PARIS se realizarán con el sistema de navegación por satélite europeo GALILEO, PARIS podrá recibir las señales directas de toda la red mundial de satélites y calcular la altura de la superficie del mar.

Evolución de las olas en el océano

Cuando una ola de tsunami de desplaza por el océano, éste muestra una pequeña elevación. Por ejemplo, un tsunami en medio del océano puede tener una altura de 30 o 60 centímetros. Cuando el océano es muy profundo, la ola tiene poca altura pero es muy ancha (alrededor de 200 o 300 kilómetros) y viaja a una gran velocidad (unos 800 km. por hora).
A medida que la ola se acerca a la costa y dismuye la profundidad, su velocidad se va reduciendoSe va estrechando hasta convertirse en una ola de sólo 10 km. aproximadamente. Todo el agua se acumula en esta superficie, lo que provoca que aumente su altura, que puede tener entre 10 y 30 metros, produciendo un efecto devastador en la costa.
"El objetivo es que un satélite PARIS pueda observar una franja del océano de 1.500 kilómetros en la que podamos captar esa perturbación. Para lograr detectarlo con 30 o 40 minutos de antelación necesitaríamos una constelación de satélites PARIS", explica el ingeniero. "Con 10 satélites se podría monitorizar todo la Tierra y alertar con 30 o 40 minutos de antelación", calcula el ingeniero.

Un sistema complementario

El sistema necesitaría que se procesaran los datos en la Tierra en tiempo real y un sistema de comunicaciones muy efectivo para que la alerta llegue a las poblaciones amenazadas. Martín-Neira considera que su sistema complementaría a los sismógrafos que detectan el terremoto y a las boyas instaladas en el fondo de mar para medir la presión. Este sistema de sensores se instaló en Indonesia tras el devastador tsunami de 2004: "Requieren un cierto mantenimiento y es costoso". Por eso el objetivo es complementar varias tecnologías.
El tsunami de Japón del 11 de marzo llegó a la costa en menos de una hora porque en cuanto se produjo el terremoto submarino se avisó a la población. Sin embargo, hoy en día no hay un sistema de detección de tsunamis global: "Tras el tsunami japonés se alertó a todos los países del Pacífico sin tener información real sobre si, efectivamente, iba a producirse. Se previno por si acaso", señala el investigador.

Medir las corrientes oceánicas

El principal objetivo de PARIS es medir la superficie del mar, unos cálculos que, además de ayudar a paliar los efectos de los tsunamis, estudiará las corrientes del océano y ayudaran comprender mejor la dinámica océanica, es decir, cómo circula el agua, unos datos que mejorarían la información que en la actualidad ofrecen los altímetros. Además, aportaría medidas interesantes sobre la vegetación, el nivel de agua de los ríos o el grosor de las capas de hielo.
El satélite que se construya para llevar a cabo las pruebas recibirá las señales de navegación transmitidas por un satélite GALILEO Y GPS. El satélite PARIS volará en una órbita más baja.
"Dará vueltas y medirá toda la Tierra (tardará 100 minutos en dar una vuelta completa, de forma que al día haría 14 barridos). Esta frecuencia permitiría detectar un tsunami en cualquier lugar del mundo con, al menos, 30 minutos de antelación.
No tiene por qué ser un esfuerzo de una agencia espacial única: "Tanto la NASA como la agencia espacial china se han mostrado interesados en el concepto PARIS", asegura.
El mayor reto ahora es recaudar fondos de los países miembros de la ESA para poder materializar el proyecto. "Nuestro objetivo es que cueste menos de 50 millones de euros", señala Martín-Neira.
'Con el avance tecnológico que tenemos en nuestras manos es posible mejorar la prevención de tsunamis y la alerta temprana'
Martín-Neira es también el ingeniero responsable del hasta ahora exitoso sistema MIRAS, que se lanzó al espacio a finales de 2009 en el marco de la misión SMOSRecopila datos sobre la humedad del suelo y la salinidad del océano, unas mediciones que ayudan a los científicos a prever y a realizar seguimientos de inundaciones y sequías. El instrumento fue utilizado, por ejemplo, durante las graves inundaciones de Pakistán del pasado verano y las recientes lluvias torrenciales en Australia y Nueva Zelanda.
El ingeniero de la ESA confía en que en el futuro seamos capaces de prever los tsunamis y salvar muchas más vidas: "Con el avance tecnológico que tenemos en nuestras manos es posible mejorar la prevención de tsunamis y la alerta temprana. Espero que en el futuro la industria aeroespacial pueda contribuir a ello".

lunes, 14 de marzo de 2011

La seguridad nuclear, en cuestión nuevamente

Los graves sucesos ocurridos en las centrales nucleares de Japón como consecuencia del terremoto, y posterior tsunami, han alterado de manera irreversible el marco del debate sobre el futuro de la energía nuclear en el mundo, y también en España.
Al igual que hubo un antes y un después para las centrales nucleares después del desastre de Chernobil, lo acontecido en Japón tendrá un impacto decisivo sobre el futuro energético global, y no será para bien de la energía nuclear.
Como sabemos por otras ocasiones, en este tipo de catástrofes se tarda un tiempo en conocer en detalle el alcance y los impactos reales de las emisiones para las personas y el medio ambiente, incluso es posible que no se conozcan nunca. Las autoridades y la industria filtran la información con cuenta gotas, y en ocasiones sólo dan una parte de ella. Nadie, sin embargo, pone en cuestión la gravísima situación que se está viviendo en al menos cuatro plantas nucleares.

Cambio climático

Amparados por la necesidad de buscar fuentes de energía alternativas a los combustibles fósiles, los 'lobbies' nucleares habían encontrado un nicho desde el que impulsar nuevamente las centrales nucleares. Lejos de suponer una solución al cambio climático, la energía nuclear compite en recursos con las energías renovables. De hecho el Protocolo de Kioto no reconocía a la energía nuclear entre las alternativas propuestas en la lucha contra el cambio climático. No obstante en ese argumento encontró la energía nuclear una cierta resonancia en un espacio mediático bien lubricado durante muchos años.
En los últimos años hemos sido testigos de una campaña mediática sin precedentes en favor de esta fuente de energía. Es dudoso que tuviera un impacto considerable sobre la opinión pública, pero si lo tuvo sin lugar a dudas sobre los políticos que, finalmente, son quienes toman decisiones sobre el futuro de las centrales.
En España vivimos con mucha intensidad el debate sobre el futuro de la central nuclear de Garoña. Esta central es gemela del reactor de Fukushima 1, el primero en el que vimos una espectacular explosión. El gobierno cedió a las presiones ejercidas desde diversos ámbitos, y alargó la vida de la nuclear de Garoña hasta 2013, y Rajoy, de alcanzar el poder, ha anunciado el alargamiento de su vida.

'Lobby' nuclear

Las voces del 'lobby' nuclear se alzan para decir que la nuclear "saldrá reforzada de esta crisis". Se equivocan. Los impactos sociales de una situación como la que vivimos estos días no serán visibles en el corto plazo, pero son muy profundos. Ya en AlemaniaAngela Merkel ha anunciado un replanteamiento sobre su reciente decisión de alargar la vida de las centrales nucleares en aquel país. Es la consecuencia más inmediata, pero es probable que haya más.
Seguramente habrá quien piense que todo debe seguir igualcon respecto al debate nuclear que hace simplemente una semana. Yo no lo creo. De los problemas asociados a la energía nuclear -residuos radiactivos, alto coste de construcción de las plantas, escasez de uranio aprovechable, seguridad- sólo en la cuestión de la seguridad la industria había conseguido ciertos avances en convencer al público de sus avances.

Residuos radiactivos

El grave problema de los residuos radiactivos sigue generando una preocupación intensa, que se manifiesta en polémicas como la de la ubicación del cementerio nuclear. La seguridad de las centrales nucleares vuelve a estar en entredicho, después de tres días en los que el mundo contiene el aliento ante la situación de las nucleares japonesas.
El debate real en España no es tanto sobre la apertura de nuevas plantas, algo por lo que en realidad muy pocos apuestan, como por el alargamiento de la vida de las existentes debido los beneficios que generan las plantas amortizadas. Es precisamente este aspecto el que más cuestiones se abren tras lo sucedido en Japón. No me cabe duda de que no. El debate no va a ser el mismo a partir de ahora.

Los seísmos previos al gran terremoto no permitieron detectar su magnitud


La tierra tembló en Japón intensamente durante los dos días previos al gran terremoto del 11 de marzo. Entre las decenas de seísmos que se produjeron, 23 de ellos fueron de magnitud superior a 5 en la escala de Richter y uno alcanzó 7,2. Aunque estas pistas sirvieron a los geólogos para determinar que había una alta probabilidad de que el viernes se produjera un fuerte terremoto en la costa oriental de Japón, la tecnología actual no permitió predecir la gravedad del seísmo (que tuvo una magnitud de 8,9).
'Podemos averiguar la localización y la frecuencia con la que se van a producir, pero no la intensidad'
"Sabíamos que era más probable que ese día ocurriera en esa zona un terremoto de magnitud superior a 6 que otro día, pero no podíamos saber que su magnitud iba a ser tan elevada", explica el geólogo Álvaro González a ELMUNDO.es en conversación telefónica. "Podemos averiguar la localización y la frecuencia con la que se van a producir, pero no la intensidad de una manera precisa", añade.
González, investigador del Departamento de Ciencias de la Tierra de la Universidad de Zaragoza, es el único español que participa en un pionero proyecto internacional sobre pronóstico de terremotos que se puso en marcha hace tres años. Se denomina 'Colaboración para el Estudio de la Predicción de los Terremotos (CSEP, por sus siglas en inglés) y cuenta con varios centros de supercomputación en zonas tan sensibles a los terremotos como California, Nueva Zelanda, Japón. También hay otro centro en Suiza.

Mapas de pronóstico a corto plazo

Los investigadores elaboran mapas de pronóstico a corto plazo y los ponen a prueba en tiempo real a medida que se producen nuevos terremotos. Los mapas señalan las zonas detalladas en las que es más probable que se generen terremotos e indican un número esperable de movimientos en cada zona que se estudia durante un periodo de tiempo. Sin embargo, estos mapas no se utilizan de momento para lanzar alertas y advertir a las autoridades de la inminencia de un seísmo: "Todavía estamos lejos de poder utilizar estos pronósticos para lanzar alertas y poder tomar medidas", afirma. Aunque en su página web están disponibles los resultados del estudio, por razones científicas éstos se cuelgan con un mes de retraso.
Álvaro González. | CSEP
Álvaro González. | CSEP
Así, el terremoto de Japón ocurrió en el lugar en que indicaban los mapas, pero no era posible determinar que su magnitud fuera a ser tan alta. "Había posibilidades de un fuerte seísmo pero es muy poco frecuente que se produzcan terremotos tan fuertes". "Los terremotos tienden a concentrarse en el espacio y en el tiempo. Nos basamos en probabilidades y el viernes la probabilidad era bastante mayor que la habitual", explica González.

Fuertes seísmos en los días previos

El miércoles 9 de marzo, Japón sufrió cuatro grandes tembloresal este de la costa de Honshu, la principal isla nipona. El más grave ocurrió de madrugada y tuvo una magnitud de 7,2. Le siguieron tres seísmos de magnitud 6,1 durante la tarde y la noche, según durante la tarde y la noche, de acuerdo con los datos del Instituto de EEUU de Geofísica (USGS). El jueves hubo otros diez seísmos importantes, cinco de ellos, de magnitud superior a 5.
Desde que se produjera el gran terremoto, la tierra ha seguido temblando y lo más probable es que continúe haciéndolo en los próximos días: "Lo normal es que sigan sucediéndose réplicas pero cada vez más espaciadas. Lo habitual es que las más grandes sean de una magnitud menos (es decir, en este caso no deberían superar la magnitud 7,9)", explica González.
Respecto a la posibilidad de nuevos terremotos en la zona, es improbable que se dé un terremoto de la misma intensidad en el mismo lugar pero sí es posible que se produzcan fuertes seísmos en otros lugares, "más al norte o al sur". "No es una cuestión que pueda averiguarse en semanas, sino en años", señala el geólogo.
Desde el viernes se han producido un gran número de réplicas, que previsiblemente continuarán durante los próximos días. La zona nororiental de Japón ha sufrido casi 300 réplicas del terremoto del viernes y el posterior tsunami, según informa Efe.
Los sismólogos japoneses han advertido de que las réplicas continuarán, al menos, durante una semana, con un 70% de posibilidades hasta el miércoles de un temblor de magnitud de hasta 7 grados. Según el director de la Agencia Meteorológica de Japón, Takashi Yokota, a partir del miércoles se reducirá al 50% en las costas de las provincias de Ibaraki y Miyagi.

Japón, un país a imitar

A pesar de la magnitud del desastre, Álvaro González considera que Japón sigue siendo "un ejemplo de esfuerzo y rigor a la hora de prevenir terremotos. Sus sistemas de alerta rápida son ejemplares".
La magnitud del tsunami ha sido tal que, en su opinión, la única posibilidad de evitar víctimas en una tragedia similar sería tomar medidas drásticas, como no construir cerca de la costa, una solución que "tendría un coste social y económico tan grande que es difícil de asumir", afirma. Y es que las particulares características de Japón convierten su costa en un área básica para su desarrollo. Se trata de un país muy montañoso por lo que gran parte de la población se concentra en las localidades costeras. Además, su sector pesquero es clave en la economía del país.

jueves, 10 de marzo de 2011

La educación española suspende en ciencias

La Confederación de Sociedades Científicas de España (COSCE) –que representa a más de 30.000 científicos– aseguró ayer que la educación española tiene una importante carencia en docencia científica. Durante la presentación del primer informe ENCIENDE, elaborado por un comité de expertos para analizar la situación de la enseñanza de las ciencias en España, los investigadores propusieron un replanteamiento del sistema educativo y de la formación del profesorado en materia científica.
"En España, tenemos datos preocupantes en la competencia científica de nuestros estudiantes. Un 19% se encuentra en los niveles más bajos, mientras que tan sólo un 4% alcanza los niveles más altos", aseguró a EL MUNDO Digna Couso, profesora de didáctica de las ciencias en la Universidad Autónoma de Barcelona, tras la presentación que tuvo lugar el CaixaForum de Madrid. "Estos jóvenes tendrán que votar dentro de tres años y yo quiero que sepan responder a preguntas sencillas como las que plantea el informe PISA".
Según los autores del trabajo, la falta de cultura científica tiene riesgos importantes para la sociedad, ya que puede llevar a una reacción infundada contra algún tema, como está pasando en EEUU con la vacunación de los niños. "Es más importante crear una masa crítica, que una élite investigadora", dice Couso.

Crisis de admiración

Según datos de la Fecyt (Fundación Española para la Ciencia y la Tecnología), un 44,6% de los estudiantes españoles no consideran la profesión de científico como atractiva para los jóvenes de su generación. Durante la presentación del informe ENCIENDE, el premio Nobel de Química Harold Kroto -el padre de la nanotecnología- destacó la preocupante crisis que afecta a los estudiantes.
"Los estudiantes tienen el modelo de jóvenes deportistas o estrellas de la televisión que son ricos desde muy jóvenes y no sienten la misma atracción por los conocimientos científicos y por la profesión de investigador", explica Kroto.

La pérdida de ADN durante la evolución dejó a los humanos sin un pene óseo

El pene humano carece de espinas gracias a la pérdida evolutiva de un trozo de ADN no codificante, según un estudio de la Universidad de Stanford en Estados Unidos que se publica en la revista 'Nature'. El trabajo describe cómo las eliminaciones del ADN regulador han ayudado a esculpir la evolución de características específicas humanas.
Los científicos, dirigido por Gill Bejerano, utilizaron genómica comparativa para identificar 510 deleciones específicas humanas, secuencias que se encuentran muy conservadas entre los chimpancés y otras especies, pero ausente en el genoma humano.
Las eliminaciones representan trozos de ADN regulador, secuencias que pueden influir en la expresión de genes cercanos, y que se encuentran casi exclusivamente en bandas de ADN no codificante, cerca de genes implicados en la señalización hormonal y el funcionamiento neural.
Una deleción elimina una secuencia reguladora neural cerca de un gen supresor tumoral, una pérdida que correlaciona con la expansión de regiones cerebrales específicas en los humanos. Otra deleción elimina una secuencia reguladora cercana del gen receptor andrógeno humano, un cambio molecular vinculado a la pérdida anatómica humana de bigotes sensoriales y espinas del pene queratinizadas.
Las espinas del pene son comunes en otros animales, incluyendo los chimpancés, macacos y ratones, pero una morfología más simplificada tiende a asociarse con la conducta monógama de ciertos primates.
Muchos estudios han intentado resolver la cuestión de qué hace al ser humano distinto al resto de organismos buscando características extra frente a las de los familiares evolutivos más cercanos. Los científicos en el trabajo actual han descubierto interesantes características específicas humanas examinando lo perdido a lo largo de la evolución.

EEUU aprueba un nuevo fármaco contra el lupus


Durante más de medio siglo, las opciones terapéuticas de los afectados por lupus eritematoso, una enfermedad autoinmune, han sido las mismas. A partir de ahora, cuentan con una nueva opción. La FDA, agencia que regula los fármacos en EEUU, ha aprobado el uso de Benlysta para tratar esta patología. En Europa, el fármaco está en proceso de evaluación.
En los ensayos realizados con el fármaco, un 43,2% de los pacientes a los que se suministró el medicamento mostró una disminución de los síntomas después de un año, frente al 33,8% que mejoró tras suministrársele un placebo.
A pesar de las dudas sobre su eficacia, Benlysta (belimumab) recibió el sí de la agencia después de la recomendación positiva emitida por un comité de expertos el noviembre pasado. El fármaco se administra por vía intravenosa cada 28 días e inhibe la producción de una proteína relacionada con los linfocitos B anormales que provocan los síntomas del lupus.
La FDA calcula que uno de cada 11 enfermos a los que se suministre el medicamento experimentará una mejoría y advierte de que el tratamiento no parece tener efecto entre los pacientes de raza negra, los más susceptibles a padecer este mal.

Limitaciones a su uso

El lupus eritematoso sistémico es una enfermedad crónica autoinmune que se manifiesta de varias formas. La afectación de la piel y las articulaciones es muy frecuente pero también pueden verse comprometidos otros órganos del cuerpo (cerebro, corazón, riñón, pulmones), por lo que es potencialmente mortal.
Hasta ahora, las opciones terapéuticas se limitaban a la aspirina (aprobada en 1948) y los corticosteroides y el Plaquenil, un antimalárico, aprobados en 1955. La llegada al mercado de Benlysta es una buena noticia pero no se podrá suministrar a pacientes que padezcan de los riñones o del sistema nervioso central, pues no se han efectuado pruebas sobre este tipo de enfermos.
"Cuando se combina con terapias ya existentes, Benlysta puede ser una nueva opción de tratamiento importante para los profesionales de la salud y los pacientes que buscan ayuda para controlar los síntomas asociados con esta enfermedad", ha declarado el director de la Oficina de Evaluación de Medicamentos II de la FDA, Curtis Rosebraugh.
Esta enfermedad afecta a cinco millones de personas en todo el mundo. Es más frecuente entre mujeres, sobre todo entre las de raza negra, y se manifiesta especialmente entre los 15 y los 44 años.

Una empresa en dificultades

Benlysta es un producto de la firma Human Genome Sciences, una compañía fundada en 1992 que en sus dos décadas de existencia ha acumulado 2.000 millones de dólares en pérdidas. Éste es el primero de sus productos que recibe el visto bueno de la FDA.
La farmacéutica GlaxoSmithKline, que colaborará en su distribución, invirtió en Human Genome Sciences en lo que fue una gran apuesta por la investigación genómica para descubrir y desarrollar nuevos fármacos. Los expertos calculan que las ventas de Benlysta podrían alcanzar los 1.000 millones de euros anuales.

La obesidad puede ser contagiosa


Los humanos, somos 'animales sociales'. En general, necesitamos la compañía de otros para sentirnos completos física y emocionalmente; y esto es especialmente evidente en nuestra cultura mediterránea. Pero, curiosamente, nuestro círculo de relaciones amistosas también define de alguna manera nuestro riesgo de obesidad y/o de ganancia de peso. Así pues, mientras que es bien conocido que la obesidad es un 'asunto de familia' debido a su componente genético, hasta hace muy poco no se ha demostrado que la obesidad también puede ser 'contagiosa'.
El detonante del interés actual por el estudio de la influencia de las relaciones interpersonales en el riesgo de obesidad fue una investigación, publicada en la prestigiosa revista 'The New England Journal of Medicine' que, basada en el famoso estudio del corazón de Framingham en EEUU, demostró en un análisis de 12.000 sujetos seguidos desde el 1971 al 2003, que el riesgo de obesidad de un individuo aumentaba casi un 60% si algún amigo (y además era recíproco) se volvía obeso durante el periodo de seguimiento del estudio.
El efecto era más fuerte si la amistad era del mismo sexo. Pero, por el contrario, la proximidad sin amistad no aumentaba el riesgo; es decir no había efecto asociado si las personas eran meramente vecinas. Esto último descartaba también la posibilidad de que lo observado se debiera al hecho de compartir un mismo medioambiente.
A pesar de toda la fanfarria que rodeó a este hallazgo, no hemos de olvidar que sus conclusiones están basadas en un estudio observacional y que poco o nada se puede concluir en términos de causa y efecto. No sabemos ni siquiera si todo esto no es más que un espejismo científico. Si es así, pronto lo averiguaremos gracias a la capacidad de autocrítica de la investigación científica.
De todas maneras y haciéndonos eco del dicho tradicional de que si el río suena agua lleva, es importante indagar más profundamente en las bases de esta posible relación entre amistad y obesidad, y ver si podría utilizarse esta nueva faceta como un elemento más en la lucha contra la creciente marea de sobrepeso y obesidad de nuestra población. Para esto es crucial elucidar las razones que llevaron a los resultados obtenidos en la población de Framingham.
Se podría pensar que aquellas personas rodeadas de amigos con sobrepeso pueden percibirse a sí mismas como más delgadas y no estar tan incentivados a perder peso. También es posible que haya un 'contagio' debido a hábitos compartidos como resultado de la amistad, entre ellos los gustos gastronómicos y/o la actividad física. Por otra parte, y de acuerdo con un viejo dicho inglés (pájaros de la misma pluma vuelan juntos), uno elegiría a sus amigos, de manera consciente o inconsciente, en base a ciertas semejanzas, una de las cuales es, evidentemente, la apariencia física.
A este respecto, se ha demostrado en adolescentes que la probabilidad de que un joven con sobrepeso tenga también amigos con sobrepeso es el doble de lo esperado al azar. Esto puede ser debido en parte a la falta de reciprocidad existente entre los adolescentes al establecer su círculo de amistades, ya que mientras un número elevado de jóvenes con sobrepeso citan como amigos a otros jóvenes con peso normal, lo contrario no es tan frecuente.
Se podría pues pensar en recetas contra la obesidad que podrían incluir el cambiar de amistades o el aislamiento social. Obviamente, ninguna de ellas es posible en la práctica, pero sí podrían dar nuevas pistas a tener en cuenta.
Con respecto a la primera posibilidad, pensemos en el vaso medio lleno en lugar de medio vacío. Si la amistad puede conducir a un mayor riesgo de obesidad, también se podría reconducir para convertirla en un aliado en la lucha contra la misma. De hecho, parece ser que la pérdida de peso es más probable en las terapias de grupo que en los programas individuales. En términos de la segunda alternativa, es decir, el aislamiento, el 'remedio' es peor que la enfermedad, ya que está demostrado que el aislamiento social está asociado con un mayor riesgo de obesidad y enfermedad a todas las edades, y de mortalidad en la edad avanzada.
Un aspecto importante a considerar es la evolución reciente de la definición de 'amigo/a' con la explosión de las redes sociales en Internet. Resulta pues atractivo pensar en el uso de estas redes sociales para 'contagiar' la salud en lugar de la enfermedad.
Aunque tal experimento social no se ha puesto en práctica, sí que se han llevado a cabo simulaciones para predecir la diseminación de la obesidad a través de las redes sociales y predecir la efectividad de intervenciones de control de peso a gran escala utilizando estos circuitos.
Los modelos predicen que si no se ejerce acción alguna sobre las fuerzas que mueven las redes sociales, el resultado será un aumento acelerado de la obesidad. Por otra parte, estrategias introducidas en las redes y dirigidas inicialmente hacia grupos reducidos de individuos tanto obesos como con peso normal, podrían tener un efecto multiplicador que llevaría a revertir las tendencias actuales de obesidad y promover el retorno de grandes segmentos de la población hacia un peso saludable. Está claro que a pesar de la controversia que rodea a esta revolución de las comunicaciones interpersonales, este fenómeno seguirá creciendo en el futuro predecible, por lo tanto, seamos pragmáticos y si no puedes con el 'enemigo', únete a él.

José Mª Ordovás es director del laboratorio de Nutrición y Genómica del USDA-Human Nutrition Research Center on Aging de la Universidad de Tufts (EEUU), profesor de Nutrición y Genética e investigador colaborador sénior en el Centro Nacional de Investigaciones Cardiovasculares (Madrid).

Insulina tres veces a la semana


Cuando la diabetes tipo 2 (la que está asociada a malos hábitos como la obesidad) no se controla bien por medio de los fármacos, las inyecciones de insulina entran a formar parte de la vida de estos pacientes. Sin embargo, no todos cumplen a rajatabla con las pautas de tratamiento y no logran controlar bien sus niveles de azúcar. Disponer de una insulina que se pueda pinchar tres veces a la semana en lugar de diariamente podría mejorar esta situación.
Ése es el caso de degludec, un nuevo tipo de insulina inyectable aún en experimentación (cuya duración en el organismo puede llegar a prolongarse hasta 24 horas), que ha demostrado sus beneficios en un ensayo en fase 2 publicado por la revista 'The Lancet'.
Los investigadores, encabezados por Bernard Zinman, del Hospital Mount Sinai de Toronto (Canadá), evaluaron a 245 adultos entre 18 y 75 años,con diabetes tipo 2 que no había sido adecuadamente controlada mediante fármacos pero que nunca antes habían estado en tratamiento con insulina.

Perfil idéntico

Los pacientes recibieron degludec (bien una vez al día o tres veces a la semana) u otro tipo de insulina de acción prolongada (glargina, comercializada como Lantus), que se debe inyectar todos los días antes de acostarse. En todos los grupos, la terapia se combinaba con metformina (un antidiabético oral).
Después de 16 semanas de estudio en 28 centros diferentes de Canadá, La India, Sudáfrica y EEUU, los investigadores observaron un buen control de la glucosa con tan sólo tres pinchazos semanales con degludec, una terapia que tampoco agravó su riesgo de hipoglucemia (es decir, de quedarse 'cortos' en los niveles de insulina en sangre) ni de efectos secundarios. Es decir, los resultados no mostraron diferencias entre quienes se pinchaban a diario y quienes lo hacían con menos frecuencia.
Como recuerda a ELMUNDO.es Manuel Serrano Ríos, investigador principal del Centro de Investigación Biomédica en Red de Diabetes y Enfermedades Metabólicas Asociadas (CIBERDEM), el estudio muestra que la nueva insulina tiene "un perfil comparable" a la vieja y conocida glargina, lo que supone un resultado alentador, aunque se muestra cauteloso hasta conocer resultados a más largo plazo, más allá de esas 16 semanas. "Degludec puede resultar más cómodo para el paciente, pero en términos de control de la enfermedad no es superior a lo que ya tenemos", recuerda, "pero es bueno disponer de otras alternativas".
Frente a esta igualdad en el control de la patología, los investigadores, como también el autor de un comentario en la misma revista (Yogish Kudva, de la Clínica Mayo), consideran que ampliar los intervalos para pincharse la insulina puede ser un aliado para que la enfermedad interfiera lo menos posible con su calidad de vida y los pacientes se adhieran mejor a su terapia (controlando por tanto mejor su diabetes y reduciendo el riesgo de complicaciones cardiovasculares).
Aunque como destaca por su parte la doctora Sonia Gaztambide, presidenta electa de la Sociedad Española de Diabetes y jefa del Servicio de Endocrinología del Hospital de Cruces, "para algunos pacientes puede ser mejor repetir la misma acción todos los días, para evitar despistes". También ella apuesta por esperar resultados de ensayos más amplios, en fase III, antes de que "este avance más" se pueda generalizar.
La diabetes tipo 2 es más frecuente que la 1 y se desarrolla habitualmente a partir de los 50 años. Estos pacientes no pierden completamente su capacidad para producir insulina, de ahí que no dependan al cien por cien de su administración por vía externa, como recuerda el doctor Serrano. "La primera actuación siempre es controlar la dieta y hacer ejercicio físico", explica, tras lo cual se indica la medicación oral (generalemte entre uno y tres fármacos), "pero si desde el principio vemos que no responde recurrimos a la insulina".