lunes, 28 de septiembre de 2009

El ciclo del combustible nuclear: Residuos de alta actividad

Sin duda el punto más polémico de la energía nuclear, junto al riesgo de accidente, es cómo deshacerse de los residuos. Los residuos son radioactivos durante miles de años, lo que hace prácticamente imposible responsabilizarse de que sucederá con ellos a largo plazo. Entre estos residuos de alta actividad se encuentra el plutonio-239, un isotopo radiactivo creado por el hombre, y usado para la fabricación de bombas atómicas y como combustible nuclear. Este elemento presenta una altísima toxicidad, un sólo gramo es capaz de causar cáncer a un millón de personas (la dosis letal es de 0,15 microgramos por persona). Aunque normalmente se de su vida media, que es de 24.000 años, vale decir que emite radiactividad durante cerca de 250.000 años. La vida media  significa que en 24.000 años se ha desintegrado la mitad del plutonio, pero el progreso es logaríotmico, esto significa que en otros 24.000 años (48.000 en total) todavía quedará el 25% del Plutonio inicial, y en otros 24.000 (72.000 años totales) todavía quedará el 12'5%, y así hasta  que la radiactividad que emite deje de ser perjudicial; que como ya dije antes algunos calculan en 250.000 años.

Los enormes períodos de desintegración nos obligan a pensar en escalas de tiempo a las que no estamos acostumbrados, y en las muchísimas generaciones, aún por venir, que tendrán que soportar el temible legado de los residuos radiactivos. Podemos compararlo con otros períodos: la Montaña de Yucca, en el desierto de Nevada (EE. UU.), donde ya se depositan residuos de alta actividad, era un volcán activo hace 20.000 años, hace 5.000 años el Sahara era un vergel, hace 10.000 años había volcanes activos en el centro de Francia y hace 7.000 años no existía el canal de La Mancha.

Parece que la tecnología de inactivación de los residuos está a punto de ser una realidad, capaz de reducir en un factor de 10 o incluso 100 el tiempo de radiactividad de los residuos, pero aún y así los riesgos del almacenamiento a largo plazo son una incógnita. ¿Quién puede garantizar la estabilidad geológica durante un período de 2.500, 25.000 o 250.000 años?

Conscientes de su talón de Aquiles, la industria nuclear ha tratado y trata de resolver su problema de diversas formas, aunque nunca se habla de largos períodos de tiempo (y mucho menos de inversiones, claro) y se procura solucionar de la forma más barata para ellos. Nunca se hacen inversiones para toda la vida de estos residuos, con accidentes (y el seguro correspondiente), crisis y los "imprevistos normales" en estas escalas de tiempo. A menudo sólo se hacen proyectos para 100, o a lo mucho 200 años; es decir un 0,04% del tiempo activo de estos residuos...

Una reflexión... El coste bajo es el principal argumento de los defensores de la energía nuclear ¿Si las nucleares estuvieran obligadas a hacer una gestión responsable de residuos a largo plazo, seguiría siendo ésta más barata que las renovables?

Es como si yo fuera al banco y me conceden una hipoteca a mil años, y claro seguro que podría alquilar la casa más barata que aquellos que tienen la hipoteca a 40 años., sobretodo si me muero a los 70 y no pago más. Pero claro, en realidad el banco no está dispuesto a asumir que yo viva mil años... ¿Porqué nosotros asumimos que los depósitos geológicos serán estables 250.000 años? o mejor dicho ¿Porque nos hacen asumirlo?

¿A cuanto ascendería el sueldo de, al menos un operario, durante 25.000 o 250.000 años? Aunque fueran todos becarios, me parece que serían unos cuantos zeros...

Gráfico tomado  de aquí, fuente: EnergyComission.
Es más, los costes de la energía nuclear tienden a aumentar con el tiempo (en parte por lo que estamos hablando, y en parte por la "futura" escasez de uranio), a diferencia de otras opciones que tienden a disminuir (ver el gráfico adyacente realizado por la Energy Comission de USA)

Paradójicamente, podría ser el hecho de no tener una gestión, o más concretamente inversión, a largo plazo de residuos (lo que significa mucho riesgo implícito y poco coste) la que esté favoreciendo la industria nuclear en detrimento de las renovables. La irresponsabilidad de generar residuos sin pagar por ello, perpetúa las centrales nucleares como la forma supuestamente más barata de producir electricidad.


Aquí os dejo un gráfico interactivo de El País sobre las etapas del proceso de elaboración de combustibles hasta el almacenamiento de residuos.

[Actualización mayo de 2012] El riesgo de accidente nuclear es mayor de lo calculado: Un accidente nuclear catastrófico como los de Fukushima o Chernóbil puede producirse en algún lugar del mundo una vez cada 10 o 20 años, lo que significa una probabilidad 200 veces superior a las estimaciones realizadas en Estados Unidos en 1990, según un estudio dirigido por Jos Lelieveld, director del Instituto Max Planck de Química (Alemania).

Fuentes:

jueves, 24 de septiembre de 2009

La reunión mas importante de la historia de la ciencia... probablemente

Si la ciencia fuera religión, la quinta conferencia Solvay habría sido como la última cena o el primer sermón de Buda en Sarnath... Es difícil señalar un momento histórico cómo el más importante, pero éste estaría entre los primeros en lo que a ciencia se refiere.

En octubre de 1927, titulada Electrones y fotones, esta reunión acojió a Albert Einstein, a Niels Bohr, y a los padres de la incipiente cuántica, entre los que podemos destacar a Werner Heisenberg, Max Planck, Paul Dirac, Wolfgang Pauli o a Erwin Schrödinger. Sólo con estos

miércoles, 16 de septiembre de 2009

Earth clock: un monitor de la actividad humana en la tierra

Earth Clock es un sitio donde puedes ver la evolución de diversos parámetros antrópicos en cada instante. Puedes escoger diferentes escalas de tiempo y muestra cuanta gente está naciendo, cuanto petróleo queda a cada segundo, los residuos nucleares creados, la incidencia de cancer y SIDA, entre otros. Los datos son tomados de lugares como la Naciones Unidas, o la EPA (Environtmental Protection Agency), y aunque puedan no ser exactos (por ejemplo discrepo al alza con el número de especies extinguidas), abruman por la rapidez con la que crecen. Merece un vistazo, pinchad en el link:

Poodwaddle Earth Clock

domingo, 13 de septiembre de 2009

Sobre la sostenibilidad de las renovables

Cuando miramos el panorama energético actual, la primera impresión es que hay, no pocos, esfuerzos puestos en la investigación y desarrollo de nuevos vectores y fuentes de energía. Y a pesar de que los científicos están de acuerdo en la necesidad de reducir las emisiones de co2 las tecnologías renovables más avanzadas están demasiado a menudo basadas en recursos no renovables. Y no hay que olvidar que el otro gran problema de las energías no renovables es que son finitas, algo que, en principio, deberíamos evitar en las renovables.

Si bien en un universo con entropía la sostenibilidad es estrictamente una quimera, podemos aprender mucho de la forma como la naturaleza capta, almacena y usa la energía de forma eficiente. Nuestros retos tienen que ver con diferentes etapas de los proceso: los sistemas de captación de energía son frecuentemente dependientes, directa o indirectamente de recursos fósiles, el almacenamiento es muy ineficiente, el uso suelen ser derrochador y la eficiencia muy pobre al compararla a los sistemas vivos (por dar un dato se calcula que el 65% de la energía se pierde en la conversión a las formas de energía que usamos habitualmente).

Sol y metales raros

La eficiencia de las células solares se mide por el porcentaje de luz que convierten a energía eléctrica. Las celdas solares de silicio han llegado a un 25% a finales de diciembre de 2008, pero las células solares multiunión pueden conseguir eficiencias superiores al 40%. Aunque estas últimas están llamadas a ser el futuro de la energía solar, deben su eficiencia a las características de un metal raro, el indio (unas 0’25 ppm en la corteza terrestre), que es mucho menos abundante que el silicio sobre la corteza terrestre.

El indio es un metal por el que hubo escaso interés en la historia. No ha suscitado interés de la industria hasta tiempos recientes. Usado como recubrimiento de motores de alto rendimiento en la segunda guerra mundial, y posteriormente como componente en transistores, hoy día la mayor parte del indio se usa en la fabricación de pantallas de LCD, una industria que ha incrementado el precio de metal hasta los 1000$ el kilo. Y ahí está el problema: las estimaciones hechas hasta la fecha, que no contemplaban una explosión en la demanda para células solares, dicen que queda indio para unos diez años. Hay que tener en cuenta también, dado el poco valor que tenía antes de la era electrónica, que algunos científicos piensan que hay más Indio del que pensamos, incluso algunos aseguran que podemos encontrar grandes depósitos provenientes de meteoritos

Si la energía solar tiene que ser una de las principales fuentes de energía, entonces encontrar una alternativa al Indio parece buena idea, o bien deberemos aceptar la mayor superficie y menor Tasa de Retorno Energético (TRE que algunos calculan inferior a 1) de las células de silicio. La buena noticia, es que parece ser posible aumentar el rendimiento y/o la longevidad de las placas de silicio. Hay actualmente en investigación otras placas solares desarrolladas con nanotecnología, que parecen dar solución a algunos de estos problemas, pero habrá que ver que TRE pueden conseguir.

El sueño del hidrógeno

Ese prometedor vector energético, con esperanzadoras eficiencias en la conversión a electricidad, y de relativa facilidad para almacenaje y transporte, también afronta un reto similar dice Paul Adcock de la compañía británica Intelligent Energy.

No se ha hallado todavía una forma barata de producir hidrógeno y a las nuevas aproximaciones, como la fotoproducción biológica de hidrógeno les queda todavía tiempo para ser comercialmente viables. Pero más allá de los retos tecnológicos, que parecen depender tan solo del tiempo para ser superados, también debe afrontar la escasez de un metal raro.

Las células de combustible de hidrógeno son la forma más efectiva de convertir el gas en electricidad. Pero éstas dependen del caro platino para catalizar la reacción. El problema es que la cantidad de platino hace que el indio parezca muy abundante (el platino se encuentra en unas 0.000003 ppm en la corteza terrestre) y se cotiza en $ por gramo, no por kilo. Las estimaciones dicen que si la flota actual se convirtiera a las células de combustible todo el platino del mundo se acabaría en 15 años.

Las células de combustible libres de platino están lejos de ser una realidad. Están en desarrollo diversas células de combustible catalizadas por níquel u otros metales, pero con un rendimiento del 10% respecto al de platino. La nanotecnología se presenta como una alternativa más efectiva y barata que el platino, pero de nuevo el camino hasta la prospección comercial es todavía largo.

Lo que se lleva el viento

Hay otro recurso renovable con retos que afrontar, la energía eólica. Las turbinas crean electricidad mediante un proceso conocido como inducción electromagnética: moviendo un conductor (normalmente cable de cobre) en un campo electromagnético, lo que crea una corriente eléctrica. Es posible usar diferentes tipos de imanes o electroimanes en el generador, pero los más populares son los imanes formados por neodimio hierro y boro (tipo Nd2Fe14B) de gran intensidad de campo. Estos imanes son más baratos y potentes que los imanes de samario-cobalto, y son comunes en productos como auriculares, altavoces, discos duros de ordenadores, sensores etc.

Aunque el neodimio forma parte de las “tierras raras”, no se puede decir que esté en pequeñas cantidades (38 ppm de la corteza terrestre). El reto del neodimio es que nunca se encuentra en la naturaleza como elemento libre. Se encuentra en minerales tales como la arena de monacita ((Ce, La, Th, Nd, Y) PO4) y basanita ((Ce, La, Th, Nd, Y) (CO3) F), que presentan en su composición pequeñas cantidades de todos los metales de las tierras raras. También se puede encontrar en el metal de Misch. Pero en todos los casos es difícil separarlo de otros elementos de las tierras raras. En la actualidad se obtiene principalmente a través de un proceso de intercambio iónico y extracción con disolventes y por reducción de haluros anhidros (NdF3, NdCl3) con calcio. El gasto energético de estos procesos no es muy alto, pero tampoco negligible si tenemos en cuenta todo el proceso. Por otro lado el neodimio es tóxico (clasificado con una toxicidad moderada a pesar de haber muy pocos estudios sobre su seguridad) y cómo la mayoría de tierras raras debe manejarse con cuidado. En los animales acuáticos provoca daños a la membrana celular, lo que tiene varias influencias negativas en el sistema reproductivo y en las funciones del sistema nervioso. Las sales o polvos de neodimio son muy irritantes para membranas mucosas, ojos y en menor medida la piel. La inhalación de parículas puede causar trastornos pulmonares, y su acumulación puede desembocar en disfunciones hepáticas. De hecho se han intentado usar imanes de neodimio en aplicaciones biomédicas, pero hay problemas de biocompatibilidad. Por último lado no hay que olvidar que el magnetismo también sufre desgaste (calculado de un 1% de media y hasta de un 2% por año).

Del mismo modo que las celdas solares de indio y los catalizadores de platino, los generadores de neodimio no parecen cumplir, con el desarrollo actual, los estándares de sostenibilidad de las crecientes necesidades energéticas del mundo en expansión. De todos modos los aerogeneradores tienen un fácil sustituto del neodimio a mano, habrá que ver para los otros dos. A favor de los aerogeneradores está la relativamente alta tasa de retorno energético.

Biomasa y Agrocombustibles

La energía de la biomasa y los agrocombustibles de primera generación comparten ciertas características. Los dos usan grandes cantidades de superficie terrestre, muy a menudo en forma de cultivos. No pocas veces implican la deforestación o reconversión de pastos, y aun suponiendo que no causaran problemas de competencia con el mercado alimentario (algo en lo que sí incurren actualmente) sus niveles de sostenibilidad quedan en entredicho por el sistema de producción y la ocupación de tierra.

A pesar de haber sido mencionados por algunos gobiernos (especialmente Gran Bretaña) como un pilar de un futuro sostenible, los últimos estudios relativizan tal afirmación. El informe Biomass: Carbon Sink or Carbon Sinner, de la agencia ambiental del mismo país (Environmental Agency o EA) oficializa lo que muchos científicos venían advirtiendo: para que el balance energético y de emisiones sea sostenible hace falta usar métodos de cultivo apropiados, normalmente ecológicos o de muy bajo nivel de insumos. Cabe resaltar que el mayor factor de emisiones de CO2 y gasto energético en la agricultura convencional se debe al uso de fertilizantes y pesticidas de síntesis, salvo en algunos casos en donde el manejo puede ser determinante. El problema es mayor cuando para la producción de cultivos energéticos se ocupan áreas anteriormente dedicadas a pastos o bosques, llegando incluso a ser más contaminantes, algunos casos que los combustibles fósiles. Pero el problema se extiende más allá de las emisiones y el gasto energético, los sistemas de cultivo actuales conducen a la pérdida de las capas superiores del suelo, la zona más fértil, por medio de la erosión del viento y la lluvia. En otros casos la acumulación de sales produce un daño difícilmente reversible. Y, la pérdida de fertilidad de los suelos del mundo es otro problema que no debería caer en el olvido.

Los biocombustibles de segunda generación, elaborados a partir de materias primas que no se destinan a la alimentación y que se cultivan en terrenos no agrícolas o marginales parecían dar solución a tal problema, todavía emiten CO2, aunque en cantidades menores que los combustibles fósiles, y están exentos de NOx y SOx. No obstante, parece que la fiebre por los biocombustibles ha ignorado en gran parte las nuevas ventajas. El caso paradigmático es el de la Jatropa. La Jatropha curcas es un arbusto de la familia de las euphorbiaceae proveniente de India, capaz de producir considerables cantidades de aceite en sus semillas. Se puede cultivar en zonas áridas requiere poco fertilizante, agua e insumos agrícolas, combate la desertificación y no requiere replantación ya que vive entre 40 y 50 años. El único inconveniente es que sólo crece bien en climas calientes, ya que no soporta las heladas.

Esta prometedora planta ha sido causa de discordia desde que se descubrió su potencial. Su mayor ventaja, la de ocupar tierras no cultivables ha sido ignorada rápidamente. De hecho los impactos resultantes han sido considerables: de ocupación de tierras agrícolas para el cultivo, conversiones forzadas de cultivos tradicionales, desplazamiento de poblaciones rurales, biopiratería (en concreto la multinacional D1), amenaza a la diversidad biológica... Algunos científicos, como Vandana Shiva han sido muy críticos con la forma con que se extiende la tecnología. Como a menudo sucede, la aplicación científica cae en manos codiciosas, lo que limita el potencial, y repercute en la opinión pública.

Los biocombustibles de tercera generación provienen del campo de la biología sintética y la biotecnología. Van enfocados a la manipulación de cultivos para la mejora de rendimientos, mayor facilidad de conversión a biocombustibles u otras aplicaciones del estilo. La cara más conocida es de este campo es Craig Venter, involucrado en la secuenciación del genoma del árbol del aceite de palma. El inconveniente en este caso es aquél implícito en las tecnologías del ADN recombinante, cuya seguridad ha quedado en entredicho últimamente. Los organismos modificados genéticamente ya causan mucho rechazo en la sociedad europea y otros lugares, habrá que ver que paso cuando vienen en forma de biocombustibles.

Los biocombustibles de cuarta generación acoplan la tecnología de secuestro y almacenaje de carbono (o CCS en sus siglas en inglés) para producir biocombustibles con balance negativo de emisiones. También incluyen organismos transgénicos que ayuden a conseguir un balance más negativo, tanto en las cosechas como en los procesos biotecnológicos de extracción. La viabilidad y fiabilidad de las tecnologías CCS todavía está por ver, ya que hay pocos proyectos en marcha. Tendremos que esperar a que se avance en el estudio.

Cabe mencionar un tipo de fuente específica para la producción de biocombustible (a veces llamado también de tercera generación aunque no implica generalmente la manipulación genética): las algas. La primera planta en el mundo para producir industrialmente biocombustible a partir de algas se está construyendo este año en México y comenzará a operar a finales de 2010, con una oferta energética que a mediano plazo equivaldrá a la mitad de la producción actual de Brasil, vanguardia en la producción de biocombustibles a partir de la caña de azúcar. La algas son organismos con un espectacular crecimiento, de pocos requerimientos y pueden producir hasta 30 veces más por hectárea que otros cultivos energéticos como la soja. El principal problema es la extracción del biocombustible que todavía es complicada, pero los estudios recientes presentan un futuro prometedor.

En resumen, las tecnologías de biocombustibles avanzan rápido. El chasco de los biocombustibles de primera generación ha generado mala prensa, a la vez que impulsado la investigación y desarrollo de biocombustibles avanzados, de mayores rendimientos y menores emisiones. No obstante quedan preguntas por contestar e investigaciones por hacer, y la que más me preocupa es la que no depende de los científicos. ¿Serán el gobierno y la industria capaces de implantar los biocombustibles de forma sostenible? Es decir que no compitan realmente con la alimentación, que no pongan en riesgo la biodiversidad, dañen la fertilidad de los suelos, respeten la ecología, y prevean una limitación al máximo de área a ocupar para tal fin.

¿La PanaGea?

Algunos entusiastas apuntan a la energía geotérmica como el futuro. Y no es extraño, tras leer el artículo del MIT (The future of geothermal energy. 2006) uno se queda sorprendido de las posibilidades de esta tecnología: hay unos 13.000 ZJ/año disponibles en la Tierra, 2.000 ZJ/año de los cuales son posibles de obtener fácilmente en un periodo corto de tiempo. Los humanos usamos 0,5 ZJ/año.

Entonces ¿Cual es el problema? Las otras fuentes de energía comercializadas, mencionadas hasta ahora no cumplen las expectativas de un o más factores: abundancia, eficiencia, sostenibilidad o fiabilidad. Pero la geotérmica no usa materiales escasos ni recursos fósiles, es muy abundante, no depende de la climatología (o negligible comparado con la solar y la eólica) y parece adecuada para satisfacer las necesidades de las economías emergentes.

Hay muchos tipos de instalaciones geotérmicas. Genéricamente podemos hablar de las que usan agua (hidrotérmicas), el calor de los rayos del sol a poca profundidad, las que usan el calor producido a altas profundidades que poseen mayor eficiencia y capacidad (dentro de este tipo se encuentran las EGS o Sistemas Geotérmicos Mejorados en sus siglas en inglés). En éstas últimas, el proceso de generación de electricidad en las centrales geotérmicas inyectan agua a varios kilómetros de profundidad, donde se produce un intercambio de calor con las rocas. El agua se calienta y se devuelve a la superficie donde es usada para generar electricidad, normalmente el vapor mueve un generador. El agua es reinyectada después, volviendo a empezar el ciclo.

El primer inconveniente de esta tecnología es que requiere de una tipología de terreno especial que posea reserva geotérmica (cierta temperatura a cierta profundidad), lo que normalmente las emplaza en fallas o zonas con riesgo sísmico. Requiere considerables cantidades de agua, lo que la hace no apta para zonas áridas. Los costes de perforación, construcción y mantenimiento son altos, y frenan los inversores, pero según MIT usando la energía geotérmica mejorada (EGS en sus siglas en inglés) podrían disminuir los costes considerablemente. Por otro lado si es usada a escala mundial, y más allá de impacto ambiental local (que suele ser menor que el de las demás formas de energía renovable), debemos preguntamos sobre el hecho de estar sacando calor continuamente del interior del planeta y extrayéndolo hasta la atmosfera. Algo que no parece muy adecuado (aunque el análisis de impacto del MIT no lo ve como un peligro por las pequeñas magnitudes), se ha especulado sobre generadores subterráneos, pero todavía queda mucho camino por recorrer.

A menudo olvidada, no se dedicó ningún espacio en la última Financial Times Energy Conference en Londres, la energía geotérmica parece ser la única renovable en satisfacer los criterios mínimos para ser considerada sostenible. Una energía al parecer sin emisiones durante el funcionamiento (incluido el CO2), de bajo impacto ambiental, inagotable (a escala humana claro) y no fluctuante. Quedan algunos retos que superar, como los depósitos de silicio que se forman cuando se enfría el agua, mejorar la tecnología de extracción y perforación y controlar el riesgo de seísmos, pero sin duda parece encajar en un futuro basado en la sostenibilidad. Comparte dos de los mayores retos con otras renovables, por eso la distribución y almacenaje de energía.

El agujero negro: almacenando energía

El mayor problema al que se enfrentan las renovables es la poca capacidad de regulación que tenemos sobre las mismas. Para poder aprovechar los picos de producción de algunas de las tecnologías renovables, la opción más lógica sería almacenar la energía no consumida en baterías para poder usarla en los momentos de mayor demanda. Las baterías son también la herramienta básica para la construcción de coches híbridos, cuya demanda crecerá exponencialmente en los próximos años. El litio es la materia prima principal para la construcción de estas baterías y afortunadamente es mucho más abundante que los metales anteriormente citados. Pero desde luego es conveniente encontrar alternativas que pudieran evitar una dependencia del litio en la economía y tuvieran una toxicidad menor.

Hasta ahora hemos hablado de algunos de los sistemas de captación, que como el lector habrá notado, más que afrontarse a problemas unívocos presenta retos de muy diversa índole. La conclusión que se puede extraer es que no hay una solución única. La diversidad debe ser una característica intrínseca de nuestro futuro escenario energético. Y otro imperativo debería ser la descentralización de las redes energéticas. Como argumenta Jeremy Rifkin, mejora su autonomía, estabilidad y resiliencia, el claro ejemplo lo tenemos con Internet; pero parece que la descentralización choca con muchos intereses de gobiernos y grandes lobbies empresariales.

Del mismo modo que las emisiones de CO2 son una prioridad, también deberían serlo la disponibilidad de materiales en los productos para comercializar a gran escala, y sobretodo el diseño de una red energética diversa y descentralizada, que sea fiable, sostenible, de uso local, con poca distribución, poco almacenamiento y muchos lugares de producción. Aunque el tema de la descentralización se merece un post íntegro. Ya hablaremos más adelante.

Como hemos visto, las energías renovables son la esperanza para un desarrollo sostenible, pero será necesaria la superación de retos tecnológicos, e incluso económico-sociales, para que las energías que hoy conocemos como renovables puedan ser realmente sostenibles. Una advertencia que nos recuerda que la energía más sostenible es aquella que no se consume.


Fuentes:
Future of Geothermal Energy. MIT
International Energy Outlook 2008
La sostenibilidad de las energías renovables
Biomass: Carbon Sink or Carbon Sinner

viernes, 11 de septiembre de 2009

De la creatividad en la educación (20 min)

Inspirador video sobre cómo es tratada la creatividad en nuestros modelos educativos occidentales. Original, interesante y muy divertido. 20 minutos bien invertidos.

jueves, 10 de septiembre de 2009

En España la crisis la paga la ciencia

A pesar de anunciar recortes medios del 6% de gasto en los ministerios; el gobierno baraja un 37% de reducción de los presupestos para I+D, becas y contratos a investigadores.
Sólo se me ocurre citar a Unamuno que espetó ¡que investiguen ellos! cuando le preguntaron como potenciar el avance científico en España. Una filosofía decimonónica que, en principio, parecía ya cosa del pasado, pero se vuelve visible día tras día en los laboratorios de Investigación de toda España. A muy poca gente le importa el escaso nivel científico español dentro de la Unión Europea, sin embargo se forma cierto escándalo cuando los jóvenes científicos españoles, que se ven obligados a abandonar su tierra por falta de medios, triunfan en países como Inglaterra o Estados Unidos. Y es que toda la inversión hecha en estos científicos desde que son niños se deja escapar en el momento de cosechar. Aunque nuestra economía no tiene otra solución que promover actividades de alto valor añadido, en España no existe, pràcticamente, relación entre desarrollo económico y ciencia y tecnología. Mientrastanto damos dinero a los pobres banqueros y las empresas de coches... En fin...

Fuente El País

miércoles, 9 de septiembre de 2009

La crisis del placebo (1): historia

Hace un año me sorprendió en clase de bioquímica del sistema nervioso el comentario de un artículo científico en donde se evaluaban la efectividad de dos fármacos antidepresivos, y dos técnicas de psicoterapia en un estudio con placebo, doble ciego. Mientras la profesora se concentraba en comparar las técnicas terapéuticas con los fármacos, a mi me sorprendió la capacidad del placebo para curar, era efectivo en un 40% de los casos, las otras técnicas en un 60% aproximadamente.

Una pregunta me acosaba: si el 40% se curan con caramelos... ¿por qué no dar caramelos a todo el mundo? a modo de criba. Aquellos para los que no fuera efectivo podrían pasar a fármacos más potentes... ¿Por qué los médicos no disponen de placebos para recetar en aquellos casos que determinen oportuno? La respuesta no es sencilla, e intentaré explicarlo en las líneas que siguen. Lo sorprendente del caso es que, tras investigar un poco, vi que el poderoso placebo se vuelve cada vez más efectivo.

Los orígenes del placebo se remontan a las mentiras de una enfermera del ejército durante la Segunda Guerra Mundial, cuando las tropas aliadas atacaron las playas del sud de Italia. La enfermera ayudaba a un anestesista, Henry Beecher, que atendía tropas americanas bajo bombardeo alemán. Cuando la morfina se terminó, la enfermera inyecto a un soldado herido una solución salina, diciéndole que estaba recibiendo un potente anestésico. Sorprendentemente, la inyección alivió la agonía del soldado y le previno el shock.

Cuando volvió a su trabajo en Harvard, Beecher se convirtió en uno de los impulsores en la reforma médica. Promovió un método para comprobar si las nuevas medicinas eran realmente efectivas. Hasta entonces las farmacéuticas probaban en voluntarios los fármacos experimentales hasta que los efectos secundarios sobrepasaran los supuestos beneficios. Beecher propuso comparar los sujetos que tomaban el nuevo fármaco con otros que tomaban placebo, para saber así si lo que provocaba la mejora era realmente el fármaco..

En 1955 en un paper titulado "The Powerful Placebo," publicado en The Journal of the American Medical Association, Beecher describió como el efecto placebo había interferido en los resultados de más de una docena de ensayos, mostrando mejoras que habían sido erróneamente atribuidas al fármaco en pruebas. Demostró que el acto de tomar una pastilla es terapéutico en sí mismo, e incrementa los efectos curativos de la medicina. Sólo comparando la medicina con un placebo podrían obtenerse datos sobre la real capacidad de curación.

En 1962, justo tras el incidente de la Thalidomida, que causó deformaciones en recién nacidos. El Congreso de EEUU incluyó las sugerencias de Beecher, creando los RCT (Randomized Control Trial): ensayos seleccionados al azar, doble ciego y controlados con placebo. Los voluntarios recibirían el fármaco o una pastilla de azúcar, sin que los supiera el doctor o el paciente hasta el final del ensayo. Hoy día, para que un nuevo fármaco sea aprobado, tiene que vencer al placebo al menos en dos ensayos autentificados.

Y aquí reside la paradoja: los descubrimientos de Beecher ayudaron a curar el establishment médico de la superchería o charlatanería descarada. Pero al mostrar el placebo como el villano a vencer en los RCTs, acabó demonizando su descubrimiento más importante. El hecho de que una simple cápsula de azúcar pudiera estimular el mecanismo de recuperación del cuerpo se convirtió en un problema para las farmacéuticas en vez de un fenómeno para comprender mejor los procesos de curación y como conducirlos con mayor efectividad.

Claro, que gracias a eso, hoy tenemos antitumorales que son efectivos, independientemente de las maneras del oncólogo al tratar al paciente. Pero también es cierto que no aprovechamos todo el potencial del placebo, es más a menudo se ve como algo no deseable...

Lo que Bleecher no pudo prever es el crecimiento de la industria farmacéutica. Cuando la Big Pharma empezó a promover remedios para la panoplia de desórdenes que están íntimamente ligados a la función cerebral se encontraron con otra insidiosa sorpresa: ¡El efecto placebo era más efectivo que nunca!

Continuará...

martes, 8 de septiembre de 2009

De cerdos, zoonosis y fábricas de carne… (2ª parte)

Algo que he visto en un par de ocasiones y que no deja de sorprenderme, es constatar que algunos productores de cerdos, mantienen una pequeña cabaña porcina a parte, para consumo propio. En efecto, son cada vez más los productores que desconfían de sus propios métodos de producción, y deciden no dar a consumir a sus hijos la carne que nos venden. De hecho muchos productores carecen del control que desearíamos sobre sus explotaciones. Actúan como meros arrendatarios, que reciben lechones, sacos de pienso y tratamientos de una multinacional, y les devuleven cerdos a punto de matanza.

Pero ayer ya hablábamos de los productores de cerdo, y el consumidor no puede quedarse al margen del problema. En última instancia es el consumidor el que da poder a las granjas fábrica, y lo resta a los pequeños productores. Los consumidores que compran sus productos sin querer enterarse de cómo llega el jamón o el tocino a su mesa también tienen responsabilidad. Las grandes corporaciones no tendrían el poder del que gozan hoy en día si los consumidores se informaran de cómo es producida la comida que entra en sus casas y tuvieran algunos escrúpulos morales al consumirla. La calidad cada vez entra menos en el departamento de producción, y se queda en el de márqueting, pero al consumidor no parece importarle.

La legislación también debería ser más dura con aquello que nos llevaremos a la boca, y contemplar los costes ocultos de producción. En los cambios de métodos de producción (de granjas familiares a granjas fábrica), los consumidores deberíamos exigir al menos los mismos niveles de bioseguridad, y también de coste. Hoy se alzan los niveles de seguridad alimentaria haciendo imposible para muchos pequeños productores continuar produciendo, no obstante poco hay acerca de los problemas de bioseguridad que causan los nuevos sistemas industriales de producción cárnica. Parece que se da por hecho que es un inconveniente de la modernidad, y nadie cuestiona el porqué de estas zoonosis, o se ocupa de quien debe pagarlo: la legislación no lo contempla, o se queda en las diatribas legales de la limitación de responsabilidad empresarial. Los productores cárnicos han bajado mucho los costes de producción, pero su beneficio lo pagamos todos con nuestros impuestos: al prevenirnos y curarnos de la Influenza porcina, al descontaminar los acuíferos de purines, al tener que compensar las toneladas de gases invernadero liberadas a la atmósfera, por la pérdida de razas autóctonas y de negocios familiares sostenibles, la excesiva fertilización, las resistencias a antibióticos, el acúmulo de residuos, el maltrato animal, etcétera. Por no hablar de los problemas de salud derivados del excesos de consumo de carne . Y todo, mientras los dedicados granjeros desaparecen para dejar lugar a empresarios e inversores. ¿Nos está saliendo la carne de cerdo, realmente, más barata?

Pero es que de hecho no es fácil culpar a alguien por hacer lo que se supone debe hacer, es difícil culpar a un empresario por querer hacer el máximo de dinero en el mínimo de tiempo dentro del marco legal; de hecho están impulsados a ello. Y si pueden, es porque la legislación lo permite, y el consumidor no sólo lo acoge, si no que lo celebra, cuanto más barato mejor; pero ¿a qué precio?

Y eso es lo peor, y lo mejor también: la última palabra la tiene el consumidor. Los consumidores podemos llamarles la atención, bien enviando cartas expresando las preocupaciones, bien dejando de comprar sus productos. En vez de comprar a las empresas que han facilitado el sustrato ideal para la aparición de nuevas enfermedades (y la AH1N1 es sólo una de varias enfermedades que han surgido de la producción industrial de animales), los consumidores bien pueden comprar carne de cerdo a productores locales que críen a sus cerdos en mejores condiciones que las de las fábricas de carne. Productores, por ejemplo, de carne ecológica, o de cerdos criados en condiciones de libertad. De eso trata el consumo responsable. A parte queda la cuestión de la cantidad de ingesta de carne del ciudadano medio, que también incide directamente en el riego de surgimiento y transmisión de enfermedades.

Muchos, por ejemplo, se dicen preocupados por el maltrato a los animales, o se erigen adoradores de sus mascotas, otros dicen preocuparse del medio ambiente, sin embargo, en sus acciones se manifiesta que no parece preocuparles el hecho de que la carne de cerdo que consumen llegue a sus mesas por procesos de producción moralmente cuestionables. Muchos consumidores prefieren poner de lado sus valores morales al comer y actúan movidos básicamente por el interés de su bolsillo, o en ocasiones sólo por el sabor de un jamón serrano... o incluso por el de un frankfurt.

Hoy en día hay una clara disociación entre los valores morales que decimos sostener y nuestras acciones a la hora de comprar; siendo el acto de comprar uno de los de mayor impacto acumulado que tendremos en nuestras vidas enmarcadas en un sistema capitalista. Con cada compra estamos sustentando una familia o una multinacional, desarrollando un modelo de producción, financiando una moral para hacer las cosas, soportando una filosofía, y, por eso, construyendo una ética. Son nuestras compras las que marcarán el rumbo del futuro cercano que legaremos a nuestros hijos.

lunes, 7 de septiembre de 2009

De cerdos, zoonosis y fábricas de carne… (1ª parte)

Se repite hasta la saciedad en los medios de información la medidas preventivas para el contagio de la Influenza de moda, la gripe A H1N1. En uno de esos medios acabo de escuchar un titular: el consumo de cerdo no origina la enfermedad que me ha hecho reflexionar y me ha impulsado a escribir. Tal afirmación es ambigua e induce, no sé si deliberadamente, a confusión: uno no se va a contagiar por consumir cerdo, cierto, pero sin embargo los niveles de consumo mundial de carne porcina, y sus métodos de producción, sí tienen que ver con la pandemia. Detrás de este asunto hay menos casualidad de la que a uno le gustaría creer, y menos transparencia de lo que cabría esperar. De hecho, hace ya unos años, después de la gripe aviar y del SARS, se esperaba una nueva pandemia, y algunos ya apuntaron a los cerdos como posible fuente.

Ya antes habían surgido variantes de influenza porcina: en 1976 en Fort Dix, EUA, y en 1988 en Wisconsin. En 1998 hubo otro brote en Carolina del Norte, a partir del cual empezaron a aparecer nuevas cepas más virulentas. Ese estado es el segundo mayor productor de cerdos en EUA, y por aquel entonces tenía una población de diez millones de cerdos. Pero aunque seis años antes sólo tenía dos millones, el número de granjas había disminuido. Eso quiere decir que se criaba a los cerdos en enormes granjas-fabrica , en condiciones de mayor hacinamiento que antes. Granjas muy tecnificadas que ofrecían criar cerdos más grandes, en menos tiempo y más baratos.

Carolina del Norte sólo refleja la tendencia dominante en los métodos de producción intensiva de cerdos en el mundo hoy en día. En 1975, había en Estados Unidos unas 660 mil granjas porcinas que producían alrededor de 69 millones de cerdos al año. La mayoría de estas granjas eran negocios familiares. Para 2004, el 90% de esas granjas había desaparecido: sólo había 69 mil granjas, pero el número de cerdos pasó a 103 millones al año. Las granjas familiares habían sido sustituidas por granjas intensivas (o para no caer en el eufemismo acuñado por ellos mismos: fábricas de carne) completamente tecnificadas que pertenecían a grandes corporaciones como Smithfield, ConAgra o ContiGroup, entre otros. En México, el país vecino, el 60% de la producción porcina proviene, hoy día, de fábricas de carne completamente tecnificadas. País donde ha aparecido la temida combinación de Influenza humana y porcina.

El hacinamiento de cerdos en las nuevas fábricas porcinas ha puesto las condiciones idoneas para una infección y transmisión muy efectiva de los agentes patógenos. Pero el hacinamiento es sólo uno de los elementos que ayudan en este caldo de cultivo. En estas granjas fábrica, a los cerdos se les inyecta antibióticos masivamente. Estos antibióticos no se suministran para curar a los cerdos ni para prevenir posibles enfermedades, sinó para que crezcan más rápido, porque son promotores de crecimiento, supuestamente matan bacterias que hacen más lento el desarrollo del animal. La constante administración de antibióticos a los cerdos termina afectándolos, debilitando su sistema inmunológico, limitando el desarrollo de bacterias benignas necesarias y haciéndolos más sensibles a distintos tipos de enfermedades. A demás, el uso indiscriminado de antibióticos para engorde ya tiene sus efectos negativos por sí mismo. Anteriormente el antibiótico usado era la vancomicina (muy importante para luchar contra Staphilococus Aureus Multiresistente o MRSA), que fue prohibida para engorde tras la masiva aparición de resistencias, y la posibilidad en el hotizonte de la combinación letal entre MSRA y la resistencia a vancomicina en un superbicho reistente a todo. Resultó que uno de los antibióticos más importantes para infecciones severas en humanos, casi queda inutilizado por su administración a cerdos para que crecieran más rápido.

Por último, y no menos importante, las fabricas de carne tienen un problema de mierda, literalmente. En la gestión de una granja familiar diversificada, los excrementos del cerdo representan un recurso de gran valor para fertilizar campos, y sus cantidades hacen del recurso algo manejable y sostenible. En cambio, las fábricas de carne, generan una cantidad inmunda de residuos muy difíciles de gestionar. Habitualmente se acumulan en charcas o piscinas al aire libre, a disposición de cualquier ave silvestre, que pueden contagiarse de cualquier enfermedad. Hasta hace poco se esparcían las heces por los campos a manguerazos o mediante aspersión (demasiadas veces mayor cantidad de la necesaria), vaporizando parte de su contenido, patógenos incluidos. Los purines son viejos conocidos aquí en Cataluña, como causantes de la contaminación de muchos acuíferos y sobrefertilización de terrenos.

La mayoría de los cerdos que se comen hoy día en los países llamados desarrollados, no han visto la luz directa del sol en sus vidas, han crecido privados de sus comportamientos naturales y a menudo han estado mutilados (i.e.: corte de orejas, rabo, limado de dientes y castración de machos). En las granjas fábrica no es difícil observar serias alteraciones del comportamiento, ya que sus vidas transcurren en salas de cemento bajo condiciones de estrés. El hacinamiento, los anitibióticos, el estrés, la acumulación de residuos y el manejo de las fábricas de carne, forman el sustrato ideal para el surgimiento y, especialmente, la transmisión de enfermedades. Si añadimos seres humanos y aves en el mismo recinto, el cóctel se torna explosivo, y la única pergunta que queda es cuándo.

Personalmente me preocupa la ausencia de información al respecto en los medios y la nula actuación en este sentido.

Ir a la segunda parte



[Actualización 28 de abril 2011] Artículo de Discovery Magazine sobre las fábricas de enfermedades 
[Actualización 16 de mayo 2012] Artículo en Nature sobre los conflictos de intereses entre agencias reguladoras e industria alimentaria. 
[Actualización 18 de  febrero 2013] Farm virus' can infect  wild animals

viernes, 4 de septiembre de 2009

La desaparició del mar d'Aral

Pocs cops la cicatriu que l'home deixa sobre la superfície terrestre és tant gràfica com en aquesta foto: les masses de color verd són l'aigua que encara queda del mar d'Aral, dividida, plena de contaminants i molt salada. La línia negra representa la costa al 1960.

El que era el quart mar interior més gran del món és, avui dia, un desert. El color blanc de la foto, que sembla neu, són acumulacions de sals. Aquest procés ha estat degut a l'ús desmesurat de l'aigua dels rius Amu Darya i Syr Darya, les principals fonts d'aigua per al mar d'Aral, destinad a l'irrigació. Actualment hi ha un projecte per intentar salvar la meitat nord, el que ha condemnat definitivament la meitat Sud.

La tragèdia humana no és millor que la ecològica; el menjar i la feina van morir amb el mar. Els cementiris s'omplen de persones i vaixells. Els càncers, els problemes respiratoris i la mortilatitat infantil són 30 cops més elevades del normal per la zona, i la tuberculosi i la desesperança s'extenen ràpidament. Problemes de salut principalment deguts a que l'aigua està fortament contaminada amb fertilitzants, sals i pesticides i també degut a la desnutrició.

En cincuanta anys hem estat capaços d'eborrar tot un ecosistema, i les comunitats que vivien d'ell, i en aquest cas tenir-ho ben documentat. El més trist és que no se si n'aprendrem alguna cosa.

Fonts: BBC, Orexca

jueves, 3 de septiembre de 2009

Multa récord per Pfizer

"L'extensió i la fermesa d'aquesta ressolució, inclosa l'enorme multa criminal de 1.300 milions de dòlars, mostren la serietat i trascendència dels crims de Pfizer" va dir Mike Loucks, fiscal intern del districte de Massachussets.

La companyia farmacèutica més gran del món, Pfizer ha acordat pagar una multa récord de 2.300 milions de dòlars, en un acord extrajudicial, per tal de tancar un cas amb el Departament de Justicia sobre les seves pràctiques fraudulentes per la venta d'alguns medicaments als EEUU. La compaía havia estat acusada de comercialitzar 4 medicaments anunciant un tractament diferent per als quals havien estat aprovats per la FDA. En el contenciós civil va ser condenada per soborns a professionals mèdics per a què receptessin els seus productes: l'antiflamatori Bextra (que fou retirat del mercat al 2005 pels efectes secundaris), el tractament per a l'esquizofrènia Geodon, l'antibiòtic Zyvox i l'analgèsic Lyrica.

Recentment Pfizer també ha estat portada als tribunals per un proves clíniques ilegals en nens, realitzades a Nigeria el 1996, conegut com el cas de Trovan a Kano. Durant una epidèmia de Meningitis, Pfizer va provar ilegalment, violant almenys dos dels articles de la declaració de Helsinki, el seu antibiòtic Trovan. Dels 200 nens "cobaia", 11 van morir i la resta desenvoluparen malformacions. Com a agreujant la FDA i la UE només van aprovar l'antibiòtic per adults, i la UE el va retirar pocs anys després pels danys hepàtics que produia. Pfizer en la seva defensa argumentà que hi havia un acord verbal amb els pares dels nens (quelcom que no te validesa legal, ni ética) i l'estat. El cas del Test Trovan, no es aillat i la història sona familar al sonat Experiment Tuskegee a Alabama, que implicaba els serveis de salud pública d'Estats Units. L'experiment fou pensat per observar la progressió de la sífilis quan no era tractada, i va tenir consecuències greus per almenys 399 persones, totes analfabetes i de raça negra, a qui se'ls donava placebo..

El pitjor que ja fa temps que circulen denúnices dels abusos que fan determinades companyies a l'Àfrica: experimentacions, contagis deliberats d'enfermetats,mala praxis... Els darrers casos amb certa trascendencia mediàtica, potser perque no hi havia multinacionals directament implicades, mostraren com a Líbia i a la R.D. del Congo metges i enferemeres de misons religioses etigueren involucrats en casos de mala praxis que conduiren a la mort de diverses persones. Però poc surt als encapçalaments dels medis informatius, i la veritat es quasi totes les farmacèutiques han passat pels tribunals dels EEUU per pràctiques fraudulentes.

Recentment hi ha un debat obert sobre la veracitat de la publicitat per part de les companyies en els fàrmacs (algunes han estat obligades a retirar anuncis poc verídics o condenandes a pagar multes per negar-s'hi), i la informació que reben els metges encarregats de receptar-los... I és que com deia en un post anterior sembla que s'ha convertit en molt més senzill avançar a cop de marquéting que per la capacitat d'innovació terapèutica.

Font BBC
Entrevista de la BBC a John Kopchinsky, el representat de Pfizer que va destapar les manipulacions deliberades de la multinacional.

miércoles, 2 de septiembre de 2009

Gens i terroristes. Com mantenir-los separats?

Els nous avenços en biologia sintética han posat ben aprop, per un grapat de dòlars, la possibilitat d’obtenir gens sintètics. Aquestes tècniques permeten una gran varietat d’estudis i aplicacions, el que ha fet proliferar companyies privades que es dediquen a la síntesi de novo de material genètic. Actualment hi ha unes 50 companyies amb mes de 50.000 ordres de gens a l’any.

El risc ve donat per com controlar què s’està secuenciant. És a dir, hipotèticament es podrien encarregar parts de virus, bacteries o toxines que podrien ser perilloses, i posar una arma biológica de primera linia en mans no desitjades.

Podríem pensar que el problema es podría solucionar al comparar les secuències encarregades amb les bases de dades munidals. Però no es una técnica del tot fiable, en part per ser una base incomplerta, però també per la falta de adaptabilitat, ja que les secüències d’ADN poden ser diferents a l’original i tot i així produir la mateixa proteína (ja sabeu un aminoàcid es codificat per tres codons, i en alguns casos podem canviar els codons donant el mateix aminoàcid). Per altra banda el “gen terrorista” podria ser encarregat per separat a diferents compañies i després reconstruit. Aquestes dues són només les possibilitats més senzilles d’actuació, però n’hi ha múltiples
El primer portocol adreçat a gestionar aquest risc va sorgir IASB (International Association of Sinthetic Biology) fa un any, opina que la intervenció humana es fonamental i és necessària per tal d’apropar-se auns bons nivells de seguretat. Però els costos d’una supervisió humana disparan el preu dels serveis i això sembla que no ha agradat a les companyies involucrades.

Fa tot just un mes DNA2.0 de Menlo Park, California, i Geneart de Regensburg, Alemanya, dues companyies de biologia sintètica van afirmar haver trobat un protocol vàlid sense intervenció humana (o el que és el mateix, amb un cost molt inferior). Es tracta d’un procés tipus mínim comú denomidaor, s’usa una llista de gens per comparar mitjançant BLAST (Basic Local Alignment Search Tool) i es determina un llindar de similaitat per tal de descartar o aceptar l’ordre. Els experts ténen dubtes de la fiabilitat del sistema, jo també.

Aquí resta un exemple més de l’aparent contraposició d’interessos de les empreses i la seguretat. El benefici ràpid, oposat al treball metòdic per una trajectoria segura. La mentalitat empresarial envers la científica… La llebre i la toturga… El llest i l’intel·ligent