HABLANDO DE ENERGIA 11

LOS RESIDUOS RADIACTIVOS

almacen-habog

ATC RESIDUOS ALTA ACTIVIDAD DE HABOG HOLANDA

Quiero empezar este artículo con una frase tomada del libro de D. Fernando Savater “La vida eterna”:

Nos pasamos la mayor parte de nuestra vida preocupados por cosas que ni han sucedido ni van a suceder.

¿Son peligrosos los residuos radiactivos? Por supuesto: residuos, radiactividad, alta actividad… ¿Quién no conoce el símbolo de la radioactividad? ¿Quién no ha escuchado alguna vez que sus efectos duran millones de años? Todos  sabemos que son peligrosísimos, especialmente  si se nos ocurre darnos un baño en la piscina donde se almacenan recién sacados del reactor.

Ante el temor irracional a las centrales nucleares y los apocalípticos males que según algunos pueden ocasionar, vamos a echar un vistazo a otras actividades humanas, algunas conectadas con la producción de energía y otras no.

¿Son los únicos residuos industriales dañinos o altamente tóxicos? Evidentemente no y por ello sería deseable que la totalidad de los residuos de todas las industrias fueran tratados como los radiactivos, es decir, que se mantuvieran localizados y controlados y no dispersos sin control alguno en la naturaleza.

¿Conoce algunas de esas sustancias altamente tóxicas? Pues aquí va una pequeñísima muestra de las que se manejan a diario por la industria: cloruro de hidrógeno y ácido clorhídrico (limpieza, tratamiento y galvanización de metales, refinación y manufactura de una amplia variedad de productos); cianuro (sustancia química extremadamente venenosa, de uso industrial en la galvanoplastia de electrodeposición de zinc, oro, cobre y plata); amoníaco (fabricación de abonos y fertilizantes, textiles, plásticos, explosivos, pulpa para  papel, alimentos y bebidas, productos de limpieza domésticos, refrigerantes y otros productos), arsénico (insecticidas, herbicidas y decolorantes de la madera, otro potente veneno) y una larga lista de otros productos muy nocivos para salud de las personas y del planeta. Por desgracia el control solo se exige a  la industria nuclear, la bestia negra de los ecologistas, ignorando (o casi) el resto de los riesgos.

El conjunto de las centrales térmicas de combustibles fósiles en España (26 de carbón, 5 mixtas y 32 de ciclo combinado) emiten a la atmosfera 225 millones de toneladas de CO2 al año (una media de 428 toneladas por minuto); emiten además,  dióxido de azufre y de nitrógeno (que como vimos en el artículo Nº 4, dedicado a las térmicas de carbón, al combinarse con la humedad de la atmosfera se transforman en ácido sulfúrico y nítrico y provocan la lluvia ácida); cenizas, trazas de todo tipo de metales, como plomo y cadmio. Por último, también se emiten, entre las cenizas, uranio, radio y torio, que se encuentran presentes en algunas partes por millón en el carbón. Son además una fuente del gas radioactivo radón, la fuente  natural más peligrosa de radioactividad.

Según un informe hecho público este año por la Agencia Europea de Medio Ambiente (AEMA), la contaminación atmosférica producida por esas emisiones es responsable de 524.000 muertes prematuras al año en Europa (PEV-Perdida de Esperanza de Vida), de las que 432.000 se deben a la exposición continuada a las partículas en suspensión más finas, 75.000 por dióxido de nitrógeno (NO2) y 17.000 por ozono troposférico (O3).

El estudio, de 64 páginas y titulado “La calidad del aire en Europa. Informe 2015”, indica que “la contaminación del aire es el mayor riesgo de salud ambiental en Europa”, puesto que “acorta la esperanza de vida de las personas y contribuye a enfermedades graves, como enfermedades del corazón, problemas respiratorios y cáncer”.

El informe cuantifica las muertes prematuras asociadas a la polución en 40 países europeos, incluidos los 28 de la UE, con datos correspondientes a 2012. España ocupa la sexta posición, con 33.200 víctimas mortales, sólo por detrás de Italia (84.400), Alemania (72.000), Francia (52.600), Reino Unido (52.430) y Polonia (47.300).

La minería del carbón ha sido, desde sus inicios, una actividad muy peligrosa.  Sólo en los EE.UU., más de 100.000 mineros de carbón murieron en accidentes en el siglo XX, con más de 3.200 muertos tan sólo en 1907. Los peligros de la minería subterránea incluyen asfixia, intoxicación por gas, hundimiento del techo y las explosiones de gas. Las explosiones por gas grisú pueden desencadenar explosiones del polvo de carbón en suspensión mucho más peligrosas porque pueden afectar a toda una fosa o galería.

En países desarrollados, con las explotaciones a cielo abierto, ha disminuido la mortalidad sin embargo, en los países menos desarrollados y algunos países en desarrollo (precisamente los que venden el carbón más barato), muchos mineros siguen muriendo cada año, ya sea por accidentes directos en minas de carbón o por consecuencias adversas de salud. China, tiene el mayor índice de muertes relacionados con la minería de carbón. Sus estadísticas oficiales declaran 6.027 muertes ocurridas solo en 2004. En los EEUU hubo tan solo 28 muertes  el mismo año. La producción de carbón en China es el doble de la de EEUU, siendo el número de mineros 50 veces mayor, lo que hace que las muertes en las minas chinas sean más elevadas por trabajador empleado. Creo que todos tenemos en nuestra memoria reciente terribles accidentes mineros en diversas partes del mundo.

Enfermedades pulmonares crónicas, como la neumoconiosis (que se produce por la inhalación de polvo y la acumulación de residuos sólidos inorgánicos o partículas orgánicas en los bronquios, los ganglios linfáticos o el parénquima pulmonar: silicosis y asbestosis las más frecuentes), fueron comunes en los mineros, llevando a una drástica reducción de su esperanza de vida. En algunos países mineros, estas enfermedades son aún comunes. 4.000 nuevos casos cada año en USA y 10.000 nuevos casos en China.

El tsunami del año  2.000 que ocasionó más de 230.000 víctimas en las costas del Océano Índico es el de mayor número de víctimas que se recuerda en una catástrofe natural; el de Japón que destruyó la central de Fukushima ocasionó, según la Policía Nacional japonesa, 15.845 muertes, 3.380 desaparecidos y 5.893 heridos. El análisis de los 13.135 cuerpos recuperados  reveló que el 92.5 % de los fallecidos murieron ahogados, hubo 50 suicidios y otras causas, pero ningún fallecido a causa de la radiación. Las víctimas de  los accidentes de tráfico a nivel mundial cuyos datos no he sido capaz de encontrar o cuantificar (solamente la UE contabilizó un total de 26.000 fallecimientos y 135.000 heridos graves en carretera en 2015. ¿Se debería prohibir el automóvil?); los accidentes aéreos y ferroviarios; los frecuentes huracanes en el Caribe y Estados Unidos; terremotos de diversa magnitud y entrada en actividad de volcanes a lo largo y ancho del mundo…  son fenómenos aceptados con naturalidad sin que el miedo nos obsesione.

Mientras, en estos periodos, ¿cuántas muertes se han producido debidas a accidentes en la energía nuclear?  En la entrada anterior se reflejaron los tres más graves y su número de víctimas, es irrelevante con relación a las reflejadas arriba. De hecho solo en dos de ellos hubo fallecidos, en uno de los cuales fueron solo 2. Sin embargo la psicosis, el miedo, acerca de los peligros de esta energía son patológicos e injustificados. En Francia, con 58 centrales nucleares funcionando  desde los años 70. ¿Recuerda alguien algún accidente, alguna fatalidad debida a la radiactividad en esas centrales?

¿Hay más muertes anualmente por accidentes aéreos que por la energía nuclear? Sin duda alguna. En el año 2012, según el informe anual de IATA fueron 414 personas. Los años 2013 al 15, han sido negros por la siniestralidad aeronáutica. El aumento de la capacidad de las modernas aeronaves hace que los siniestros cada vez  ocasionen mayor cantidad de víctimas. ¿Sería lógico prohibir el transporte aéreo por ello? La respuesta la dejo a criterio del lector.

Quiero también reseñar  el impacto del tráfico aéreo en la contaminación ambiental. Según el mismo informe IATA, en ese año, el número de vuelos civiles en el mundo fue de 29,6 millones, en los que se transportaron 2.970 millones de pasajeros. Las emisiones de CO2 fueron 12 millones de toneladas. Además de estas emisiones, se emiten también óxidos de nitrógeno (NO3) que contribuyen mucho a la formación de Ozono (O3). El vapor de agua emitido por las grandes aeronaves, forma estelas de condensación que dan a lugar a formación de cirrus que también influyen en el calentamiento global. También liberan hollín y partículas de sulfatos, residuos del combustible que utilizan. Todo ello influye en la formación de nubes y surte efecto en el calentamiento atmosférico.

Existen organizaciones cuyo único objeto parece ser atacar de continuo algunas  actividades industriales al tiempo que ignoran los peligros de otras.  Y no siempre haciendo gala de veracidad y honestidad en sus argumentos, lo que me lleva a preguntarme desde hace tiempo, a quien sirven realmente y como se financian. Hay un interesante libro del profesor Bjorn Lomborg (El ecologista escéptico-Ed. Espasa hoy) antiguo miembro de Greenpeace, en el que hace un concienzudo trabajo profesional de evaluaciones imparciales de muchos temas y previsiones alarmistas que se utilizan para mantener el “mantra” ecologista, mostrando su falsedad  y mostrando que en algunos casos que consiguieron imponer sus ideas acabaron con catastróficos resultados. Me viene a la memoria la prohibición del DDT, que disparó de nuevo la malaria y el paludismo en África y Sudamérica cuando casi se había erradicado el vector de transmisión con el uso de ese insecticida. La experiencia desde entonces ha  demostrado donde se sigue usando, que los efectos nocivos que se atribuían al mismo, eran muy inferiores a sus beneficios y en ningún caso tan terroríficos como se alegaban.

En estudios actuariales de seguros, en los que se evalúan  los riesgos de pérdida de esperanza de vida (PEV) debido a diversas causas para calcular las primas aplicables en función de las actividades, los resultados son sorprendentes. Voy a reproducir los que encabezan la lista y algunos muy curiosos. Reflejo el riesgo y la PEV en días:

Riesgo: Pobreza, PEV: 3.500 días; fumar cigarrillos, 2.300; Enfermedades cardiovasculares, 2.100; Soltería, 2.000; Minero de Carbón, 1.100; 15 kg. de sobrepeso, 980; Alcoholismo, 230; Accidentes de trabajo, 74; caídas, 39; vivir en la vecindad de una central nuclear, 0,04.

Tras todo lo anteriormente expuesto, tendremos que llegar a la conclusión de que  el OFICIO DEVIVIR ES PELIGROSO, y el final,  marcado desde el nacimiento, termina siempre igual. Pero no podemos estar permanentemente atenazados por el temor del inevitable final. Todos deseamos que llegue lo más tarde posible pero nuestros deseos no suelen mandar en las circunstancias externas de nuestra vida y así hay que aceptarlo.  De una forma u otra, antes o después, el final es el mismo. Pues eso.

Todo ello hace muy difícil entender la actitud antinuclear de los grupos ecologistas cuando existe un peligro más grave que empieza a ser irreversible según un grupo de científicos encabezados por el profesor Lovelock: un cambio climático de consecuencias imprevisibles para el mundo, aunque día a día vamos percibiendo sus efectos.

Un amigo que vive a unos 40 Km de una central nuclear me comentaba su preocupación por el “grave problema” que supone que los residuos se almacenen en las “piscinas” de las centrales, con lo que mostraba un radical desconocimiento del tema.  En efecto, el combustible usado pasa entre 10 y 30 años en las piscinas de las centrales nucleares, donde su radioactividad se reduce de forma drástica. El único problema es el espacio. Con los años los tanques  de almacenamiento se llenan y es preciso sacar parte del combustible gastado. Cuanto más tiempo permanecen los residuos en las piscinas más baja es su radiactividad y más fáciles son de manipular. Mantenerlos almacenados un tiempo y no destruirlos posibilita reprocesarlos en algún momento, utilizándolos, por ejemplo, como combustible para los futuros reactores de fusión, tras lo que quedarán como un material casi inerte.

La fecha prevista de saturación de los tanques en las siete centrales operativas en España, variaba entre el año 2013 y el 2022. En cualquier caso, los tanques no tienen capacidad para almacenar los residuos de un accidente de grandes proporciones. Tras el incendio de la central de Vandellós en 1989, hubo que extraer y controlar los residuos generados, en su mayor parte chatarra industrial contaminada. Como España no cuenta con ningún almacén para residuos de alta actividad, se decidió llevarlos a Francia que cuenta con esas instalaciones. El coste de ese almacenamiento es de 10 millones de pesetas diarios (60.000 euros). Desde el 1º de enero de 1990 hasta el 31 de diciembre de 2015 han transcurrido 9.495 días.  El importe total pagado ascendería a 569,7 millones de euros. Creo que el coste presupuestado del ATC (Almacén Temporal Centralizado) de Villar de Cañas es de unos 900 millones de euros actuales. Si se hubiera hecho en su momento, con mucho menos de lo pagado a Francia estaría terminado, teniendo en cuenta la variación de la paridad del poder de compra (PPP) entre 1990 y la actualidad.

España, se hará cargo de sus desechos cuando por fin (¿?) se termine un ATC como los que ya existen en los  países con infraestructura nuclear. La fecha límite era 2015 y de momento se ha aplazado hasta 2017, sólo entonces sabremos si tendremos que seguir pagando a un tercer país por el almacenaje de nuestros residuos, aunque una normativa de la UE no permite el almacenamiento indefinido de residuos de alta actividad de un país europeo en otro, por lo que habrá que darle una solución definitiva.

Desde 1961 existe un almacén para residuos de baja y media actividad en El Cabril, Córdoba, donde existió una mina de uranio ahora agotada. Según estimaciones de 2004 se encontrará lleno cerca del año 2030. Recibe anualmente unos 3.000 bidones (más de 1.000 metros cúbicos). De ellos, cerca del 95% procede de las siete centrales nucleares que se encuentran en producción y el resto llega de hospitales, universidades y laboratorios de investigación públicos y privados. El almacenamiento es un bunker de superficie que alberga los residuos en recipientes adecuados.

Los ATC se diseñan para resistir todo tipo de desastres: inundaciones, tornados, misiles y cambios extremos de temperatura. Cuando los residuos han pasado más de diez años en la piscina, su actividad ha disminuido de tal manera que previa preparación, se introducen en barriles secos con un blindaje de doble capa que detiene por completo la radiación gamma, emitiendo al exterior únicamente calor a temperatura  similar al de la calefacción doméstica.

El Sr. James Lovelock, con su habitual mordacidad, ha ofrecido el jardín de su casa para almacenar algunos barriles secos o residuos vitrificados, con la pretensión de aprovechar la energía térmica que producen. No me importaría adherirme a la propuesta considerando el precio del gasóleo para calefacción. La idea no es ningún disparate; es perfectamente factible,está patentaday las únicas razones para no llevarla a la práctica son “políticas”, por llamarlas de alguna manera.

¿Dónde almacenarlos? Bernard Cohen y James Lovelock sugieren dos alternativas para librarse de ellos. El primero propone arrojarlos a los fondos  marinos. El segundo, repartirlos por la selva del Amazonas y otros entornos naturales que considera sagrados, a fin de protegerlos de la invasión humana.

La propuesta de Cohen es perfectamente sensata desde el punto de vista científico. Los residuos, una vez vitrificados se alojan en contenedores de gruesas paredes de acero inoxidable, titanio o zircaloy (la aleación con que se construyen las vasijas de los reactores) que pueden aguantar miles o decenas de miles de años sin corroerse. El vidrio es insoluble en el agua. En los ríos Tigris y Éufrates se han encontrado objetos de vidrio de las civilizaciones Sumeria (extinguida el 2.000 a.C.) y Babilónica (extinguida el 539 a.C.), en buen estado; también se han encontrado recipientes y adornos de cristal en pecios submarinos de barcos fenicios y griegos foceos de más de 2.500 años. Piezas de todas estas civilizaciones se pueden ver en  los museos arqueológicos.  Si esos vidrios han resistido en buen estado con técnicas de fabricación primitivas, con las técnicas actuales de fabricación pueden durar muchos miles de años más.

La totalidad de los residuos radioactivos producidos hasta la fecha por la industria nuclear mundial cabe más o menos en unas 100 hectáreas. Asumiendo que el número de centrales aumentara 10 veces y que operaran durante 500 años más, llenaríamos unos 10 kilómetros cuadrados, que no son nada comparados con los más de 350 millones de kilómetros cuadrados de océanos.  La Dorsal Centro Atlántica, una espectacular cordillera submarina que va desde Islandia hasta las estribaciones de la Antártida, tiene en su fondo unas placas tectónicas que se mueven al ritmo de unos 10 centímetros por año. Las cumbres de esa cordillera submarina, tienen alturas sobre el fondo marino de entre 2.500 y 3.000 metros y sus más altas cumbres están a profundidades similares de la superficie del mar. El punto más profundo de los océanos,  el Abismo Challenger, que se encuentra en la fosa de las Marianas es más profundo que la altura del Everest. Es tan profundo que si se situara el Everest en su fondo le faltarían más de 2 km para llegar a la superficie.

Hay cordilleras parecidas en todos los océanos que están enlazadas entre sí formando una red submarina de unos 70.000 kilómetros de longitud. Las fosas entre cordilleras tienen anchuras de entre 2.000 y 4.000 kilómetros y su abismo central lo forman hoces impresionantes de laderas casi verticales.[i]

Si los contenedores se lanzaran a lugares bien elegidos terminarían cubiertos de roca sedimentaria a esas profundidades y, con el tiempo,  engullidos por los movimientos de las placas tectónicas que los harían inocuos para la vida y el planeta en su conjunto hasta el fin de los tiempos. No parece haber ninguna razón para no resolver el «problema de los residuos» de esta manera sencilla, económica y segura.

De hecho, el terremoto y el consiguiente tsunami que arrasó la región de Fukushima en 2011 (al igual que el que se produjo el pasado día 21 de noviembre de 2016), se debió según el servicio meteorológico de Japón, “al desplazamiento entre placas de subducción entre la placa del Pacifico y la  Norteamericana. Esta placa se desplaza en dirección oeste a una velocidad de 83 mm/año. La placa del Pacífico se mete debajo de Japón, en la fosa del Japón, y se hunde en dirección oeste debajo de Asia.” Casi con seguridad esa es la causa del aumento de altura del monte Everest, que según recientes mediciones  se está elevando y moviéndose hacia el noreste, motivado por la tectónica de placas de la zona asiática. Dos fuentes han cuantificado la velocidad del movimiento estimándolo en 4 mm al año en elevación y entre 3 y 6 mm hacia el noreste[iii].

La propuesta de Lovelock, siempre provocativa, se basa en la constatación de que en la zona de Chernóbil la naturaleza, animal y vegetal,  ha vuelto de forma pujante. Se han desarrollado frondosos bosques  y, lejos de aparecer mamíferos mutantes o insectos gigantes, las especies autóctonas parecen gozar de una estupenda salud y una elevada  fertilidad,  mejorada por el hecho de que no son consideradas comestibles. A partir de ahí Lovelock deduce de forma lógica que los residuos harían un gran favor a la vida salvaje en el Amazonas que está siendo deforestada de forma atroz,  porque mantendrían a los humanos alejados de la jungla donde se están cometiendo auténticos crímenes contra el equilibrio ecológico de esa zona vital para el mundo.

En su libro último “La venganza de Gaia” nos dice James Lovelock: “La preferencia de la vida salvaje por lugares donde abundan los residuos nucleares (refiriéndose a Chernóbil) sugiere que los mejores lugares para almacenarlos son las selvas tropicales y otros entornos naturales necesitados de un guardián fiable que les proteja de la destrucción por granjeros hambrientos y ávidos constructores”.

Como apunté en mi entrada anterior Chernóbil se ha convertido en uno de los sitios turísticos más visitados de Ucrania (ver los enlaces en la entrada anterior). Un turista español tras su visita a Chernóbil y su entorno escribió en el libro de visitas: “Tras esta visita estoy convencido de que el factor más dañino para la naturaleza no es la radioactividad, sino el ser humano”.  Estoy totalmente de acuerdo.

Otra alternativa distinta de las sugeridas por Cohen y Lovelock consiste en  almacenar los residuos en un depósito geológico profundo apropiado, como se está haciendo en Finlandia y en USA. Existen multitud de depósitos posibles en el planeta, lo bastante espaciosos, secos y estables. Encontrarlos no es un problema técnico, es, una vez más, un problema político. El profesor José Díaz,  catedrático de Física Nuclear de la U. de Valencia, cree que los residuos radioactivos serán útiles en el futuro cercano, bien como combustible en la energía de fusión, bien en aplicaciones tecnológicas.  Otra línea de investigación muy esperanzadora trabaja en la transmutación de los isotopos que forman los residuos, en otros menos activos y de vida más breve.

¿Quién paga la gestión de los residuos radiactivos? ¿La paga el consumidor? Son muchos los que se hacen esta pregunta y la respuesta es muy clara: NO, la pagan los que generan dichos residuos. Estos costes se financian a través del “Fondo para la financiación de las actividades del PGRR” que es gestionado y administrado por ENRESA y controlado por un órgano interministerial externo, el Comité de Seguimiento y Control. Se trata de un sistema de prefinanciación que asegura los medios económicos necesarios para la gestión de los residuos radiactivos en el presente y en el futuro. ENRESA cobra directamente a las empresas titulares de las centrales nucleares una cantidad que varía en función de su producción. También aportan dinero a dicho Fondo, todas las instalaciones de cualquier tipo que generan residuos radiactivos.

Por lo tanto, cuando se afirma que el coste de generación de la energía nuclear, es más barato que el de otras energías, debe de considerarse que en él, se incluye la gestión del combustible gastado, el cierre y  desmantelamiento de las centrales y de la fábrica de elementos combustibles de Juzbado, así como las relativas a la construcción, operación, cierre y sellado de las instalaciones de almacenamiento de RBMA y las correspondientes al almacenamiento temporal y definitivo del CG y RAA[iv], el ATC y un posible AGP (almacén geológico profundo) o las actividades de I+D necesarias para la solución de separación y transmutación de los residuos. Cada año se actualizan los valores que deben aportar las CN que oscila entre 0,316 y 0,348 € por kWh producido.

No tengo conocimiento de que al resto de plantas de energía, de cualquier tipo, se les haya obligado a crear unas reservas para desmantelar y gestionar los residuos procedentes de las instalaciones térmicas de otros tipos, fotovoltaicas y eólicas. Probablemente, en especial en el caso de las fotovoltaicas, estamos abocados a contemplar unos campos llenos de chatarra inservible que nadie va a retirar cuando termine su vida útil…

[i] “Los hilos de Ariadna. Diez descubrimientos científicos que cambiaron la visión del mundo”, Debate, Barcelona, 2007.Profesor Manuel Lozano Leyva

[iii] Fundación Suiza para la Investigación Alpina y National Geographic de USA.

[iv] RBMA: residuos de media y baja actividad; CG: combustible gastado; RAA: residuos de alta actividad.

Una interesante presentación para los que quieran conocer cómo es un ATC de última generación, como el proyectado para Villar de Cañas.

http://www.villardecanas.es/ATC/riesgo.pdf

HABLANDO DE ENERGIA 9

EL FUTURO DE LA ENERGIA NUCLEAR

interior reactor fusion

Interior del reactor tipo Tokamac

La oposición a la energía nuclear ha calado en la población de muchos países desarrollados de una forma tan irracional e intensa que ha llevado a los políticos, siempre más preocupados por los votos que por el bien del país, a no atreverse a hablar racionalmente del tema, con grave perjuicio para el país y sus ciudadanos.

Echando la vista atrás en la historia, hay recordar los disturbios de julio de 1854 en Cataluña por las llamadas “selfactinas” (máquinas para mecanizar el hilado) o los ataques de la organización anarquista Mano Negra de 1882/3 por los nuevos sistemas de trabajo mecanizado en Andalucía que aumentaba el paro. Fue especialmente duro en la zona de Jerez de la Frontera. Ambas cosas, imprescindibles hoy en la industria textil y la agricultura. Más recientemente, conocí en Francia directamente, en 1981, los problemas con las nuevas máquinas cosechadoras de vid. Llegaron a quemar varias, que los seguros no quisieron asegurar en aquellos momentos previendo los problemas; ¿concibe alguien en la actualidad la agricultura sin tractores y cosechadoras o la industria textil sin las hiladoras y telares mecánicos?

Creo firmemente que el futuro de la generación de energía a partir del núcleo atómico, a plazo más o menos largo, es inexorable. Los países que tuvieron la visión de apostar por el desarrollo de esa energía en momentos en que era cara y el petróleo barato y abundante, han afrontado hasta ahora y sin duda lo seguirán haciendo en el futuro las posibles carencias energéticas con mayores posibilidades de éxito que los demás. Hay que citar en primer lugar a Francia y su apuesta decidida por esa energía (datos de 2007: obtenía el 78% de su electricidad de sus 58 centrales nucleares), y al resto de países que obtienen más de un tercio de su electricidad de sus centrales nucleares: Bélgica (54%), Suecia (48,0%), Suiza (37%), Corea del Sur (39%), Japón (30%), Ukrania (47%), y el resto de países de la órbita de la antigua URSS, están alrededor el 40/50%, etc.

Recuerden a Mitterrand en los años 70 en la TV francesa dirigiéndose a sus conciudadanos: “No tenemos petróleo, no tenemos gas, NO TENEMOS ELECCIÓN”. Con esta fase se inició el gran programa nuclear francés. Programa que en todos sus años de funcionamiento no ha ocasionado ningún incidente reseñable. Disfruta Francia gracias a la visión de sus gobernantes de la energía eléctrica más limpia y barata de Europa.

Para terminar esta serie, quiero hacer un apunte breve de los desarrollos próximos y futuros de la producción de electricidad con tecnología nuclear. Los últimos diseños de los reactores, que se clasifican por generaciones, han avanzado en aspectos como el aumento de la seguridad, optimización del consumo del combustible y disminución de los residuos.

De este tipo son las centrales nucleares de tercera generación que se están construyendo en Europa, concretamente en Olkiluoto, en Finlandia, y Normandía, en Francia. Son reactores de gran potencia, concretamente 1.600 MW. En USA han desarrollado diseños que proporcionan menos energía pero que poseen mayor seguridad. Son los AP600 y AP1000, (ADVANCED PASSIVE y la potencia en MW). Estos diseños están basados en los actuales de agua ligera a presión (PWR) pero el reactor está inmerso en un tanque de agua borada (el boro es un eficaz absorbente de neutrones) de modo que a la mínima pérdida de refrigerante o de presión, la reacción en cadena se detiene sin intervención humana. Parece que Finlandia, Francia y Gran Bretaña están dispuestas a construir ocho reactores de este tipo además de los dos que están en construcción.

En el diseño de estos nuevos reactores se ha cuidado sobre todo el bloqueo de las posibles fugas al exterior. Es decir, se trata de evitar totalmente la necesidad de evacuar la población en caso de accidente. También se ha conseguido aumentar la eficiencia energética por la optimización de la utilización del combustible y reducción de los residuos.

Hay un tipo muy interesante de mini reactores, denominados HTR (reactores de alta temperatura) que son de alrededor de 100 MW de potencia. Se han ensayado y descartado algunos modelos pero el más prometedor y que mejor funciona es un diseño sudafricano (Sudáfrica nunca ha dejado de investigar el desarrollo nuclear industrial) el PBMR. La traducción libre del nombre es “reactor nuclear de lecho de guijarros (o pellets)”. Es una enorme vasija llena de unas bolas de tamaño similar a las de golf o billar, de carburo de silicio, material cerámico muy resistente, que a su vez contienen en su interior otras más pequeñas (parecidas a los “M&M”) del mismo material, que albergan en su interior una pequeña cantidad de combustible. El recipiente está dentro de la vasija del reactor con sus elementos de control y seguridad.

pebble_bed_nuclear_plant_source_euronuclearorgEsquema del reactor de cantos rodados

El funcionamiento no puede ser más simple: se inyecta gas helio a presión que fluye entre los “pellets”, que están a alta temperatura por la reacción nuclear. Al enfriarlas, el gas se calienta hasta una temperatura de casi 1.000ºC y se inyecta directamente en el mecanismo que mueve la turbina. El helio enfriado por la pérdida de calor que ha conllevado mover la turbina, vuelve a la vasija calentándose de nuevo e iniciando el ciclo. Alcanzan una potencia de 250 MW. Si hay algún sobrecalentamiento por anomalía de funcionamiento, el material cerámico se fundiría y bloquearía la reacción. En caso de que alguna pieza llegara a fraccionarse contaminando el resto de las piezas, habría una pérdida de eficacia, y en el caso improbable de que llegara a fundir todo el reactor, lo más grave que provocaría sería una gran pérdida económica.

Como casi todas las cosas de este mundo, presentan ventajas e inconvenientes. Por su pequeño tamaño, tienen infinidad de ventajas. Por ejemplo, se pueden ubicar en las proximidades de los lugares que más energía demandan haciendo innecesarios los grandes transportes de electricidad con sus enormes torres y evitando las pérdidas y costes que ello supone. También pueden ser subterráneos obteniendo un plus de seguridad. En algunos modelos, no es necesaria la recarga de combustible: cuando se agota, lo que sucede entre treinta y cincuenta años, se cierra la central. En los modelos que sí se pueden recargar, el combustible consumido permanece perfectamente encapsulado en los pellets y listo para su almacenamiento definitivo si no se desea reprocesar, tarea difícil, por la dureza de los pellets.

4SInstallation

Esquema del reactor 4S de Toshiba

Por último, no resisto la tentación de presentar un reactor que con más propiedad podría llamarse una “pila atómica o batería nuclear”. Se les llama 4S (Super Safe, Small and Simple). Su potencia oscila de 10 a 50 MW. El modelo 45 de la japonesa TOSHIBA, es un reactor con una vasija de 70 cms. de diámetro y 2 metros de altura que se entierra a unos 30 metros de profundidad. El edificio en superficie que alberga las turbinas,  generadores y controles es de 22x16x11 metros. Genera electricidad entre 30 y 50 años, al cabo de los cuales se queda enterrado donde está.

Apenas tiene partes móviles porque utiliza paneles reflectores de neutrones. Tampoco tiene varillas de control porque funciona en régimen de neutrones rápidos. Su combustible inicial es 238U con el contenido habitual de 235U. Pero, como vimos anteriormente, al bombardear  el 238U se transforma en Plutonio por lo que no solo utiliza el 3% del uranio fisionable 235U, sino el 97% restante convertido en Plutonio. Ello le permite una vida activa muy larga con una cantidad de combustible inicial relativamente pequeña.

Parece que está previsto instalar un reactor de este tipo en Galena, Alaska, pequeña ciudad (470 habitantes en 2010) que queda totalmente aislada gran parte del año por el hielo y la nieve. Hasta ahora la solución ha sido almacenar cinco o seis millones de litros de gasoil para generar electricidad, solución costosa y contaminante.  Con una batería Toshiba 4S, el problema quedaría resuelto con un edificio como una casa pequeña de dos plantas y a unos 10 céntimos de euro el kWh durante varias décadas.

La solución para esa pequeña ciudad de Alaska es difícilmente aplicable a escala mundial. Cada barrio y pueblo tendría su propia batería nuclear y se acabarían las pérdidas por transporte en las líneas de alta tensión. Pero dejar el planeta sembrado de multitud de pequeños depósitos subterráneos llenos de residuos radiactivos de larga actividad, no parece ni  seguro ni razonable.

LA FUSIÓN NUCLEAR

 Hay que terminar este repaso del futuro de la energía nuclear mencionando lo que muchos científicos consideran la solución definitiva de nuestras necesidades energéticas: la FUSIÓN nuclear.

La fusión nuclear es lo contrario de lo que hemos visto hasta ahora, es decir, la unión de núcleos atómicos ligeros para dar lugar a otros  más pesados. La reacción sobre la que más se está investigando es la que se lleva a cabo con los dos isótopos del hidrógeno, el  Deuterio (un protón y un neutrón) y el Tritio (un protón y dos neutrones) que formarían gas helio (dos neutrones y dos protones). En el proceso queda libre un neutrón que sale disparado liberando gran cantidad de energía.

Los combustibles primarios son baratos, abundantes y repartidos geográficamente de manera uniforme (el agua de los lagos y los océanos contiene hidrógeno pesado suficiente para millones de años, al ritmo actual de consumo de energía). El Deuterio no es radioactivo y el Tritio, que si lo es, se produce dentro del propio reactor a partir de litio. Es un sistema intrínsecamente seguro: el reactor sólo contiene el combustible para los diez segundos siguientes de operación. La reacción de fusión no es una reacción en cadena, por lo que no es posible que se pierda el control. En cualquier momento se puede parar la reacción, cerrando sencillamente el suministro de combustible. La fusión no produce gases de efecto invernadero; la reacción en sí sólo produce helio, un gas ligero no nocivo. Cuando se consiga puede ser una fuente de energía prácticamente inagotable.

Pero en la práctica es muy complicado. Como ambos tienen un protón, partícula con carga eléctrica de mismo signo, se repelen. Y para que la fusión se lleve a cabo de manera crítica, o sea generando  más energía que la que se consume en todo el proceso, han de aproximarse hasta casi tocarse. Hay dos formas de vencer la repulsión. Una, acelerando uno de los núcleos y lanzándolo contra el  otro, lo que se hace en los aceleradores de partículas. El otro es aumentar la temperatura de un medio lleno de Deuterio y Tritio hasta que la energía térmica permita superar la barrera eléctrica. Pero ésta es tan fuerte que exige unos cien millones de grados de temperatura. Es la temperatura que tienen las estrellas y la energía que les da esa luminosidad que nos permita verlas a millones de años luz de distancia.

Hasta ahora, lo anterior no se ha conseguido, pero los avances han sido espectaculares. Los proyectos de investigación son cada vez más ambiciosos y caros, llegando hasta tal punto que de los planes nacionales, en varias etapas, se ha pasado a un plan mundial. Así de cara resulta esta investigación. Las esperanzas están puestas en el ITER (INTERNACIONAL TERMONUCLEAR EXPERIMENTAL REACTOR) proyectado como instalación experimental para demostrar que la energía de fusión es viable industrialmente. Esto permitirá, sobre todo, estudiar componentes, materiales, fenómenos y comportamientos para que el siguiente paso, que ya tiene nombre,  DEMO, sea algo próximo a un reactor industrial.

El ITER, se está construyendo en Cadarache, Francia, el país que apostó antes y más firmemente que ningún otro por la energía nuclear. Pero también participan en el proyecto, además de la Unión Europea, Japón, Estados Unidos, Rusia, China, la India y Corea del Sur. Es realmente un proyecto de escala mundial. Su coste está previsto en 14.000 millones de euros. La Unión Europea pagará el 40 por ciento de su coste total, Francia un 10 por ciento adicional (el proyecto conlleva muchas ventajas para la sede) y el resto de socios el 10 por ciento cada uno. Está previsto que entre en operación en 2017 y obtener la información derivada de los experimentos que se realicen conllevarán varios años de arduo trabajo.

Estamos ante la posibilidad de energía ilimitada y limpia, dicho sea esto último con matices. Los neutrones «activan» los materiales con los que están en contacto, por lo que el propio reactor se contamina de radiactividad. No es nada comparable a lo que produce la fisión. En cualquier caso no sería un residuo radiactivo de vida larga, ya que se calcula que entre cincuenta y cien años después de cesar el funcionamiento de un reactor de fusión desaparecería la radiactividad.

Todo parece apuntar a que el ITER dará las claves para poder diseñar el DEMO, un reactor de fusión que no sólo termine de definir la fusión, sino que se conecte a la red eléctrica. Todo ello podría tardar en cristalizar entre 10 y 20 años. Pero lo único que está claro es que si se abandona la investigación en la fusión nuclear, jamás tendremos una energía limpia y disponible para todo el mundo.

NOTA ADICIONAL DE ÚLTIMO MOMENTO.- Cuando estaba acabando de redactar este artículo del blog, recibo varias noticias muy interesantes conectadas con el tema.

1ª.- El pasado 8 de febrero la Canciller Ángela Merkel puso en marcha el reactor alemán de fusión Stellarator que llegó hasta los 80 millones de grados Celsius y consiguió confinar una nube de plasma durante un cuarto de segundo.

2ª.- Unos días después, el reactor chino, de tipo Tokamak, produjo plasma de hidrógeno a 50 millones de grados Celsius y lo mantuvo girando durante unos impresionantes 102 segundos.

3ª.- Uno de los mayores problemas de la fusión nuclear es que la enorme cantidad de energía que genera la fusión de los átomos tiende a disiparse demasiado rápido debido a turbulencias internas, lo que produce una gran pérdida de calor. Un grupo de científicos del MIT (Instituto Tecnológico de Massachusetts) ha dado con la clave del problema tras procesar los datos del reactor de fusión Alcator C-Mod mediante un superordenador. El Alcator es un reactor experimental de tipo Tokamak ubicado en el Centro de Fusión y Ciencias del Plasma del MIT. Cada simulación requiere 15 millones de horas de cálculos realizados por el equivalente a 17.000 procesadores. Cada simulación tarda 37 días en completarse.

Para aquel que pueda estar interesado en  obtener más información adjunto la dirección del video publicado por MIT. Copiar y pegar en el buscador:

http://es.gizmodo.com/el-mit-resuelve-uno-de-los-grandes-problemas-de-la-fusi-1759393769

 

HABLANDO DE ENERGIA 8

CENTRALES NUCLEARES II

central agua pesada

LOS REACTORES DE AGUA PESADA

Los isótopos del Hidrógeno son los únicos con nombre distinto a su elemento principal en la tabla periódica de los elementos: son DEUTERIO y TRITIO. Ambos contienen en su núcleo, respectivamente, un protón unido a un neutrón (deuterón), y un protón unido a dos neutrones (tritón); ambos tienen en su órbita electrónica, un solo electrón.  Llamamos agua pesada a la que en vez de estar formada por dos moléculas de Hidrógeno y una de Oxígeno (H2O), lo está por dos moléculas de Deuterio y una de Oxígeno (D2O).

El agua pesada tiene la ventaja sobre la ligera, cuando actúa como moderador, que  tiene menos tendencia a absorber neutrones. Como vimos al hablar de las centrales de agua ligera, es necesario enriquecer el uranio natural con el isótopo 235U que solo está presente en un 0,7% del isótopo no fisionable 238U (hasta un 3-5%), para desencadenar la reacción. Pero el proceso de enriquecimiento es muy caro y  complejo y para poder usar como combustible uranio natural hay que dificultar la absorción de neutrones. Ello  se consigue con el uso de agua pesada. Ésta tampoco es barata de producir, pero su coste no es tan elevado y requiere una tecnología menos compleja que la del enriquecimiento de uranio.

Usando uranio natural la presión y temperatura de trabajo son inferiores a las de los otros reactores. La construcción de la vasija y otros componentes no requieren tanta resistencia lo que permite usar una tecnología más sencilla y menos costosa. Además, al estar el moderador menos caliente, los neutrones son  más lentos y como consecuencia son más eficaces para producir fisiones.

CANDU 2

ESQUEMA REACTOR CANDU

Basados en estos planteamientos, en la década de 1950, los canadienses diseñaron un reactor muy seguro, robusto y sencillo: el CANDU (Canadá-Deuterio-Uranio). Es un reactor de agua pesada a  presión (PHWR sus siglas en inglés) que utiliza como combustible óxido de uranio natural no enriquecido (0,7% de 235U). Como funciona sin necesidad de enriquecer el uranio, los países menos desarrollados consideran que es una  gran ventaja ya que evitan las costosas instalaciones de enriquecimiento. Por otro lado, evitan las estrictas normas del  Tratado de No Proliferación Nuclear, que pueden llegar a dificultar su acceso al mercado de uranio enriquecido controlado por AIEA.

El elemento moderador es un gran depósito (llamado calandria), atravesado por varios cientos de tubos de presión horizontales, que constituyen los contenedores para el combustible. Están refrigerados por un flujo de agua pesada a  presión en el circuito primario, que alcanza los 290°C; por la alta presión a que está sometida el agua pesada no se produce ebullición dentro de la calandria. Este refrigerante primario genera en el circuito secundario, a través de un intercambiador de calor, una corriente de vapor que mueve las turbinas. Los  tubos, de doble pared, están construidos de una aleación de zirconio, que es atravesado con cierta facilidad por los neutrones.

La estructura del combustible está formada por un haz de 37 barras de medio metro de largo, en cuyo interior se encuentran los pellets cerámicos que contienen el óxido de uranio. Un soporte de 12 haces discurre de punta a punta en un canal de combustible. Las barras de control penetran en la calandria verticalmente, entre los tubos de combustible, cuando es necesario moderar o detener la reacción. Cuenta con un segundo sistema de apagado rápido consistente en inyectar en el moderador una solución de nitrato de gadolinio (Metal sólido de la serie de los lantánidos; símbolo Gd, número atómico 64. Se encuentra en las llamadas tierras raras) que detiene totalmente la reacción.

calandria

IMAGEN DE UNA CALANDRIA

El equipo para controlar y manejar el núcleo del reactor es bastante menos complejo que en otro tipo de centrales. Sólo tiene que afrontar la alta radiación y el alto flujo de neutrones. En especial, las barras de control y el equipo de emergencia son más sencillos y más fiables que en otros tipos de reactores. Tiene un tiempo de apagado más bajo que cualquier otro tipo conocido, lo que se debe en gran parte a que el reactor funciona a temperaturas y presión bajas. Los tubos de presión que contienen las barras del combustible pueden abrirse individualmente para  cambiarlas sin que el reactor entre en parada.

Al usar uranio natural, que es el menos eficiente para la fisión, puede admitir fácilmente otros combustibles nucleares mucho más eficientes. Los dos combustibles más interesantes son el plutonio proveniente del desmantelamiento de las cabezas nucleares y el combustible usado en centrales, como las PWR, de uranio enriquecido.

Tras los acuerdos de desarme (SALT) de Rusia y Estados Unidos,  decenas de miles de bombas atómicas necesitaban ser desactivadas  rápidamente. Estas bombas no son como las de Hiroshima y Nagasaki, sino termonucleares (H), o sea, que usan como detonador explosivos de fisión, sobre todo plutonio. Deshacerse de ese plutonio no es tarea fácil. Una manera es creando un combustible nuclear que se llama MOX (Mixed OXide Fuel), que es una mezcla de óxidos de uranio y plutonio. Los reactores CANDU pueden admitir fácilmente MOX proveniente de las armas que se desmantelan. Creo que no hay mejor ejemplo para aquel antiguo aforismo que incita a  “transformar las espadas en arados”  símbolo de PAZ.

También se puede obtener combustible para un CANDU del combustible ya utilizado en otras centrales. En efecto, éste llevará, entre otros elementos radiactivos, plutonio (recuérdese  que se genera del 97% de 238U) y un buen porcentaje aún de 235U. Una vez consumido en un reactor de agua ligera todavía conserva un 0,9% del uranio enriquecido lo cual es un porcentaje aún mayor que el del uranio natural usado en  el CANDU. Ya se han realizado pruebas en un reactor CANDU con resultados satisfactorios con  combustible gastado de un reactor PWR, tras adaptar mediante procesos de corte el tamaño de las piezas.  También pueden funcionar  generando combustible a partir de torio natural, cuando no se dispone de uranio.

Se pregunta el profesor Lozano Leyva, ¿por qué no todos los reactores del mundo son tipo CANDU si cuentan con tantas ventajas?  Los últimos diseños canadienses son excelentes y han solucionado los pequeños problemas que han tenido estos reactores en más de cuarenta años funcionando sin accidentes. Apunta, como posible causa su capacidad de producir plutonio. Al parecer a la India se le acusó, de forma no suficientemente probada, de que el plutonio usado en una importante prueba nuclear lo produjeron en uno de sus dos CANDU. De lo que no hay duda es que los indios deben estar muy satisfechos con el funcionamiento de estos reactores porque tienen otros 13 reactores derivados de ellos y 3 más en construcción. De hecho, tienen más que Canadá. Los otros CANDU que hay en el mundo están en Corea del Sur (4), China (2), Rumanía (2), Pakistán (1) y Argentina (1).

Reactores enfriados por gas

Por último una breve reseña de este tipo de reactor. Es de diseño británico. El corazón del reactor consiste en un enorme cubo de grafito de 9 metros de lado. En lugar de varillas, los pellets de óxido de uranio  enriquecido, se introducen en unos canales practicados en el grafito. El refrigerante es dióxido de carbono que pasa a través de estos canales a una presión muy elevada y unos 500° de temperatura. Una de sus ventajas es que toda la estructura de grafito se encuentra en el interior de  un enorme sarcófago de hormigón por lo que no necesitan la gruesa y compleja vasija de acero. Igual que el CANDU estos reactores no necesitan parar para la recarga de combustible.

Las dos primeras plantas británicas se utilizaron al principio para producir plutonio para uso militar, y realizaban dos recargas de combustible por año. Desde 1964 se utilizaron principalmente para combustible comercial, a pesar de que no fue hasta abril de 1995 que el gobierno del Reino Unido anunció que toda la producción de plutonio con finalidad militar había cesado.

Se construyeron tres reactores de este tipo en Corea del Norte, todos ellos basados en los diseños desclasificados de los reactores británicos: Un pequeño reactor experimental de 5 MWh en Yongbyon, que funcionó de 1986 a 1994, y volvió a funcionar en 2003. El plutonio procedente del combustible gastado de este reactor ha sido utilizado en el programa de armas nucleares de Corea del Norte. Un nuevo  reactor de 50 MWh, en el mismo emplazamiento, cuya construcción se inició en 1985 pero nunca se finalizó debido al acuerdo marco de 1994 entre Corea del Norte y Estados Unidos. Se inició la construcción de otro reactor de 200 MWh en Taechon, pero la construcción se interrumpió en 1994.

Nueve reactores de energía de tipo similar pero con diseño propio (la cubierta era de aleación de magnesio-zirconio) fueron construidos en Francia, y se encuentran actualmente apagados de forma permanente. Eran reactores de grafito refrigerados por dióxido de carbono con combustible de óxido de uranio natural.

REFRIGERADO POR GAS

HABLANDO DE ENERGIA.7

CENTRALES NUCLEARES I

nuclear de cofrentes

Central nuclear de Cofrentes

Mucha gente considera la energía nuclear como un invento diabólico del hombre. Nada más lejos de la realidad. No es más que un fenómeno natural, muy abundante en nuestro universo y determinante en su formación. Las estrellas, y entre ellas nuestro sol, no son más que grandiosas centrales nucleares y todas las formas de energía existentes en nuestro planeta tienen, de una u otra forma, su origen en él.

El uso pacífico de la energía nuclear ha arrastrado desde el principio el estigma de sus orígenes bélicos. El primer reactor nuclear fue desarrollado durante el proyecto Manhattan, en el marco de las investigaciones para la construcción de las dos primeras bombas nucleares (las únicas utilizadas con fines bélicos) en la historia del mundo que dieron fin a la Segunda Guerra Mundial.

Coincidieron en el tiempo las primeras utilizaciones civiles industriales de la energía nuclear, con la carrera de las grandes superpotencias del mundo por dotarse de armamento nuclear. Ello dio lugar a que las primeras centrales tuvieran una utilización mixta: producción de electricidad y obtención de plutonio para usos militares. Afortunadamente para la humanidad, la toma de conciencia de la magnitud de la catástrofe que podía producirse (Destrucción Mutua Asegurada) hizo que nunca se utilizaran. Sin embargo, se realizaron multitud de pruebas, tanto en la atmósfera como subterráneas. En un próximo articulo las detallaré en un cuadro cuyos datos son escalofriantes.

Como colofón de esta serie de artículos  sobre la energía y la generación de electricidad, voy a tratar de exponer de forma  sencilla y comprensible, el funcionamiento de las centrales nucleares.

Una central nuclear no es más que una térmica  cuya diferencia con las anteriormente descritas es un componente: en lugar de un quemador de combustibles fósiles dispone de un reactor. Por lo demás, es una planta para producir  electricidad a gran escala de la forma que ha demostrado ser más eficaz hasta ahora: haciendo girar una turbina conectada a un generador.

¿Qué es y cómo funciona el reactor? Es el lugar donde se produce el calor necesario para generar el vapor que ha de mover la turbina. Funciona mediante un proceso denominado fisión nuclear, proceso por el cual el  núcleo de un átomo de un elemento pesado que es bombardeado por neutrones se fragmenta en dos, emitiendo otros neutrones, radiación gamma y liberando gran cantidad de energía, la mayor parte en forma de calor. La energía producida viene definida por la ecuación de Einstein, E=mc2, o sea la energía producida es igual a la masa desplazada por su velocidad al cuadrado. Las masas de los átomos son magnitudes pequeñísimas (un número fraccionario precedido de  hasta 30 ceros), pero al multiplicarlo por el cuadrado de la velocidad de la luz (casi 300.000.000 m/s., número que al elevarlo al cuadrado se acerca al trillón), la cantidad de energía que se libera es masiva. A efectos ilustrativos, considere que la energía producida en la fisión de 1 kg  de 235U (una esfera de apenas 0,33 cm de diámetro) equivale a quemar 3.000 toneladas de carbón. La manera de inducir la fisión es hacer colisionar un neutrón lento contra núcleos pesados apropiados  que para romperse tengan que superar una barrera de fisión pequeña. Los mejores núcleos para ello son el Uranio 235 (235U) y Plutonio 239 (239Pu).

El 235U existe en la naturaleza pero en muy poca cantidad, porque está acompañando al Uranio 238 (238U), que sí es muy abundante pero muy poco fisionable. La proporción del 235U en el Uranio natural, en todas las minas del planeta e incluso en rocas traídas de la Luna y meteoritos, es siempre la misma: 0,72% del total.

El 239Pu no existe en la naturaleza y la manera de obtenerlo es por colisión de neutrones rápidos sobre 238U. Si en la fisión de cualquiera de estos dos elementos se producen más neutrones de los que se consumen se podría desarrollar una reacción en cadena.  Pero para que esto ocurra se ha de alcanzar una masa crítica que para el 235U es de 52 kilos (una esfera de 17 cm. de diámetro), y 10 kilos (una esfera de 9,9 cm) para el 239Pu. Ambos son materiales de gran densidad. Para evitar la posible reacción descontrolada, hay que absorber a voluntad los neutrones producidos manteniéndolos en un número promedio similar al recibido, esto es en torno a uno, y la forma de hacerlo es introducir entre el material fisionable elementos cuyos núcleos absorben fácilmente los neutrones. Por ejemplo, cadmio o boro.  Los núcleos al fisionarse, producen fragmentos muy variados que en su mayor parte son radiactivos y con vidas medias muy diferentes.

Hay otros elementos característicos del reactor de la central nuclear que se exponen a continuación.

El combustible. Se llama combustible al 235U, enriquecido, entre un 2 y un 5%, aunque lo más habitual es un 3%. Se presenta en forma de unas pequeñas piezas de óxido de uranio (UO2), de forma y tamaño similar a la boquilla de un cigarrillo. Están en el interior de una varilla hueca, generalmente de circonio,  de unos 4 metros de largo y un diámetro de apenas 1 centímetro.  Varios cientos de varillas de éstas unidas por clips se agrupan en lo que se llama elemento combustible.  Y un centenar o más de estos elementos forman el corazón del reactor. En total tenemos unas 50.000 varillas llenas de píldoras de UO2.

La denominación de combustible no es adecuada, puesto que la combustión es una reacción química en la que un elemento reacciona con el oxígeno (se quema) generando calor, pero en este proceso no se produce combustión. Se usa por la similitud de su función al de las térmicas convencionales.

Moderador. Es el elemento que frena los neutrones que surgen de cada fisión, manteniendo la reacción en cadena, puesto que son los neutrones al chocar con otros núcleos los que la mantienen. Y son  especialmente  los lentos, los más eficientes para provocar nuevas fisiones; por ello los núcleos de los átomos del elemento empleado como moderador, deben tener  poca facilidad para  absorber neutrones y una masa pequeña. En el primer reactor experimental se utilizó grafito, porque tiene una tendencia muy baja a absorber neutrones y es barato. Se utiliza poco en la actualidad porque presenta otros problemas.

El refrigerante. Hay que enfriar las varillas que contienen el óxido de uranio, porque alcanzan temperaturas muy elevadas y podrían fundirse; el calor que se absorbe al enfriarlas, es el que necesitamos para generar vapor a muy alta temperatura que será el que moverá la turbina y con ella el generador. El proceso de calentamiento y enfriamiento del agua que es el fluido de trabajo es un proceso continuo. Nótese que al hablar de enfriamiento del agua, siempre es en términos relativos. En los reactores de agua ligera a presión (PWR), que son la mayoría, se bombea al interior del núcleo a una temperatura de 290º, y sale de él a 325º. Al estar sometida a alta presión, nunca alcanza el punto de ebullición.

El controlador. El último elemento del reactor es un mecanismo compuesto de elementos que tienen una enorme tendencia a absorber neutrones. Está próximo a las varillas de combustible (en varillas similares a ellas) y debe ser simple, robusto y seguro; desempeña  dos papeles muy relacionados entre sí: por un lado mantener el flujo de neutrones en los niveles adecuados para mantener la reacción dentro de los límites establecidos, y por otro, para detener de forma instantánea la reacción bloqueando el flujo de neutrones en caso de emergencia.

Generalmente son de boro, elemento eficiente para este cometido y relativamente económico. En la mayor parte de los reactores, las varillas de control caen automáticamente en caso de situación de emergencia total. En los modernos diseños, además de las barras de control existen sistemas de seguridad que permiten inyectar directamente en el moderador  elementos absorbentes de neutrones para detener la reacción casi instantáneamente.

como-funciona-una-central-nuclear-1

ESQUEMA DE UNA CENTRAL NUCLEAR PWR

Una vez conocidos los elementos del reactor, podemos seguir de  forma sencilla el funcionamiento de la central nuclear con ayuda de la ilustración adjunta. Hago notar, que una parte importante del edificio de contención, está construida por debajo del nivel del suelo por motivos de seguridad.

La vasija del reactor contiene los elementos combustibles, las varillas de control, el moderador y el fluido de trabajo, por lo general agua. El calor desprendido por las varillas en el proceso de fisión calienta el agua a temperatura elevada y unas bombas la impulsan hacia los generadores de vapor. Este a su vez se dirige a presión a la turbina. Una vez hecho esto, hay que dirigirlo de nuevo a su circuito, que es el llamado primario, de nuevo en estado líquido.

Tras mover la turbina el vapor se enfría, pero no lo suficiente para que el rendimiento térmico del sistema sea óptimo. La manera  de enfriar ese vapor convirtiéndolo de nuevo en agua es, cediendo el exceso de calor al agua de otro circuito, el secundario,  conectado con torres de enfriamiento en las que baja su temperatura lo suficiente para volver a enfriar el vapor del circuito primario. Las torres de enfriamiento son esas enormes estructuras hiperbólicas de hormigón siempre con un penacho blanco emergiendo de ellas que no es más que vapor de agua no muy caliente. Los elementos del circuito primario y los del secundario están diseñados de modo que no pueden entrar nunca en contacto. 

El diseño del reactor es muy importante, porque el fluido de trabajo (agua a presión) debe circular con facilidad en toda circunstancia; la temperatura ha de mantenerse por debajo de un límite que no dé lugar a destrucción ni deformación de las varillas de combustible que están sometidas a una intensísima radiación nuclear y las varillas de control deben deslizarse en toda circunstancia con facilidad entre los elementos de combustible para garantizar la seguridad máxima.

En el interior de la vasija hay una radiactividad tan elevada que debe protegerse el acero del que está hecha. Puede conseguirse de varias formas. En algunos diseños, con elementos que se llaman reflectores, que reducen la fuga de neutrones y favorecen el mantenimiento de la reacción en cadena. Pero lo más seguro es que la vasija este  construida de una sola una pieza, sin remaches ni soldaduras. Al parecer solo una empresa en el mundo es capaz de fabricar vasijas de una pieza. Está en Japón, y tras las moratorias nucleares en muchos países ha sufrido una crisis profunda y solo tiene capacidad para fabricar cuatro vasijas al año.

La vasija que contiene el reactor está encerrada en un bunker de hormigón que actúa como primer escudo contra la radiación y que a su vez está encerrada, junto con  el generador de vapor del circuito primario, en un edificio al que se denomina edificio de contención. El material de que está construido ha de ser resistente, grueso para impedir que lo atraviesen los rayos gamma, y absorbente de neutrones.  El hormigón armado  es el material que mejor consigue hacerlo. Sus paredes son de varios metros de espesor, reforzadas por columnas de hierro de grandes secciones.

En 1988, los Laboratorios Nacionales de Sandia (USA), llevaron a cabo pruebas de resistencia que consistieron en estrellar un caza a reacción contra un gran bloque de hormigón que simulaba el edificio de contención, a 775 km/h. El avión dejó solo una hendidura de aproximadamente 6 cm de profundidad en el hormigón y ello, a pesar de que el bloque no estaba anclado al suelo como lo está el escudo antimisiles de un edificio de contención. Un estudio posterior realizado por el Instituto de Investigaciones de Energía Eléctrica (EPRI) y estos mismos laboratorios, concluyeron que tampoco los aviones comerciales ponían en riesgo la contención. Se han realizado otras pruebas con impactos de aviones en Reino Unido que han demostrado que no afectarían a la vasija del reactor. Las distintas barreras de seguridad protegen al reactor de cualquier impacto o degradación.

Una cuestión fundamental que hay que dejar clara: un reactor nuclear no puede producir una explosión nuclear en ninguna circunstancia por desastrosa que ésta sea. Como hemos visto arriba, para que un elemento fisionable explote, se ha de descontrolar la reacción en cadena y para ello se ha de alcanzar la masa crítica. La probabilidad de que esto ocurra en la vasija de un reactor es simplemente nula. Incluso si se fundiera todo el combustible, la masa crítica del material fisible (235U) no se alcanzaría jamás. Como veremos más adelante al hablar accidentes, en el único de graves características que se ha producido, el de Chernóbil, se produjo una deflagración química, pero no nuclear, pero la carencia del edificio de protección adecuado, arrojó al exterior gran cantidad de material radiactivo.

El-siniestrado-Reactor-4-de-la-central-nuclear-de-Chernobyl-una-de-las-primeras-vistas-desde-el-aire-540x529

REACTOR Nº 4 DE CHERNÓBIL TRAS EL ACCIDENTE

HABLANDO DE ENERGÍA 3

TORRES

LA ELECTRICIDAD

El nombre de este elemento esencial de la vida moderna, proviene de la palabra griega elektron, que significa «ámbar», porque esta resina fósil tiene la propiedad de que al frotarla se carga de electricidad estática. La magnetita, un mineral de hierro, procedente de Magnesia, ciudad de la Tesalia griega, tiene la propiedad de atraer al hierro. Ambos elementos son conocidos desde la más remota  antigüedad. Una leyenda sobre un episodio de la Odisea nos dice que Ulises fue atraído a la isla de las Sirenas porque era de magnetita y  atrajo el herraje de sus naves. Si non e vero, e ben trovato…

Sin embargo, que la electricidad y el magnetismo eran la misma cosa, no se supo hasta el siglo XIX. Fue James Clerk Maxwell quien dio con la explicación de los fenómenos llamados desde entonces electromagnéticos.

La electricidad es el flujo en el seno de ciertos materiales de los electrones de sus átomos. Para que esto suceda ha de ocurrir que en los extremos de un cable de material conductor, entendiendo por tal el que tiene electrones predispuestos a fluir, exista lo que se llama diferencia de potencial, tensión o voltaje. Algo parecido a lo que hace fluir el agua por una red o tubería, que sus terminales estén a distinta altura.

Otro personaje importante en esta historia es Michael Faraday. Físico y químico británico descubridor de la inducción electromagnética, el diamagnetismo y la electrolisis. Creador de la Jaula de Faraday, cuyo principio se utiliza en los aviones para evitar el peligroso efecto de los rayos que a veces los alcanza en vuelo. El principio del diamagnetismo (creación de un campo magnético que impide el contacto de dos elementos sometidos al mismo) es objeto de intensa investigación en diversas partes del mundo para el ferrocarril.

Aunque nos aparte algo del tema principal, vamos a detenernos un momento en el sistema de levitación magnética (MAGLEV) que tiene la ventaja de ser más rápido, silencioso y suave que los sistemas de transporte colectivo sobre ruedas  convencionales.

La ausencia de contacto físico entre el riel y el tren hace que la única fricción sea con el aire, y esta se reduce al mínimo por su forma aerodinámica. Los trenes maglev pueden viajar a muy altas velocidades, con un consumo de energía muy elevado para mantener y controlar la polaridad de los imanes y con un bajo nivel de ruido.

En Japón, la mayor velocidad obtenida hasta ahora fue de 603 km/h en la ruta Yamanashi (ruta experimental) el 21 de abril de 2015. Unos días antes llegó a alcanzar los 590 km/h, el 16 de abril. La máxima velocidad demostrada de un maglev real en operación comercial es la obtenida por el tren alemán Transrapid instalado en Shangai, China, que transporta pasajeros a lo largo de 30 km en tan solo 7 minutos y 20 segundos, consiguiendo normalmente una velocidad punta máxima de 431 km/h y una media de 250 km/h en el trayecto. Circula entre la ciudad y su aeropuerto y se construyó como el tramo inicial de un recorrido mayor.

La primera operación comercial del maglev fue del tipo «transporta personas». Abierto oficialmente en Birmingham, UK, operaba sobre una pista elevada monorriel en un recorrido de aproximadamente un kilómetro, entre el Aeropuerto internacional de Birmingham y su Estación de Ferrocarril. Viajaba a una velocidad de 42 km/h. El sistema fue cerrado temporalmente en 1995 para corregir problemas de diseño.

Con ocasión de un viaje que hice a esa ciudad, tuve la oportunidad de utilizarlo desde el Aeropuerto hasta el centro de la ciudad. Eran unos pequeños vagones para unas diez personas con espacio para los equipajes y su funcionamiento era automático. Al aproximarse a la primera unidad, se abrían las puertas. Al completarse el pasaje o en caso de no hacerlo, en un periodo de unos minutos, sonaba una señal acústica, se cerraban las puertas y empezaba a circular. Se detenía en todas las paradas programadas y tras una breve detención, de nuevo se ponía en funcionamiento. Me pareció una maravilla, pero después de 1995, creo que dejó de funcionar por este sistema, siendo sustituido por un sistema de tracción distinto que utiliza la misma infraestructura con menor consumo energético.

MAGLEV

El maglev de Birmingham

En efecto, su principal inconveniente es el alto coste de las líneas, lo que ha limitado su uso comercial. Este alto coste se deriva de varios factores: el primero y principal es el altísimo coste de la infraestructura necesaria para la vía y el sistema eléctrico, y otro, no menos relevante, es el alto consumo energético. Debido a que en la fuerza electromagnética el principal factor limitante en cuanto al diseño y al consumo es el peso del tren, esta tecnología no es aplicable actualmente al transporte de mercancías, lo cual limita enormemente las posibilidades de rentabilizar el sistema. Hay algunos otros recorridos en estudio, principalmente en China y Japón. En Alemania se ha desechado de momento la construcción de líneas maglev para pasajeros a causa de su oneroso coste de construcción y mantenimiento.

Pero volviendo a nuestro objeto principal, entramos en la inducción electromagnética, principio que utilizó Edison para transformar la energía mecánica en eléctrica.  Un  circuito cerrado de hilos conductores, normalmente de cobre, obligado a moverse en el magnetismo creado por un imán u otra disposición de hilos del todo parecida a la anterior, genera corriente eléctrica. O, en sentido inverso, transformando la energía eléctrica en mecánica, como lo hacen todas las máquinas movidas por electricidad, pequeñas o grandes que a diario utilizamos. Es el principio en que se basan  todas las formas de generar electricidad, excepto la fotovoltaica.

¿Cómo generaba Edison la corriente eléctrica para alimentar las bombillas que había instalado por las ciudades? Quemaba carbón para calentar agua en una caldera hasta la ebullición; dirigía el vapor generado a los álabes de una turbina transformando así la energía térmica en mecánica de rotación, y ésta por inducción electromagnética, generaba  corriente eléctrica para su utilización.

Pero se topó con un problema importante. Como sabemos, al pasar una corriente eléctrica por un cable, debido al movimiento de átomos y moléculas en su interior, se genera calor. Si el calor generado se va  elevando tanto que necesita toda la corriente eléctrica, esta deja de fluir y solo se genera calor. Con la corriente continua, que usaba Edison, ocurría cuando había que llevar la corriente eléctrica a zonas distantes de la central: se producía calentamiento elevado en el cable y la electricidad dejaba de fluir. Y ello, aunque la central fuera muy potente. La alternativa era crear un número elevado centrales próximas a los centros de consumo. Como consumían carbón, había que almacenar y quemar grandes cantidades; necesitaban mucho espacio y producía enormes cantidades de humos. Todo ello las hacías muy onerosas e insalubres.

La solución llegó de un científico serbio llamado Nikola Tesla, en el que nos vamos a detener un momento. Para muchos es, el más grande inventor del siglo pasado. Gracias a él, la electricidad llega hoy a millones de hogares en todo el mundo. Y durante mucho tiempo ha sido injustamente olvidado. (En mis estudios de Perito Industrial, de los que conservo la mayor parte de los libros, no se cita para nada al Sr. Tesla)

Nikola Tesla, un joven serbio desconocido, nació en 1856 en Smilijan, en la actual Croacia, entonces parte el Imperio Austro-Húngaro. Tesla trabajaba en la sede parisina de la Continental Edison, la compañía del inventor norteamericano en Europa. Se presentó en la central enviado por Charles Batchelor, su jefe en Paris,  con una carta de recomendación. Edison lo incorporó de inmediato a su empresa, pero entre ambos no se produjo una gran sintonía. Se fue generando una animadversión entre ambos que al final acabó en conflicto abierto. Edison defendía un modelo de negocio eléctrico basado en la corriente continua. Tesla, en cambio, creía en un modelo basado en la corriente alterna. La pugna entre ambos pasó a la historia como «la guerra de las corrientes». Ganó Tesla con su modelo mucho más eficiente. La memoria histórica ha sido benévola con otros inventores (Edison, Hertz, Volta…), pero el mundo debe mucho a Nikola Tesla, cuya figura empieza a ser reivindicada en la actualidad.

Tesla descubrió las ventajas que presentaba que la intensidad y dirección de la corriente variaran cíclicamente. El signo de la diferencia del potencial entre los dos extremos de un conductor, en lugar de mantenerse constante, se va alternando. Lo que resulta es un vaivén de flujo eléctrico que tiene una ventaja fundamental. Lo que hace que la corriente eléctrica genere más o menos calor es la potencia, que depende del voltaje y de la intensidad. O sea del número de electrones que fluyen por unidad de tiempo y de la sección del cable conductor y se mide en amperios. Es por ello, que el grosor (sección) de los cables para el transporte de electricidad se elige en función de la intensidad que circula por ellos, ya que a mayor sección menor resistencia eléctrica y, por tanto, menos pérdidas de energía debido al calentamiento. Si se aumenta el voltaje, se puede disminuir la intensidad para una misma potencia. Por lo que, el alto voltaje, o lo que es lo mismo, la alta tensión, permite que el grosor de los cables no sea excesivo. El aparato que logra cambiar la tensión es el transformador. La corriente alterna se presta perfectamente a la transformación, pero no la corriente continua. La ventaja esencial de la corriente alterna es que su transporte se puede llevar a cabo con cables de mayor sección a fin reducir las pérdidas por calor.

La corriente alterna permite elevar su voltaje de manera que su distribución hasta los puntos de consumo se haga con el menor coste debido a que la mayor sección de los cables casi anula las  pérdidas por calentamiento. Cuando llega a los puntos de consumo, el voltaje puede ser reducido a los niveles necesarios para su uso doméstico o industrial.

Fue otro inventor, también industrial de apellido célebre, George Westinghouse (en algunos momentos socio de Edison), quien ideó la forma de distribuir y comercializar la corriente alterna. Si en el mapa de un país se trazara con detalle su red eléctrica, nos encontraríamos con una autentica maraña, similar al sistema vascular o nervioso del organismo humano. La diferencia estribaría en que mientras en el cuerpo humano solo hay una base para cada uno de los sistemas: el corazón para el vascular y el cerebro para el nervioso, en la red eléctrica hay un número elevado de centros de generación: las centrales eléctricas, que serán objeto del próximo artículo, y las estaciones de transformación.

La base del sistema son las centrales generadoras, muy cerca de las cuales están las grandes estaciones de transformación que elevan el voltaje original de la central en unas 10 veces para su transporte. La tensión puede elevarse hasta centenares de kilovoltios (1kV=1.000 voltios). Entonces inicia su viaje por la red hacia los centros de consumo a través de los grandes tendidos eléctricos cuyas torres, auténticas obras de ingeniería, nos son tan familiares en el paisaje.

Los siguientes nudos de la red son las subestaciones de transformación  donde el voltaje se reduce hasta los 100 kV, donde comienza ya el reparto de la electricidad. La red se sigue haciendo cada vez más tupida y llegando a nudos cada vez más pequeños: las estaciones transformadoras de distribución y los medianos, pequeños y minúsculos centros de transformación, ya a la tensión de utilización para los consumidores. El diseño de la red de distribución es una actividad compleja y altamente especializada debido a su impacto ambiental y los riegos que comporta.

Como la energía eléctrica es muy difícil de almacenar en cantidades grandes, la producción debe igualarse al consumo en todo momento. La gestión de ese equilibrio es muy compleja e interesante. Para tener una idea, se puede acceder a la página web de Red Eléctrica Española (www.ree.es) donde podemos ver en tiempo real la producción y el consumo, con los gráficos de demanda, la generación y el origen de esta en cada instante, por tipos de centrales generadoras.

A continuación se muestran en unas imágenes, la complejidad de una red de distribución eléctrica en una sociedad  “moderna”: como se puede comprobar, una auténtica “maraña”…

MARAÑA 2

MARAÑA 1

 

FUENTES.-

*Página web de la Agencia Internacional de la Energía Atómica.

*WIKIPEDIA, Para las imágenes y datos complementarios.

*Nucleares, ¿Por qué no?. Profesor Manuel Lozano Leyva.

*El ecologista Nuclear. Profesor Juan José Gómez Cadenas.

Estos dos libros, son muy interesantes y documentados como corresponde a dos catedráticos en Física con muy amplia experiencia en el tema.

*Biografías y Vidas. Página web con datos biográficos de los personajes que se citan en el texto.

*Revista Newsweek. Entrevista con el Sr. Lovelock y diversos artículos y noticias sobre temas de energías.

HABLANDO DE ENERGÍA 2

ENERGIA 2

LA ENERGÍA

La energía es, simplemente, nuestro universo. O sea, ese espacio  infinito, maravilloso e inabarcable que se generó con el Bigbang o, para los creyentes, con el “Hágase la Luz” ambas cosas para mi  compatibles, con el enfoque adecuado. Desde entonces, hace aproximadamente 13.700 millones de años, lo único que ha hecho la energía surgida espontáneamente ha sido transformarse, porque en cuanto a su cantidad ha permanecido inalterable; como estudiamos en nuestra lejana juventud: La energía ni se crea ni se destruye solo se transforma. La metamorfosis más inmediata de la energía fue de radiación a materia.

Una pequeña porción del inmenso océano electromagnético (1 en 1.000 millones) fue cuajando en partículas. Algunas de esas partículas llamadas quarks se fundieron dando protones y neutrones, que se agruparon a su vez en núcleos atómicos muy ligeros. Éstos se envolvieron de otro tipo de partículas, los electrones, y formaron así átomos que poco a poco se unirían para formar moléculas. A la vez, este polvo material se fue agrupando y la enorme fuerza de la gravedad lo fue compactando en forma de estrellas. Éstas sufrieron el proceso inverso: parte de la masa de sus núcleos atómicos la convirtieron de nuevo en energía. De sus enormes masas se fueron desgajando grandes porciones de materia que formaron los planetas  que se calentaban e iluminaban con la energía desprendida de las estrellas de que proceden y alrededor de las cuales orbitaban formando sistemas planetarios. De esa manera, en algunos de esos mundos, se crearon las condiciones para que surgiera la vida. Nuestro sistema planetario formado alrededor del nuestra estrella: El SOL, es el mejor y más cercano ejemplo.

La energía se puede definir de muchas maneras, y entre los físicos la más natural es la tradicional: la energía es la capacidad de producir un trabajo. ¿Cómo definimos estos conceptos?: empecemos por el último,  trabajo es el proceso en el cual un objeto pesado se puede desplazar o deformar al aplicársele una fuerza. La capacidad de llevar a cabo este trabajo es lo que define la energía. Supongamos que una tenemos una pesa de 250 gramos. La  levantamos verticalmente 40 centímetros. Se dice que se ha realizado un trabajo de un julio.

Pero no es lo mismo que levante la pesa cien veces en un minuto a que lo haga en un cuarto de hora. Ha empleado la misma energía porque ha hecho idéntico trabajo; pero la diferencia radica en otra magnitud llamada potencia, que es la energía o el trabajo realizado por unidad de tiempo. Concretamente, a un julio por segundo se le llama vatio, (1Jxs=1W). Como el vatio es muy pequeño, utilizamos el kilovatio,  es decir, 1.000 vatios. Resumen: el kilovatio hora, kWh es la energía consumida (o producida) en una hora por un artefacto que realiza un trabajo de 1.000 julios por segundo.

El viento, el agua, los animales y el hombre  pueden realizar trabajos desplazando objetos, o sea, son fuentes de energía limitadas. Como se consume conforme se lleva a cabo el trabajo y no se produce una reposición continua, tiene una utilidad limitada. El viento y el agua, también tienen energía pero necesitan una máquina para producir trabajo. Pero en cuanto la humanidad quiso hacer grandes obras, no hubo más remedio que emplear animales domésticos u hombres en gran número, inventar máquinas que multiplicasen esa potencia, o todo a la vez.

Arquímedes fue el mayor inventor de máquinas de la Antigüedad. A  él se deben muchas de las que todavía hoy se usan: la palanca, la polea simple, el polipasto, el torno, el tornillo, etc. La potencia empezó a incrementarse de manera  paulatina pero inexorable. A lo largo de la Edad Media, seguramente los molinos tanto de agua como de aire fueron los principales elementos destinados a multiplicar la potencia del hombre. El mayor inconveniente de los molinos, era su incertidumbre al depender su potencia del azar del viento o del caudal del agua.

El cambio cualitativo que se produjo en el siglo XVIII y consistió en ayudar a las máquinas que necesitaban animales, corriente fluvial o viento para funcionar a través de un principio descubierto en la época de Arquímedes: la fuerza del vapor de agua. La esfera de Eolo  era un juguete usado en la época: una bola metálica con dos tubos en ángulo recto dirigidos en direcciones opuestas; se vertía agua en su interior y  giraba enloquecida cuando se calentaba y hervía en su interior.

ESFERA EOLO

Esfera de Eolo

En 1700, un ingeniero inglés, Thomas Savery, utilizó la primera máquina térmica basada en el mismo principio que el juguete antiguo. Era un artefacto sin pistones que aprovechaba el vacío generado al condensarse vapor para bombear agua. Unos veinte años después, el también inglés, Thomas Newcomen, la perfeccionó con la introducción de un pistón accionado por la presión generada en la expansión del vapor producido por el calor de una caldera de carbón. Era un armatoste enorme de muchos kilos de peso que se empleaba para mover norias, bombear agua de las minas, y trabajos por el estilo. Con él se eliminó para ciertos trabajos la dependencia de hombres, animales, el viento y el agua.

A raíz de ello, se desencadenó en toda Europa un derroche de ingenio científico y técnico con el fin de utilizar en esa forma el vapor de agua, creando máquinas cuyos pistones con su movimiento alternativo podía usarse para realizar infinidad de trabajos: había llegado la primera revolución industrial. El proceso desde entonces ha sido imparable y hoy en día hay en el mundo miles de millones de máquinas de todo tipo y tamaño, desde las más sencillas (batidoras, aspiradoras, afeitadoras…) a las más complejas y pesadas, (ferrocarriles, excavadoras, barcos, automóviles, aviones…) que hacen trabajos consumiendo energía.

Al principio el desarrollo se basó en el uso del carbón. Materia prima voluminosa que debía extraerse de las minas; transportarlo en cantidades masivas hasta los consumidores, los cuales debían disponer a su vez de grandes espacios para su almacenamiento. Más adelante, se fueron descubriendo y utilizando otros combustibles de mayor potencia calorífica, menos voluminosos y de más fácil manejo y almacenaje. Fueron modificando los procesos industriales, pero no era fácil utilizarlos para hacer funcionar pequeñas máquinas.

Entra en ese momento en la escena técnica, uno de los más geniales inventores de todos los tiempos: Tomas Alva Edison. Intuyó que la energía capaz de alimentar las pequeñas máquinas que facilitarían la vida de  la población hasta unos extremos inimaginables incluso para él  en aquellos momentos, podía ser LA ELECTRICIDAD.

No voy a tratar de glosar la figura de Sr. Edison, ni siquiera mínimamente, porque sería necesario un libro de buen tamaño. Animo al lector a adquirir una biografía que es, con seguridad, más interesante que el mejor libro de aventuras: la aventura de la inteligencia, el ingenio y la constancia en el trabajo. De forma mas breve, en la página web que reseño más abajo del blog Biografías y Vidas, puede encontrar el interesado una breve monografía amena y bien documentada:

En ella encontrará una historia común a muchos genios (Einstein, entre otros) y es la de su desventurada relación con la enseñanza oficial. Asistió a la escuela durante tres meses, al cabo de los cuales fue expulsado de las aulas, alegando su maestro la falta absoluta de interés y una torpeza más que manifiesta.  Afortunadamente, su madre, que había ejercido como maestra antes de casarse, asumió en lo sucesivo la educación del joven Tomás, tarea que desempeñó con gran talento, ya que consiguió inspirar en él aquella curiosidad sin límites que sería la característica más destacable de su carrera a lo largo de toda su vida.

EDISON 2

http://www.biografiasyvidas.com/monografia/edison/

FUENTES:

Al final de la primera parte de esta serie, se citaran las fuentes utilizadas.

HABLANDO DE ENERGÍA 1

JAMES E. LOVELOCK 1

lovelock 2

“La naturaleza favorece a aquellos organismos que dejan a sus descendientes el medio ambiente en mejores condiciones para sobrevivir”

James Efraim Lovelock, nacido en Letchworth Garden City (UK) el 26 de julio de 1919, es un científico independiente dedicado al estudio del medio ambiente  y preocupado por su futura evolución. Es probablemente la persona que más ha luchado por la toma de conciencia de los efectos negativos para la vida en la tierra que representa el aumento de los gases de efecto invernadero en la atmósfera, producto de la utilización de combustibles fósiles.

Hijo de modestos trabajadores, convencidos de la importancia de la educación, la familia se trasladó a Londres buscando una mejor educación para su hijo, pero su carácter independiente y rebelde lo convirtió en un mal alumno de su escuela. No pudo costearse la asistencia a la universidad algo que, según él, le permitió no ser un simple especialista y mantener su mente abierta.

Fue aceptado como estudiante de química en el Birkbeck College de la Universidad de Manchester, donde obtuvo muy brillantes calificaciones. Pero solamente pudo costearse dos años de los tres de que constaba el programa. Lovelock trabajó en una granja de cuáqueros hasta que la recomendación de uno de sus profesores le llevó a entrar en el Consejo de Investigación Médica, organismo que entonces estudiaba (estamos en la segunda guerra mundial) la forma de proteger a los soldados de las quemaduras. En 1948 recibió el título de Doctor en Medicina en la escuela de Medicina Tropical e Higiene de Londres. En los Estados Unidos ha dirigido investigaciones en el Baylor College of Medicine y las Universidades de Yale y Harvard.

Inventor vocacional durante toda su vida, ha creado y desarrollado multitud de instrumentos científicos, muchos de ellos destinados a la NASA para su programa de exploración del sistema planetario. Sobre todo para el análisis de la atmósfera y superficie de los planetas. Sus inventos y estudios acerca del comportamiento de la atmósfera ante diversos  compuestos químicos (CO2, CFC, Ciclo del azufre, etc.)  han sido tan exhaustivos que puede ser considerado uno de los mayores expertos del mundo.

Participó en el programa Vikingo, centrado en la exploración de Marte, al final de los años setenta. Allí fueron instalados muchos de los aparatos por él desarrollados para analizar la atmósfera y determinar si alguna vez había existido alguna forma de vida. La constatación de la abrumadora existencia de dióxido de carbono y la escasa probabilidad de existencia de vida en esas condiciones, es lo que empezó a despertar su interés por la relación entre el CO2 existente en la atmósfera terrestre y sus efectos sobre el medio ambiente y la vida.

Hacia el final de los años sesenta como resultado de los trabajos realizados para la NASA elaboró la Hipótesis Gaia (1969), expuesta en un libro publicado en 1979, cuyo título, por sugerencia del novelista W. Golding, era el nombre de la diosa griega de la tierra. En ella afirma que la biosfera es una entidad con capacidad de autorregularse para mantener nuestro planeta en condiciones de habitabilidad, controlando las interconexiones del medio ambiente químico-físico y sus influencias sobre los seres vivos. Esta hipótesis que fue aceptada de forma casi inmediata por los ecologistas, no tuvo la misma aceptación en todo el mundo científico. La han cuestionado alegando cómo la selección natural que opera en los organismos individuales, puede llevar a una evolución homeostática [1] de escala planetaria.

En respuesta, junto con otro científico, Andrew Watson, publicó en 1983 el modelo informatizado de evolución de los organismos vivos (en este caso vegetales) en función de las variaciones en las condiciones medioambientales. El modelo denominado DAISYWORLD trataba de demostrar científicamente su hipótesis. (Su compleja metodología y conclusiones se pueden encontrar en internet).

En su libro de 2006 “La venganza de Gaia”, Lovelock exige acciones urgentes para detener las emisiones de CO2 antes de que el cambio climático se haga irreversible. Entre esas medidas, este padre del ecologismo moderno, urge a sustituir las dañinas emisiones producidas por la utilización de combustibles fósiles, por otras energías baratas y limpias, abogando principalmente por el uso de la energía nuclear:

Soy un VERDE […] pero soy, sobre todo un científico. Por ello, invito a mis amigos entre los verdes a reconsiderar sus ingenuas creencias sobre el “desarrollo sostenible” y, que éste y ahorrar energía, es todo lo que se precisa. Sobre todo deben abandonar su testaruda oposición a la energía nuclear. Incluso si tuvieran razón en cuanto a sus riesgos –y no la tienen-, su uso como fuente segura y fiable de energía implicaría una amenaza despreciable comparada con el auténtico riesgo de olas mortíferas de calor y elevaciones del mar que amenazarían todas las ciudades costeras del mundo. La energía renovable suena bien, pero hasta el momento es ineficiente y cara. Tiene un futuro, pero carecemos ahora del tiempo necesario para experimentar con fuentes de energía visionarias: la civilización está en grave peligro y tiene que usar la energía nuclear o sufrir el daño que le causara nuestro airado planeta. 

  Lovelock no es el único ecologista que piensa así. Patrick Moore uno de los fundadores de Greenpeace es de la misma opinión. La Asociación de Ecologistas por la Energía Nuclear, encabezada por el ingeniero Bruno Comby, defiende a ultranza la aparente blasfemia de que la energía atómica es necesaria para un mundo mejor. Entre las filas de los científicos profesionales, los defensores de la energía nuclear son mayoría.

En contraste, organizaciones como Greenpeace se mantienen inflexibles en su rechazo absoluto o a todo lo que tenga que ver con el átomo y han lanzado una virulenta campaña antinuclear en España, plagada de noticias incontrastables, exageradas, inexactas o simplemente falsas. Probablemente muy bien financiadas por el lobby de los combustibles fósiles, generadores del CO2.

El ecologista y científico Bjorn Lomborg, antiguo miembro de Greenpeace, en su libro de 2001 “El ecologista Escéptico”, hace una revisión a fondo de las predicciones de los ecologistas en general y de Greenpeace en particular a la luz de los desarrollos que se han producido y desmonta con datos científicos muchos de su planteamientos. También hace una dura crítica a muchos movimientos ecologistas por  hacer una utilización selectiva y parcial de los datos científicos para crear alarma social al servicio de sus intereses.

En 2006, Lovelock publica un nuevo libro “La venganza de Gaia”, en el que expone que la falta de respeto que los seres humanos muestran por Gaia a través de la destrucción de las selvas de lluvia y la reducción de la biodiversidad, está poniendo a prueba la capacidad de Gaia de minimizar los efectos de los gases de efecto invernadero en la atmósfera. Todo ello comporta la posibilidad de calentamiento global con efectos que pueden llegar a ser catastróficos para la vida futura.

En su último libro, (2009) “The Vanishing Face of Gaia: A Final Warning: Enjoy It While You Can”, cuyo título es muy descriptivo (El evanescente rostro de Gaia. Una advertencia Final: Disfrútalo mientras puedas), actualiza sus predicciones a la luz de las más recientes evoluciones de los datos sobre el calentamiento global y la inacción real, según su criterio por políticas equivocadas,  para resolverlo.

En una reciente entrevista a la revista Newsweek (31 de mayo 2015) reconoce que sus catastróficas predicciones sobre inundaciones, sequías y hambrunas  que diezmarían la población mundial hacia 2040, pueden estar  equivocadas en cuanto a su horizonte temporal (fechas), pero no en las consecuencias que sobre el equilibrio de la atmósfera y el medio ambiente va a tener el efecto del calentamiento. Sigue convencido  que los humanos somos ya  incapaces de revertirlo.

En este sentido, el informe emitido esta misma semana por el Instituto Grantham de Investigaciones sobre el Cambio Climático indica que los objetivos fijados de emisiones de CO2 (con reducciones) para el año 2030 son inalcanzables. Las hipótesis de Lovelock son, por tanto, difícilmente rebatibles. Lovelock no se siente tan preocupado por la supervivencia de la humanidad, como por la continuidad de la vida misma sobre el planeta.

Su fe en GAIA, su revolucionaria teoría, es que nuestro planeta es un complejo organismo que se auto regula para el mantenimiento de la vida; para él esto significa, entre otras cosas, que si hay, en algún momento, un exceso de población sobre la Tierra, GAIA encontrara la forma de eliminar los excedentes precisos para seguir adelante.

Pone de manifiesto que a pesar de la devastación ocasionada en Japón por el tsunami que afectó tan gravemente a la central de Fukushima, se han producido un numero elevado de fallecidos por las inundaciones y también se informó de 50 suicidios por el pánico generado, pero el número de fallecidos a causa de la radiación es ZERO. 

Se opone al concepto de “desarrollo sostenible” en el que se defiende,  que las sociedades modernas con su demanda creciente de energía para todas las actividades humanas, podrían ser mantenidas con la energía generada por los aerogeneradores (Se centra en este medio por ser el más eficiente entre los productores de energías renovables, los demás ni tan siquiera los considera) y considera que en términos científicos es un sinsentido.

En su despacho mantiene un gran póster de un aerogenerador para no olvidar cuanto los detesta:

“Yo soy ecologista y miembro fundador de los Verdes pero inclino mi cabeza con vergüenza ante la constatación de que nuestras buenas intenciones hayan sido tan mal entendidas y mal aplicadas”

“Debemos procurar que los aerogeneradores no se conviertan, como las estatuas de la Isla de Pascua, en monumentos de una civilización fallida”

J. LAVELOCK

Lovelock con GAIA

Su página web personal:

http://stopthesethings.com/2013/01/31/i-am-james-lovelock/

El enlace para la entrevista completa en Newsweek:

http://europe.newsweek.com/james-lovelock-saving-planet-foolish-romantic-extravagance-327941

 [1] La homeostasis es una propiedad de los organismos vivos que consiste en su capacidad de mantener una condición interna estable compensando los cambios en su entorno mediante el intercambio regulado de materia y energía con el exterior (metabolismo). Se trata de una forma de equilibrio dinámico que se hace posible gracias a una red de sistemas de control realimentados que constituyen los mecanismos de autorregulación de los seres vivos.

Continuará esta serie sobre la energía tratando de ofrecer informaciones contrastadas de diversas fuentes, la más importante de las cuales es la AIEA.