La vida política y socioeconómica de la humanidad transcurrió en el siglo XX bajo el patrocinio del petróleo. Un petróleo abundante y barato. Los engranajes de la industria se movieron y lubricaron con petróleo, igual que las tareas agrícolas. Todo el aparato de guerra operó con petróleo. La historia del hombre fue, en el siglo XX, la historia del descubrimiento, extracción e industrialización del petróleo y de las recurrentes crisis —políticas y militares— de su abastecimiento y precios.
La conversión de los derivados del petróleo en el principal recurso energético obedeció al desarrollo y uso generalizado del motor a explosión, principalmente en los quehaceres de la industria y la transportación. Los descubrimientos de nuevas reservas en volúmenes superiores a las necesidades y la confianza en contar con los hidrocarburos más que suficientes para abastecer el consumo alentó en la segunda mitad del siglo XX un ciego optimismo acerca del abastecimiento energético. Fue a comienzos del nuevo siglo que esa visión optimista empezó a erosionarse porque las reservas descubiertas cada año ya no superaban las cifras del consumo del año anterior. Y esto creó la percepción de que la era del petróleo barato había terminado y sustentó los altos precios de los hidrocarburos.
Al entrar al siglo XXI el aprovisionamiento mundial de energía provenía de cuatro fuentes: petróleo, en un 40%; gas natural, en alrededor del 25%; carbón, aproximadamente el 25%; y el 10% restante, diversas energías: nuclear, solar, hídrica, eólica, geotérmica, biogás, biodiésel y otras.
La palabra petróleo —proveniente del bajo latín petroleum, que significa aceite de roca— designa un líquido natural oleaginoso e inflamable constituido por una mezcla de hidrocarburos, que se encuentra en los lechos geológicos.
Pero los recursos hidrocarfuríferos —petróleo convencional, gas natural, petróleos pesados y extra-pesados, petróleo de aguas profundas, petróleo de pizarra, etc.— empezaron pronto a declinar. El geofísico norteamericano Marion K. Hubbert, aplicando los principios de la geología, la física y las matemáticas a la proyección de la futura producción hidrocarburífera, afirmó en 1956 que la explotación mundial llegaría a su apogeo en el año 2000, después de lo cual empezaría a declinar. Las corporaciones internacionales especializadas estimaban que la cima de la “campana” de Hubbert, es decir, la máxima producción mundial, se daría entre los años 2010 y 2020. La Association for the Study of Peak Oil and Gas (ASPO) presagió en el año 2005 que el proceso de disminución petrolera —con una demanda diaria de 84,9 millones de barriles de petróleo crudo, que significaba cerca de 31 billones de barriles al año, según cálculos de la International Energy Agency— se iniciaría alrededor del año 2010 y la del gas natural entre el 2010 y el 2020. En igual sentido se pronunció el científico francés, especialista en el estudio de reservas petrolíferas y miembro de la ASPO, Jean H. Laherrère. En cambio, el United States Geological Survey en un estudio efectuado el año 2000 estimaba que, con base en la proyección de los parámetros de producción y consumo de ese año, habría en el mundo suficientes reservas petrolíferas por cincuenta a cien años y que el peak oil se produciría alrededor del año 2037. No obstante, el grupo de científicos norteamericanos que, bajo el patrocinio de la Agencia Central de Inteligencia (CIA) y del National Intelligence Council, formuló en el año 2000 una prognosis del mundo contenida en el documento “Global Trends 2015″, tuvo una visión diferente: “A pesar del aumento del 50 por ciento de la demanda global de energía, los recursos energéticos serán suficientes para satisfacer la demanda; las últimas estimaciones sugieren que el 80 por ciento del petróleo mundial existente y el 95 por ciento del gas natural se mantendrán bajo tierra” en aquellos años.
Sin embargo, el precio del petróleo en el mercado internacional aumentó 5,5 veces desde la crisis asiática 1998/99 hasta finales del 2004 y esta parecía ser una tendencia estructural —y no meramente coyuntural— originada, entre otras razones, en el dramático aumento del consumo de China e India y en el comienzo de la baja de la producción de la OPEP, que han roto el equilibrio entre la oferta y la demanda. Estimaciones hechas por medio de regresiones logarítmicas aplicadas a los precios medios anuales del petróleo crudo en el mercado internacional durante la década 1995-2005 permitieron avizorar que el precio del barril se situaría en alrededor de cien dólares a finales del año 2010.
Está claro que las predicciones se refieren a una escasez geológica —y no política— del petróleo, como la que ocurrió a partir de las drásticas decisiones de la Organización de Países Exportadores de Petróleo (OPEP), con ocasión de las crisis energéticas de 1973 y 1979, o las crisis de precios de 1990 y del 2003 causadas por las guerras del Golfo Pérsico.
Después de cincuenta años de investigaciones de los más renombrados científicos en materia petrolera, quedó con razonable grado de certidumbre lo siguiente:
1) que ha sido descubierto el 95% del petróleo recuperable del planeta;
2) que se ha extraído y consumido aproximadamente la mitad de ese petróleo;
3) que a partir de 1981 el consumo de petróleo ha sido más rápido que el encuentro de nuevos yacimientos;
4) que la tasa de explotación de los campos hidrocarburíferos se está acercando a su punto culminante —el peak oil—, que podrá mantenerse por un reducido número de años, para después bajar ineluctablemente;
5) que la era del petróleo abundante y barato terminó y advendrán los tiempos de penuria y altos precios;
6) que en la medida en que se profundice la escasez de petróleo se agudizarán los conflictos internacionales en función del control de las fuentes de abastecimiento —especialmente en el Oriente Medio— y de sus canales de comercialización;
7) que uno de los factores del aumento de la demanda mundial de hidrocarburos es China, cuyas crecientes necesidades de energía para su aparato productivo y para los requerimientos de su gigantesca población se ven agudizadas por sus afanes de alcanzar los índices económicos de los países prósperos de Occidente; y
8) que la humanidad está abocada a buscar nuevas fuentes de energía para suplir a las petrolíferas cuando éstas se agoten.
La demanda global de energía crecerá en un 50% hasta el año 2030 y el 45% de ese crecimiento corresponderá a China e India.
Los estudios apuntan a que China, superando a Estados Unidos, se ha convertido en la mayor consumidora de energía a partir del 2010. Martin Wolf, a la sazón principal comentarista económico del diario británico “Financial Times”, escribió a finales del 2007 que el incremento de la demanda de energía de China entre el 2002 y el 2005 equivalió a la cantidad de energía consumida por el Japón en todo el año 2007. Con este argumento puso en evidencia la gravedad del problema energético del mundo en los años venideros y también la preocupación por la creciente emisión de dióxido de carbono producida por la quema de los combustibles fósiles, que aumentará en alrededor del 57% entre el 2005 y el 2030. China, Estados Unidos, Rusia e India contribuirán con las dos terceras partes del aumento de esa contaminación. Los expertos prevén que el crecimiento de estos combustibles representará el 84 por ciento del incremento total de combustibles entre el año 2005 y el 2030 por su rol en la producción de energía. Al respecto, comentó Wolf que “el deseo del resto el mundo de incorporarse a un modo de vida intensivo en el uso de la energía, y del que ahora sólo disfrutaba un sexto de la población mundial, es legítimo pero traerá importantes consecuencias económicas, estratégicas y medioambientales”.
En el mismo lapso se ha previsto que el carbón —elemento energético altamente contaminante pero barato— ascienda del 25% al 28% del comercio global de energía, porcentajes en los que China e India representarán el 45%.
El agotamiento de las fuentes tradicionales del petróleo ha conducido a buscar dos hidrocarburos no convencionales: el shale oil y el shale gas, que se encuentran en zonas terráqueas más profundas, donde están las capas de esquisto bituminoso de las que se extrae este tipo de hidrocarburos.
Pero su extracción es no solamente más compleja y costosa sino también más contaminante por la emisión de gases de efecto invernadero.
El denominado shale oil es petróleo de esquisto, es decir, petróleo que proviene de las capas rocosas que yacen bajo las minas hidrocarburíferas tradicionales.
Los Estados Unidos, que tienen gigantescas reservas de esquisto —localizadas en los estados de Colorado, Utah, Wyoming, especialmente—, han comenzado a explotarlas y pueden convertirse a corto plazo en los mayores productores de petróleo y gas no convencionales del mundo y en los mayores exportadores netos de energía, con muy importantes consecuencias geoeconómicas y geopolíticas globales en el marco de la shale revolution, que llaman los norteamericanos.
El economista francés Guy Sorman, en un artículo titulado “El fin de la ideología verde” (2011), sostiene que “gracias a las nuevas técnicas de fracturación hidráulica y perforación horizontal, el shale gas puede convertirse en el recurso energético dominante del futuro. El shale gas podría así reducir la dependencia del petróleo y del gas de la OPEP y disminuir la emisión de carbono. El gas genera diez veces menos carbono que la biomasa o el etanol, algo que los ecologistas promueven tan fervientemente”.
También Argentina tiene posibilidades de explotar estos hidrocarburos no convencionales en la zona de Vaca Muerta, provincia de Neuquén, donde posee grandes reservas de rocas de esquisto. Según estimaciones hechas en el 2013 por la Agencia Internacional de Energía —International Energy Agency (IEA)—, Argentina tiene reservas de shale gas por 774 Tcf (trillones de pies cúbicos), que le colocarían solamente detrás de Estados Unidos y China en materia de reservas de gas no convencional en el mundo.
Poseen también estas minas Canadá, México, Brasil, Alemania, Polonia, Australia y China.
La explotación del petróleo de esquisto, de aguas profundas y de arenas bituminosas, aumentará significativamente la producción hidrocarburífera global en los próximos años. Serán centenares de miles de millones de barriles de petróleo procedentes de fuentes no convencionales que se incorporarán a la oferta comercial. Es previsible que, en tales circunstancias, ha de producirse una importante baja en el precio del petróleo en el mercado internacional. Y los Estados Unidos se convertirán en el principal productor de este tipo de combustible y en exportador neto. Según afirmó a comienzos del 2014 el economista Edward Morse, jefe del Commodities Research at Citigroup en Nueva York, con este auge global del crudo petrolero se abrirá “una era de independencia energética norteamericana” y, concomitantemente, se impondrá una prueba de fuego a la economía de Rusia, en la cual los hidrocarburos representan alrededor del 70% de sus exportaciones.
A principios de este siglo alrededor del noventa por ciento de los productos energéticos provenía de combustibles fósiles —petróleo, gas natural, carbón—, que son fuertemente contaminantes. Su combustión emite los gases de <efecto invernadero que, al condensarse en la atmósfera, forman una pantalla que impide la salida de las emisiones de calor de la superficie terrestre y origina el aumento de la temperatura del planeta, con consecuencias catastróficas sobre el clima: tormentas tropicales, huracanes, deshielo de los glaciares, aumento del nivel de los mares, trombas, lluvias torrenciales, inundaciones, sequías, olas de calor o de frío y otros fenómenos climáticos de efectos graves para la vida humana.
Según datos de 1990, del total de las emisiones de dióxido de carbono producidas por los países industriales —en los términos del artículo 25 del Protocolo de Kyoto—, Estados Unidos eran responsables del 36,1%, Rusia del 17,4%, Japón del 8,5%, Alemania del 7,4%, Inglaterra del 4,3%, Canadá del 3,3%, Italia del 3,1%, Polonia del 3%, Francia del 2,7%, Australia del 2,1%, España del 1,9%, Holanda del 1,2%, República Checa del 1,2%, Rumania del 1,2% y los otros países en porcentajes menores.
En el foro Green Solutions, reunido en Cancún del 29 de noviembre al 10 de diciembre del 2010 para discutir opciones alternativas “verdes” en la industria y otras actividades productivas, se criticaron los subsidios por alrededor de 300.000 millones de dólares que se otorgaban en el mundo a la producción de combustibles fósiles —cifra que representaba casi seis veces más que lo que se daba a las energías renovables eólica y solar— y se defendió la conveniencia de eliminar esos subsidios a los combustibles fósiles, poner un precio a las emisiones contaminantes y dirigir apoyos económicos al desarrollo de las energías renovables.
Adnan Amin, director interino de la Agencia Internacional de Energías Renovables, afirmó en ese foro que las energías fósiles resultaban más baratas que las energías renovables por los subsidios que tenían y también “porque los costos externos del petróleo, como la contaminación, no se integran en el precio de esos combustibles sino que son asumidos por la sociedad”. Y agregó: “no habrá una solución de largo plazo para el problema del cambio climático hasta que pongamos un precio a las emisiones de carbono”.
El accidente nuclear de Fukushima en Japón el 11 de marzo del 2011 —que afectó algunas de sus plantas nucleares en el noroeste de la isla y produjo la fuga de material radiactivo— reavivó en el mundo la discusión acerca de la conveniencia y los riesgos de la energía atómica. Puso en evidencia que los accidentes en las instalaciones nucleares no pueden ser totalmente controlados a pesar de los avances tecnológicos y de las precauciones instituidas. La catástrofe japonesa, causada por un terremoto y un tsunami, llevó a algunos países europeos, especialmente Alemania y Suiza, a plantearse nuevamente la reconsideración de su política energética a la luz de aquellos trágicos acontecimientos, no obstantes los beneficios de la energía nuclear en el campo ambiental. Pero otros países —como Rusia, Francia y algunos del Oriente Medio— siguieron adelante con sus programas de construcción de reactores atómicos para producir energía eléctrica.
A comienzos de la segunda década de este siglo había 443 reactores en operación en 29 países alrededor del planeta, que producían 2.560 billones de kilovatios/hora de electricidad, que representaban el 14% de la producción eléctrica global. Y estaban en construcción nuevos reactores: 27 en China, 10 en Rusia, 5 en Corea del Sur, 5 en la India, 2 en Japón, 2 en Canadá, 2 en Eslovaquia y uno en Argentina, Brasil, Irán, Finlandia, Francia, Pakistán y Estados Unidos. 158 nuevos reactores estaban en etapa de planificación y 324 en proyecto. Adelantaba el programa internacional denominado ITER —en el que están comprometidos Estados Unidos, la Unión Europea, Japón, Federación Rusa, República Popular de China, Suiza y Corea del Sur— para construir reactores movidos por fusión nuclear destinados a generar grandes cantidades de electricidad a partir del año 2037 para la operación en amplia escala de plantas desaladoras de las aguas oceánicas y proveedoras de agua dulce en volúmenes significativos.
La demanda de reactores para sustituir a la energía convencional es muy grande, aunque el Massachusetts Institute of Technology (MIT) sostiene que la operación de mil reactores nucleares en el mundo aliviaría apenas marginalmente el calentamiento planetario.
No han sido pocos los accidentes en instalaciones nucleares. En 1979 se produjo en la planta de Three Mile Island en Estados Unidos un accidente de grado 5 de gravedad en la escala internacional de 7. El 30 de septiembre de 1999 un error de procedimiento de los técnicos de la planta de procesamiento de uranio en Tokaimura, 140 kilómetros al noreste de Tokio, desencadenó un proceso de fisión en cadena de material radiactivo y produjo un accidente nuclear de 4 grados de gravedad. El diario londinense “The Observer” informó el 24 de octubre de 1999 que en Inglaterra estuvo a punto de producirse una catástrofe nuclear en la planta de Aldermaston en Bershire, cerca de Londres, a causa de la inobservancia de sus normas de seguridad. Un terremoto de 6,8 grados en la escala de Richter sacudió el noroeste del Japón el 17 de julio del 2007 y produjo la fuga de agua radiactiva hacia el mar y la caída de varios depósitos de residuos tóxicos en la central nuclear de Kashiwazaki-Kariwa, que obligó a las autoridades japonesas a cerrarla temporalmente para evitar una catástrofe radiactiva.
El instituto francés de seguridad nuclear afirmó, en el 2011, que desde 1945 se habían producido en el mundo sesenta accidentes nucleares, de diferentes grados, incluidos treinta y tres en Estados Unidos y diecinueve en la ex-Unión Soviética.
Y es que las plantas nucleares de energía son vulnerables, especialmente en las zonas propensas a movimientos sísmicos, a pesar de todos los resguardos técnicos a los que se las somete.
La eliminación de los desechos tóxicos y de las aguas residuales de la industria nuclear constituye otro de los grandes problemas de contaminación del planeta. El mundo industrializado tiene la mayor responsabilidad en la activación de este factor contaminante. La basura tóxica y las aguas residuales arrojadas sobre el suelo, los ríos y los mares causan en ellos estragos irreversibles. Parte de esos desechos exportan los países industriales hacia los países del tercer mundo de manera clandestina, engañosa o por medio de corrupción. Se han denunciado descargas de materias contaminantes y peligrosas en algunos países del mundo subdesarrollado, que tienen el fundado temor de convertirse en basurales de los países industrializados, con todas las consecuencias que esto puede tener para la salud de sus pueblos.
Ningún país ha podido crear un método seguro de almacenamiento de los desechos radiactivos y aguas contaminadas de sus plantas de energía nuclear. De acuerdo con informaciones del Organismo Internacional de Energía Atómica (OIEA), en la primera década de este siglo más de 2,8 millones de metros cúbicos de basura radiactiva se han producido anualmente en el mundo, cifra que tiende a subir por el aumento del número de plantas nucleares.
Según informaciones proporcionadas por la Organización para la Cooperación y el Desarrollo Económicos (OCDE), en el año 2000 hubo unas 220.000 toneladas de residuos altamente radiactivos en 25 países poseedores de centrales nucleares, lo cual les obligó a construir cementerios bajo tierra, en formaciones geológicas de gran estabilidad, a un costo incalculable. Pero el solo proyecto de construirlos levantó protestas de los habitantes cercanos a los lugares donde se pretendía instalarlos. Las autoridades norteamericanas buscaban hacerlo en las tobas volcánicas de Yucca Mountain, en Nevada, pero el presidente Barack Obama se opuso tenazmente al proyecto. Alemania eligió para este fin la mina salina de Gorleben, en Sajonia. En España se han presentado problemas porque ninguno de los ayuntamientos cuyos terrenos han sido seleccionados por ENRES —que es el ente público encargado de estos asuntos— aceptaba recibir bajo su suelo los desechos radiactivos procedentes de las nueve centrales nucleares españolas. Suecia y Finlandia escogieron un emplazamiento seguro y Francia y Suiza lo harán en algún momento.
Los reactores nucleares son peligrosos, como lo demuestran los catastróficos accidentes de Chernobyl y Fukushima —y muchos otros accidentes de menores dimensiones—, y su energía es costosa. La inversión para producir un kilovatio/hora —excluidos los costos del hacinamiento de los desechos radiactivos— es tres veces mayor que la requerida para generar energía a gas o a vapor, a pesar de que el uranio no soporta gravámenes impositivos. El valor de construcción de los reactores es altísimo y toma mucho tiempo. A comienzos de la segunda década de este siglo, la construcción del reactor nuclear Olkiluoto 3 en Finlandia costó más de 6 billones de euros. La escasez de los depósitos de uranio ha determinado la subida aluvional del precio de este metal —doblado entre el 2004 y el 2011—, que seguirá en ascenso de acuerdo con el crecimiento de la demanda. China e India, por ejemplo, que están empeñadas en expandir sus instalaciones de energía nuclear, apenas tienen el 3% y el 2%, respectivamente, de recursos de uranio probados y disponibles. Las mayores reservas están en Australia (31%), Kasajistán (12%), Canadá y Rusia (9%) y cifras menores en una docena de países. Además, los elevadísimos costos de los accidentes nucleares, que los paga el Estado y no las empresas operadoras o las compañías de seguros, encarece aun más esta fuente de energía. El Estado asume además el pago de los subsidios que demanda la industria nuclear. De acuerdo con los datos del Forum Ökologisch-Soziale Marktwirtschaft, los subsidios estatales a la producción nuclear de electricidad en Alemania durante el período 1950-2010 sumaron 304 billones de euros. Y las cosas no son diferentes en los otros países desarrollados. De modo que la electricidad producida por energía nuclear es extraordinariamente onerosa. Entonces el problema no puede ser más serio para el futuro de la humanidad, a pesar de que está en marcha la denominada cuarta generación de reactores, que se supone que serán menos caros en su funcionamiento y mantenimiento y más seguros en su operación.
En gobiernos, foros y opinión pública se considera que la energía nuclear no es una opción válida hacia el futuro por todos los peligros que ella entraña y se impulsa la búsqueda de energías seguras, renovables y no contaminantes. Pero no hay muchas opciones. En Europa se marca una tendencia hacia una economía productiva de baja emisión de CO2 a partir del uso de nuevas energías renovables, en el marco de una “economía verde” —green economy— que respete los fueros de la naturaleza y no lastime al ser humano.
De otro lado, es difícil afrontar el tema de la energía nuclear para usos pacíficos sin hacer referencia al uso de ella con propósitos militares y a las armas nucleares. El escepticismo impera en esas lucubraciones, especialmente con relación a la conflictiva área del Mediterráneo, algunos de cuyos países han ingresado o pretenden ingresar al club nuclear. Hay la preocupación, como es lógico, de que se produzca la proliferación de las armas nucleares —bombas atómicas, bombas de hidrógeno, bombas de neutrones, armas isotópicas, rayos láser Airborne Laser Tesbed y otras— y de que ellas caigan en manos irresponsables o fanáticas.
La búsqueda de energía barata, inagotable y no contaminante es el reto actual para reemplazar al petróleo y a la energía nuclear. Resulta imperativo el encuentro de fuentes alternativas de energía que, en lo posible, sean seguras y renovables.
En esa búsqueda, el biogás es una posibilidad. El biodiésel, otra. El biogás es un elemento combustible producido artificialmente por la putrefacción de materia orgánica —basura, estiércol, vegetales, desechos, aguas servidas y otros materiales biodegradables— en tanques o recipientes cerrados de ladrillo, cemento o metal —denominados biodigestores—, en condiciones anaerobias, es decir, sin oxígeno. Este proceso de digestión libera la energía química de la materia orgánica, que se convierte en gas. Este gas se utiliza en vehículos automotores y en máquinas generadoras de energía eléctrica o de otros fines industriales, en sustitución de la gasolina y el diésel. Tiene la ventaja de ser un recurso renovable, su combustión es limpia y no lanza dióxido de carbono (CO2) hacia la atmósfera. Por este medio la basura y los desechos orgánicos pueden convertirse en electricidad.
El biodiésel es un combustible biodegradable que se obtiene de grasas vegetales procedentes de semillas, plantas, algas oleaginosas y también de grasas animales. Puede ser utilizado para operar motores a diésel sin necesidad de modificaciones, porque sus propiedades son similares a las de los combustibles de petróleo, aunque su energía es un cinco por ciento menor que la del gasóleo pero se compensa con su alta lubricidad, por lo cual el rendimiento energético es prácticamente igual. Tiene bajos efectos contaminantes y no expide dióxido de carbono (CO2) hacia la atmósfera. Se lo puede usar mezclado con gasóleo de bajo contenido de azufre, en cualquier proporción. A comienzos del siglo XXI se lo utilizaba en veinticinco países. Sin embargo, el biodiésel no está destinado a sustituir totalmente al diésel de petróleo porque se requerirían enormes tierras de cultivo para producirlo en gran escala.
Otro combustible que puede obtenerse por el proceso químico de fermentación es el etanol, que es un alcohol de alto octanaje, libre de agua, producido por la fermentación anaerobia de azúcares.
El etanol es un biocombustible elaborado mediante la fermentación de productos azucarados, como la caña de azúcar y la remolacha —previa hidrólisis o transformación en azúcares fermentables del almidón contenido en ellos—, del almidón extraído de la biomasa de ciertos cultivos y desechos agrícolas o forestales, de cereales —trigo, cebada y maíz— y de otros productos menos conocidos, como el sorgo dulce, la papa, la yuca, el camote y cualquier otro que contenga carbohidratos fermentables.
Brasil, que era el mayor exportador mundial de azúcar, destinaba a comienzos del 2006 el 52% de su cosecha de caña de azúcar para producir etanol. Extensas áreas de tierras fértiles están dedicadas a producir caña de azúcar. Pero la elaboración de este agrocombustible puede eventualmente tener un alto costo social y conspirar contra la seguridad alimentaria porque implica destinar campos agrícolas a la producción de materias primas para combustibles y transformar alimentos en carburantes. Lo cual condujo a la investigadora mexicana Silvia Ribeiro, especializada en asuntos ecológicos, a expresar: “La cantidad de granos que se exige para llenar el depósito de un camión con etanol es suficiente para alimentar una persona durante un año”.
Estados Unidos, en cambio, utilizan el maíz como materia prima para la producción de etanol. Las empresas de productos transgénicos —como Syngenta, Monsanto, Dupont, Dow, Bayer, BASF— han realizado ingentes inversiones en cultivos para la generación de biocombustibles y han celebrado acuerdos de colaboración con las corporaciones transnacionales que dominan la comercialización mundial de cereales, como Cargill, Archer, Daniel Midland, Bunge y otras.
La mezcla de gasolina con etanol produce una combustión más limpia en los motores. El etanol sustituye al plomo en la gasolina para incrementar su octanaje. Con la agregación de un 10% de etanol a la gasolina se reduce un 30% de las emisiones de monóxido de carbono y entre un 6% y un 10% de las emisiones de dióxido de carbono.
Ante los altos precios de los derivados del petróleo, los países industriales han incrementado el uso del etanol como elemento aditivo de combustible para los vehículos. Lo mezclan, en diversas proporciones, con la gasolina o con el diésel. La mezcla más frecuente es 85% de etanol y 15% de gasolina sin plomo, de la que resulta el combustible denominado E-85, cuyo uso no entraña problemas para los vehículos de serie. La mezcla con mayores proporciones de etanol demanda modificaciones en los sistemas de inyección y de encendido del motor. Los denominados “coches flexifuel” están provistos de motores especialmente diseñados para este tipo de combustibles. Pueden fabricarse también vehículos específicamente preparados para funcionar con etanol puro.
Aparte de ser un recurso energético renovable, el etanol tiene la ventaja de producir menores emisiones de gases contaminantes que los combustibles derivados del petróleo. Su poder energético es un 30% a 40% menor que el de la gasolina, lo cual significa que, para realizar el mismo recorrido, un vehículo alimentado con etanol consume de un 30% a un 40% más de combustible.
Sin embargo, los movimientos sociales y ambientalistas tienen opiniones irreductibles al respecto. En entrevista a una radio de Alemania, el catedrático suizo y exrelator de la Organización de las Naciones Unidas (ONU) para el Derecho a la Alimentación, Jean Ziegler, al denunciar el abandono de los cultivos alimentarios en beneficio de los biocombustibles, afirmó el 14 de julio del 2008 que “la producción en masa de agrocombustibles representa un crimen contra la humanidad por su impacto en los precios mundiales de los alimentos”. La declaración formó parte de las críticas de los movimientos sociales y ambientalistas contra la producción de ese tipo de combustibles.
No hay duda, en realidad, de que la producción masiva de biocombustibles —que presupone crecientes superficies de tierra y volúmenes de agua destinados al cultivo de maíz, palma, caña de azúcar y otros producto de los que se extraen biocombustibles— está llamada a producir una crisis alimentaria y un alza inmoderada de los precios de los alimentos que perjudicará, en el orden internacional, a los países importadores netos de ellos y, en el orden interno, a las capas sociales más pobres, que destinan altísimos porcentajes de sus ingresos a la compra de comida.
En su informe del año 2009, el Programa Mundial de Alimentos (PMA), organismo de las Naciones Unidas, dio una voz de alarma cuando afirmó que la hambruna en el mundo alcanzó su nivel más alto de la historia, con más de mil millones de personas afectadas por la escasez de alimentos. Cada seis segundos un niño moría en ese año por causas relacionadas con el hambre. La falta de alimentos afectaba a 642 millones de personas en Asia y el Pacífico, 265 millones en África subsahariana, 53 millones en América Latina y el Caribe, 42 millones en en el Oriente Medio y África del norte y 15 millones en los países del mundo desarrollado. El 65% de quienes padecían hambre vivía en siete países: India, China, República Democrática del Congo, Bangladesh, Indonesia, Pakistán y Etiopía.
En iguales términos se pronunció la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO), que afirmó que en ese año existían mil veinte millones de seres humanos que carecían de alimentos suficientes en el planeta.
La directora ejecutiva del PMA, Josette Sheeran, atribuyó la situación calamitosa a “dos tormentas que han coincidido y están golpeando al mundo”: la crisis financiera internacional que comenzó a finales del 2008 y el encarecimiento de los alimentos.
Sin embargo, tres años después —año 2012— la FAO informó que la cifra de la desnutrición crónica mundial había bajado a 868 millones de personas, que representaban cerca del 12,5% de la población mundial: 304 millones en Asia meridional, 234 millones en África subsahariana, 167 millones en Asia oriental, 65 millones en Asia sudoriental, 49 millones en América Latina y el Caribe, 25 millones en Asia occidental y África del norte. De la cifra global de desnutrición, el 16% correspondía a los países desarrollados. De modo que la geografía del hambre estaba ubicada en las regiones subdesarrolladas del planeta.
El Instituto Internacional de Investigación sobre Políticas Alimentarias y las organizaciones no gubernamentales Welthungerhilfe de Alemania y Concern Worldwide de Irlanda, conjuntamente, realizan la medición del hambre en el mundo y, ponderando tres indicadores combinados: desnutrición, bajo peso infantil y mortalidad infantil, formulan anualmente el Índice Global del Hambre —Global Hunger Index (GHI)— y clasifican a los países en función de sus realidades alimentarias.
Entienden por hambre las “molestias asociadas con la falta de alimento” y concuerdan con la FAO en que “el consumo de 1.800 kilocalorías por día es el mínimo requerido para vivir una vida saludable y productiva”. La kilocaloría es la unidad de energía térmica de mil calorías.
En el marco de una escala de cien puntos, en la que cero representa la mejor calificación, las mencionadas corporaciones de investigación formularon en el 2012 un escalafón de los países en la geografía del hambre. Burundi ocupó el primer lugar en desnutrición, con el índice de 37,1 puntos, seguido de Eritrea con 34,4 puntos, Haití 30,8, Etiopía 28,7, Chad 28,3, Timor Oriental 27,3 y República Centroafricana 27,3. Salvo Haití y Timor Oriental, todos estos son países africanos.
En América Latina y el Caribe los diez países con niveles de hambre “alarmantes” fueron: Haití 30,8 puntos, Guatemala 12,7, Bolivia 12,3, República Dominicana 10, Nicaragua 9,1, Honduras 7,7, Ecuador 7,5, Perú 7,4, Guyana 7,2 y Panamá 7.
No obstante que las emisiones de los coches se han reducido en un 98% desde el año 1970 —que representa un avance superior al de otras industrias—, las futuras normas anticontaminación de la Unión Europea y de Estados Unidos —que comprenderán cargas o alicientes tributarios— exigirán combustibles más limpios para bajar los índices de emisión de gases de efecto invernadero e introducirán cambios sustanciales en la industria automotriz. Los fabricantes se preparan para las nuevas normas. Es presumible que cambien el tamaño, el lujo y la potencia de los vehículos. Las marcas europeas —como Porsche, Mercedes Benz, BMW, Audi, Jaguar y otras— se verán obligadas a reducir la fuerza y el tamaño de sus vehículos para poder acogerse a las limitaciones de las nuevas normas reductoras de las emisiones de CO2. Estos vehículos serán sustituidos por híbridos —con motores a gasolina y electricidad, a gasolina y etanol o a etanol y biodiésel— que se acoplen mejor a las normas de anticontaminación. Sin embargo, en Estados Unidos se están experimentando vehículos de combustible E-85 que tendrán mayor potencia que los actuales con combustibles convencionales.
El gobierno federal de Estados Unidos y los de la Unión Europea, casi simultáneamente, aprobaron en el 2008 regulaciones para disminuir los volúmenes de CO2 emitidos por los vehículos automotores. En ese momento el transporte por carretera en el mundo era responsable de aproximadamente el 12% de las emisiones totales de dióxido de carbono. Y las proyecciones de futuro estimaban que en el año 2030 habría alrededor de 1.200 millones de vehículos de transporte terrestre en el planeta.
En consecuencia, la industria automotriz norteamericana se vio obligada a diseñar vehículos que redujeran en un 40 por ciento el consumo de gasolina y gasóleo. Los automóviles de paseo —que en ese momento estaban regidos por la corporate average fuel economy standard, norma de ahorro de energía vigente desde 1975— tenían que pasar de las 27 millas por galón a las 35 millas hasta el 2020.
Los europeos hicieron algo semejante. De los 16 millones de automóviles vendidos en Europa el 2006, solamente un millón de ellos emitía menos de 120 gramos de CO2 por kilómetro recorrido. Lo cual demostraba que los vehículos menos contaminantes tenían un éxito comercial notablemente inferior, puesto que su aceptación entre los compradores era menor. Eso explicaba que la mayor parte de los vehículos que circulaban por las calles, carreteras y autopistas de Europa estaban por encima del límite que la Unión Europea imponía a partir del año 2012, que era el de 120 gramos por kilómetro.
Con la lucha contra el cambio climático como prioridad de su gobierno, el presidente Barack Obama de Estados Unidos, en uno de sus tempranos actos gubernativos, anunció el 19 de mayo del 2009 su decisión de impulsar un ambicioso programa de reducción del consumo de gasolina en los automotores para disminuir las emisiones de gases contaminantes. El plan se proponía regular hacia el año 2016 —o sea cuatro años antes de lo que se había previsto— el rendimiento de los automóviles y camiones livianos a razón de 57 kilómetros por galón para bajar la emisión de gases de <efecto invernadero y disminuir la dependencia norteamericana del petróleo importado. Esta medida equivaldría a sacar de la circulación 58 millones de automóviles por un año.
Lo que se proponía Obama era modificar la cultura del automóvil en su país, o sea cambiar las preferencias y los hábitos de los consumidores norteamericanos, inclinados hacia los automóviles grandes, lujosos, confortables y gastadores.
Las empresas japonesas —Honda, Nissan, Toyota, Mazda, Mitsubishi, Tesla Motors— se adelantaron al encuentro de la tecnología automotriz ecológica para fabricar automóviles movidos por combustibles híbridos, baterías eléctricas o, incluso, energía de hidrógeno o energía solar. Estas empresas trabajan en combustibles ecológicos de la próxima generación. La empresa Mitsubishi tomó una cierta delantera en el 2008 con su vehículo eléctrico iMiEV de cuatro puertas alimentado por batería, de una autonomía de 160 kilómetros por cada carga completa, que venció las limitaciones de autonomía y aceleración que soportaban los vehículos eléctricos. La Tesla Motors impresionó a los círculos automovilísticos con su modelo deportivo eléctrico Tesla Roadster, que daba 244 millas por cada carga de la batería, arrancaba de 0 a 60 millas en 3.9 segundos y alcanzaba una velocidad máxima de 124 millas por hora. La Honda cambiará las reglas del juego automotriz con su vehículo experimental FCX Clarity (2008), impulsado por celdas de hidrógeno, capaz de rendir 154 kms/kg H2, con una autonomía de 620 kilómetros y una velocidad máxima de 160 kms/h. Su aspecto y su conducción no difieren de un automóvil convencional a gasolina. Esta empresa, en vías de experimentación, comenzó en el 2008 a alquilar su vehículo a un muy selecto grupo de sus clientes en el sur de California.
Pero la diferencia no solamente está en la energía utilizada —electricidad, biocombustible o hidrógeno— sino también en muchos de sus componentes, que en el futuro serán bioplásticos derivados de plantas vegetales y no de hidrocarburos.
Con una idea totalmente innovadora, la compañía francesa Moteur Development International presentó en el Salón del Automóvil de Ginebra el 4 de marzo del 2009 el prototipo de su pequeño automóvil AIRPod MDI, que utiliza aire comprimido como combustible y que puede recorrer entre 180 y 220 kilómetros a una velocidad máxima de 64 km/hora con una carga de aire. Es un vehículo de tres ruedas, motor de aire comprimido que no emite CO2, dirección electrónica, capacidad para tres pasajeros adultos y un niño, 220 kilos de peso, 2,07 metros de largo por 1,60 metros de ancho.
Pocos días después, la empresa automotriz india Tata Motors Ltd. presentó en Mumbai el modelo de su pequeño automóvil denominado Nano, que cuesta alrededor de 2.050 dólares la unidad, consume cinco litros de combustible por cada cien kilómetros de recorrido y alcanza una velocidad de hasta 105 kilómetros por hora. Tiene un motor trasero de dos cilindros en línea a gasolina, de 624 centímetros cúbicos, con 33 caballos de fuerza a 5.500 r.p.m., caja de cambios de cuatro velocidades, frenos delanteros de disco y traseros de tambor, neumáticos sin cámara de aire, instrumentos básicos de navegación, carrocería de aluminio, cuatro puertas y capacidad para cinco personas.
Su comercialización se inició el 17 de julio del 2009. Frente a la explosiva demanda, los compradores para los primeros cien mil vehículos fueron escogidos por un sistema de lotería.
Las noticias, sin embargo, lejos de ser alentadoras eran terriblemente preocupantes porque la fabricación de esos pequeños vehículos entraña el riesgo hacia el futuro inmediato de su comercialización masiva, que congestionará calles, carreteras y autopistas, entorpecerá la circulación vehicular, multiplicará el número de accidentes de tránsito, aumentará las muertes en las carreteras —las estadísticas norteamericanas demuestran que los automóviles más pequeños tienen índices de mortalidad 2,5 veces mayores que los grandes— incrementará las cifras globales de consumo de combustibles, demandará más petróleo y terminará por agravar el problema del calentamiento global.
Desde la perspectiva del ahorro de energía, mucho más interesante fue la propuesta de las empresas automovilísticas norteamericanas General Motors y Segway. Presentaron en Nueva York el 7 de abril del 2009 su pequeñísimo “automóvil ecológico” prototipo: el PUMA (personal urban mobility and accessibility project), que es un vehículo eléctrico biplaza, de dos ruedas, que funciona con dos baterías de litio, con dirección y frenos electrónicos, que puede alcanzar una velocidad máxima de 56 kilómetros por hora, que no emite gas contaminante, diseñado para moverse dentro de las ciudades altamente congestionadas.
A mediados de octubre del 2016 la Ministra de Medio Ambiente y Clima de Suecia, Isabella Lövin, planteó la eliminación de los vehículos con motor a gasolina para el año 2030. Poco tiempo antes la Cámara Alta del parlamento alemán —el Budesrat— había aprobado una resolución prohibicionista hacia el año 2030 de la venta de vehículos que utilizan combustibles fósiles, en concordancia con la misma posición adoptada por Noruega y Holanda. No cabe duda, pues, de que el mundo irá por ese camino.
La industria de la aviación seguirá la misma senda. Las empresas Boeing y Rolls-Royce están empeñadas en fabricar juntas el primer avión comercial con turbinas a reacción capaz de volar con biocombustible. Y otros fabricantes de aviones se preparan para hacer lo mismo.
El 24 de febrero del 2008 voló el primer avión propulsado con biocombustible, vuelo que marcó un hito muy importante en la historia de la aeronavegación. Fue el gigantesco Boeing 747-400 de la empresa británica Virgin Atlantic, que partió del aeropuerto Heathrow de Londres y aterrizó en el de Schiphol en Amsterdam. El biocombustible utilizado fue una mezcla de aceites de coco y de babasu —árbol originario del Brasil— en un 20%, y keroseno normal.
En lo que fue otro acontecimiento histórico en los anales de la aviación, en febrero y marzo del 2008 una avioneta fabricada por la empresa norteamericana Boeing realizó cuatro vuelos experimentales impulsada con hidrógeno. El motor de la aeronave transformó el hidrógeno en electricidad y emitió como residuo no contaminante vapor de agua. Los vuelos se realizaron a mil metros de altura, bajo el comando del piloto español Cecilio Barberán, sobre Ocaña, en España.
En el aeropuerto de Dübendorf, Suiza, el 3 de diciembre del 2009 levantó vuelo por vez primera el Solar Impulse HB-SIA, pilotado por el capitán Bertrand Piccard, que fue el primer avión diseñado para volar sin combustible, impulsado por energía solar. La prueba del prototipo fue exitosa. El grande y liviano avión voló a un metro de altura sobre la pista —en un experimento muy parecido al de los hermanos Wright en 1903— y la fuerza de sus motores, aceleración, estabilidad y capacidad de maniobra fueron satisfactorios. Las 10.748 células solares colocadas en las alas del avión y las 880 sobre su estabilizador horizontal alimentaron con la energía renovable del Sol a los cuatro motores eléctricos del aparato y cargaron sus baterías para vuelos nocturnos.
Cuatro meses después volvió a levantar vuelo el Solar Impulse, propulsado por sus cuatro motores eléctricos alimentados exclusivamente por energía solar, bajo el pilotaje del alemán Marcus Scherdel. El prototipo despegó del aeropuerto militar de Payerne en Suiza, se mantuvo en vuelo por una hora y media a mil metros de altura y retornó a pista en medio de los aplausos de la gente. El promotor del proyecto, Bertrand Piccard —que en 1999 fue el primer hombre en dar la vuelta al mundo en globo, sin escalas—, siguió el vuelo de su avión en helicóptero.
El 3 de mayo del 2013 volvió a levantar vuelo el avión de energía solar. Despegó de San Francisco de California y aterrizó en el Aeropuerto Internacional Johnn F. Kennedy de Nueva York el 8 de julio, con escalas técnicas en Phoenix, Dallas, San Luis (Missouri), Cincinnati y Washington. Fue un vuelo de costa a costa sobre Estados Unidos, pilotado por Bertrand Piccard y André Borschberg, que tomó 68 días.
En una hazaña sin precedentes, el avión Solar Impulse 2 dio la vuelta al mundo en 505 días de vuelo propulsado exclusivamente por la energía solar. Partió en la mañana del 9 de marzo del 2015 de la ciudad de Abu Dabi, en los Emiratos Árabes Unidos, y retornó a ella a las 04:05 horas de la madrugada del 26 de julio del 2016.
Durante su largo viaje alternaron en el pilotaje Bertrand Piccard y André Borschberg —aviadores profesionales suizos— con el propósito de promover el uso de energías renovables, en este caso, la energía solar.
En el curso de los vuelos diurnos las células solares impulsaban la nave y cargaban las baterías y durante las noches operaban las baterías recargadas con la luz solar.
Las características del avión eran muy especiales: pesaba 5.100 libras, tenía 22,4 metros de longitud, sus alas eran más anchas que las del Jumbo 747, llevaba 17.248 células solares fotovoltaicas, colocadas en el plano superior de las alas, el fuselaje y la cola, destinadas a cargar sus cuatro baterías, y tenía cuatro motores eléctricos de hélice alimentados por las células solares.
Su velocidad máxima era 140 km/h y su velocidad de crucero 90 km/h durante el día y 60 km/h en la noche.
El avión emprendió vuelo en la ciudad de Abu Dabi, en los Emiratos Árabes Unidos, y cubrió 17 etapas que sumaron 40.000 kilómetros en las rutas: Abu Dabi (Emiratos Árabes Unidos)—Muscat (Omán), Muscat—Ahmedabad (India), Ahmedabad—Varanasi (India), Varanasi—Mandalay (Myanmar), Madalay—Chongqing (China), Chongqin—Nanjing (China), Nanjing—Nagoya (Japón), Nagoya—Hawai (Estados Unidos), Hawai—Mountain View (Estados Unidos), Montain View—Phoenix (Estados Unidos), Phoenix—Tulsa (Estados Unidos), Tulsa—Dayton (Estados Unidos), Dayton—Lehigh Valley (Estados Unidos), Lehigh Valley—New York (Estados Unidos), New York—Sevilla (España), Sevilla—El Cairo (Egipto) y El Cairo—Abu Dabi.
Fueron jornadas intensas: la ruta Nanjing-Nagoya tomó 44 horas y 10 minutos de vuelo; la ruta Nagoya-Hawai: 117 horas y 52 minutos; la ruta Hawai-Mountain View: 62 horas y 29 minutos; Nueva York-Sevilla (cruzando el Océano Atlántico): 71 horas y 8 minutos; Sevilla-El Cairo: 48 horas y 50 minutos y El Cairo-Abu Davi: 48 horas y 37 minutos.
La más larga y dramática de las diecisiete etapas fue la octava: cinco días y cinco noches de vuelo para cubrir, sin escalas, los 8.000 kilómetros entre Japón y Hawai. Bajo el mando de André Borschberg, el Solar Impulse 2 partió del aeropuerto japonés de Nagoya el 29 de junio del 2015 y aterrizó en Kalaeloa, Hawai, cinco días después. Este fue el vuelo solitario más largo de la historia, que superó al del piloto norteamericano Steve Fossett, quien voló 42.469,4 kilómetros sin escalas en 76 horas y 45 minutos a bordo del Virgin Atlantic Global Flyer en su vuelta al mundo del 2006.
El Solar Impulse fue un proyecto programado e impulsado por Suiza con el propósito de alentar el uso de energías renovables.
El piloto Bertrand Piccard explicó que el motivo del largo y riesgoso viaje fue crear conciencia de la defensa del medio ambiente, puesto que, según dijo, “estamos destruyendo el planeta, la naturaleza y los recursos naturales”.
En la operación del satélite norteamericano Juno, que después de casi cinco años de vuelo y 3.390 millones de kilómetros recorridos llegó a Júpiter el 5 de julio del 2016, se utilizaron dos energías: cohetes alimentados por combustible para el largo viaje hasta el gigantesco planeta y, a partir de su llegada, energía solar para orbitarlo durante veinte meses.
Estas operaciones abrieron una nueva y amplia perspectiva para la aviación mundial.
La biomasa, o sea el conjunto de sustancias orgánicas de desecho, tanto de origen vegetal como animal, es otra de las fuentes de energía aprovechables para mover turbinas eléctricas y otros artefactos mecánicos.
La biomasa está compuesta por estiércol, virutas de madera, residuos agrícolas, desechos urbanos, basuras, cáscaras, cortezas, bagazos, aguas servidas, aguas fecales, plantas vegetales, musgos, hongos, helechos, tallos, hojas, raíces, algas y, en general, toda clase de materias orgánicas en estado de descomposición, que surgen de la vida urbana o campesina y que emiten gases convertibles en combustible.
Según la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO), la biomasa se obtiene de plantas cultivadas con este propósito; de los desechos orgánicos dejados por la agricultura, la ganadería y la industria, especialmente la industria de alimentos, que bota grandes cantidades de residuos aprovechables con fines energéticos; o de los estiércoles y más desechos de la vida urbana.
Todos estos desechos pueden transformarse en combustible, quemándolos directamente o convirtiéndolos en biocombustibles.
El uso de la biomasa con fines energéticos elimina de la superficie terrestre basuras, residuos y desechos, que constituyen fuentes de contaminación ambiental.
A fines de marzo del 2007 se reunieron en Camp David los presidentes George W. Bush de Estados Unidos e Inacio Lula Da Silva de Brasil para tratar sobre el proyecto de producir etanol a partir del maíz. Este proyecto motivó duras críticas del gobernante cubano Fidel Castro en un artículo publicado por la prensa de su país el 28 de marzo de ese año. Expresó que era siniestra la idea de convertir los alimentos en combustible. Y agregó: “aplíquese esta receta a los países del tercer mundo y verán cuántas personas dejarán de consumir maíz entre las masas hambrientas (…), présteseles financiamiento a los países pobres para producir etanol del maíz o de cualquier otro tipo de alimento y no quedará un árbol para defender la humanidad del cambio climático”. Obviamente la producción de etanol tiene un límite: no puede invadir las fronteras agrícolas de la producción de alimentos, es decir, achicar los espacios dedicados a este fin porque eso conspiraría contra la alimentación de la gente.
Petrobras, la empresa estatal petrolera del Brasil, anunció a mediados del 2006 el descubrimiento de un nuevo combustible: el H-Bio, desarrollado por la mezcla de aceite vegetal y petróleo durante el proceso de refinación. El aceite vegetal puede obtenerse de diversas plantas oleaginosas, como la soya, la palma africana, el algodón, las semillas de ricino, las semillas de girasol. El nuevo combustible difiere del biodiésel en que la mezcla del aceite vegetal con el aceite mineral —petróleo— se hace en el momento de la refinación de éste, en el curso del proceso al que se denomina “hidrogenación” —hydrogenation—, del que surge el nuevo carburante. El H-Bio tiene la ventaja de que es un producto más limpio, puede elaborarse con diferentes aceites vegetales y mejora la calidad del diésel al reducir su porcentaje de azufre.
El <agua es, desde la perspectiva económica, uno de los recursos energéticos más importantes. Lo ha sido a lo largo de la historia. Por eso, desde los remotos tiempos en que las ciudades de Lagash y Umma en la antigua Sumeria se disputaban los caudales del Tigris, el agua ha sido causa de disputas contenciosas, aunque ninguna de ellas produjo guerras abiertas entre los Estados. Cerca de la mitad de las fuentes de agua dulce del planeta se encuentran en América del Sur, casi una cuarta parte en Asia y el resto en América del Norte, América Central, Europa, Australia, África y el Oriente Medio. El más grande sistema fluvial del planeta es el del Amazonas y sus afluentes, que abarca casi seis millones de kilómetros cuadrados, donde está la quinta parte de la reserva de agua dulce de la Tierra.
La energía hidráulica se obtiene del aprovechamiento de la fuerza cinética de los ríos, los saltos de agua y las mareas para mover centrales hidroeléctricas que convierten el impulso del agua en electricidad. Esta es una forma limpia y renovable de energía. El agua de los ríos se embalsa mediante presas y se forjan cascadas que activan las turbinas de la sala de máquinas de centrales hidroeléctricas instaladas en desnivel. La potencia de la electricidad que de ellas resulta se mide en kilovatios-hora o megavatios-hora. Las actividades industriales y económicas ocupan alrededor del 22% del agua dulce del planeta. Pero la utilización de esta clase de energía no estará exenta de problemas en el futuro a causa de la escasez de agua dulce —especialmente en África, el Oriente Medio, el sur de Asia y el norte de China— y es presumible que se produzcan litigios entre los Estados por el dominio de las fuentes de este recurso natural. No hay que olvidar que cerca de la mitad de la superficie terrestre (excluyendo la zona antártica) está compuesta de cuencas de ríos compartidas por más de un Estado y que más de treinta Estados reciben buena parte de su agua dulce de fuera de su territorio. Turquía, por ejemplo, construye nuevas represas y proyectos de riego en los ríos Tigris y Eufrates, que afectarán el flujo de agua hacia Siria e Irak. En el año 2015 el aprovechamiento de las aguas del Nilo por parte de Etiopía y Sudán afectará los intereses de Egipto, que comparte el mismo curso de agua internacional. Hay, por tanto, el justificado temor de que la penuria de agua dulce en varias regiones del planeta sea causa de enfrentamientos bélicos entre los Estados.
Y, a propósito del agua como fuente de energía, hay que decir que una nueva declaración de alerta sobre la acidificación de los océanos y los mares, a causa de la penetración de dióxido de carbono (CO2) en sus aguas, se dio en la 12ª reunión de las partes del Convenio sobre Diversidad Biológica de las Naciones Unidas —Convention on Biological Diversity (1992)—, que juntó del 6 al 17 de octubre del 2014 en la ciudad de Pyeongchang, Corea del Sur, alrededor de treinta científicos procedentes de diversas universidades y centros de investigación del mundo.
En la reunión participaron profesores, científicos e investigadores de Heriot-Watt University, Universidad de East Anglia, Universidad de Oxford y Cardiff University de Inglaterra, Enviromental Economics de Hong Kong, University of Sydney y James Cook University de Australia, University of the Ryukyus del Japón, Alfred Wegener Institute de Alemania, Universidad de Essex, Institute of Marine Research de Noruega, University of Gothenburg de Suecia, Laboratoire d’Océanographie de Villefranche en Francia y de otras instituciones de educación superior.
Los científicos afirmaron en su informe que más dos mil millones de toneladas de dióxido de carbono (CO2) entran cada año a las aguas marinas alrededor del planeta, como consecuencia de lo cual la acidez de los mares ha crecido en el 26% desde los tiempos preindustriales y crecerá, en dimensiones peligrosas, hacia el futuro. El científico inglés Sebastian J. Hennige, profesor de la Heriot-Watt University de Inglaterra —quien fue el editor principal del informe—, afirmó: “cuanto más CO2 se libere de los combustibles fósiles a la atmósfera, más se disolverá en el océano”.
Dice el informe que el vínculo entre este fenómeno y las “emisiones antropogénicas de CO2 es clara, ya que en los dos últimos siglos, el océano ha absorbido una cuarta parte del CO2 emitido por las actividades humanas”.
De modo que las emisiones de dióxido de carbono —responsables del cambio climático— son también causa de la creciente acidez de los océanos y mares.
La acidificación marítima —advierten los redactores del informe— es de una amplitud inédita y se ha producido con una rapidez jamás vista, por lo que “es inevitable que en los próximos 50 a 100 años tenga un impacto negativo a gran escala sobre los organismos y ecosistemas marinos”.
Eso se desprende, además, de los estudios y experimentos que numerosos científicos han hecho a bordo de barcos en los océanos y mares del planeta durante la primera década de este siglo.
Por eso los científicos claman por medidas urgentes para frenar la acidez de los océanos, puesto que ella daña los ecosistemas del mar, compromete su biodiversidad, altera la química de las aguas marinas, extingue algunas especies de peces y microorganismos marinos, vulnera los ecosistemas costeros y, por tanto, baja la productividad de las faenas de pesca, perjudica a las comunidades costeras que viven de los productos del mar y afecta a centenares de millones de seres humanos alrededor del planeta que dependen de los productos marinos para su alimentación.
La energía eólica es otra opción muy importante. La primera utilización de la fuerza del viento se dio tres mil años antes de nuestra era con la navegación a vela inventada por los egipcios. Después vinieron los molinos de viento para moler granos o bombear agua. En la actualidad se han montado “parques eólicos” con decenas de turbinas para generar electricidad en zonas ventosas de tierra o de mar. La fuerza y velocidad del viento se convierten en electricidad por medio de aerogeneradores movidos por las aspas de los rotores. La cantidad de energía transferida a los rotores depende de la densidad dei aire y de la velocidad del viento. Los precursores de esta tecnología fueron el meteorólogo danés Poul la Cour (1846-1908) y el científico norteamericano Charles F. Brush (1849-1929).
Este recurso energético no tiene impacto ambiental —aunque sí modifica el paisaje por las gigantescas aspas que mueven las turbinas— y es una de las fuentes más baratas de energía.
De la radiación solar se puede también obtener electricidad por medio de módulos fotovoltaicos instalados en paneles solares. Es la energía solar fotovoltaica. Su ciclo termo-dinámico empieza con la captación y concentración de los rayos del Sol mediante un sistema de espejos de orientación automática —heliostato— que apuntan a una torre central donde se calienta un fluido volátil —con temperaturas que van desde los 300º C hasta los 1.000º C— que mueve un alternador que genera electricidad en la misma forma que una central térmica convencional.
La energía solar fotovoltaica es una fuente energética de electricidad de origen renovable, tomada directamente de la radiación solar mediante el uso de células fotovoltaicas —compuestas de silicio— montadas sobre paneles o módulos solares.
Es una energía limpia, respetuosa del medio ambiente —puesto que no causa combustión, no produce dióxido de carbono (CO2) ni otros gases de efecto invernadero, no genera contaminantes atmosféricos ni produce ruidos— y es inagotable.
Las instalaciones fotovoltaicas requieren un mínimo mantenimiento y su vida útil es inmensamente mayor que las de la energía eléctrica convencional. Los paneles solares tienen una larga vida —aproximadamente treinta años— y su coste de producción energética, gracias a los avances tecnológicos y a los efectos de la economía de escala, se ha reducido constantemente. Los paneles fotovoltaicos, además, no requieren mayores espacios de terreno y resisten condiciones climáticas extremas.
La energía fotovoltaica se ha convertido, en términos de capacidad instalada, en la tercera fuente de energía renovable más importante a escala global, después de las energías hidroeléctrica y eólica.
Las instalaciones solares se conectan fácilmente con las redes eléctricas comerciales. Las plantas de esta energía pueden convertir la corriente eléctrica continua, producida por los paneles fotovoltaicos, en corriente alterna para alimentar directamente, con la misma tensión y frecuencia, las necesidades de los usuarios.
Las investigaciones hechas en el siglo XIX sobre los efectos fotoeléctricos por los científicos Michael Faraday, James Clerk Maxwell, Heinrich Hertz, Nikola Tesla y, al comienzo del siglo XX, por Albert Einstein, sentaron las bases sobre las cuales se desarrollaron después los principios de conversión de la energía solar en electricidad, que es lo que se propone el sistema fotovoltaico.
El uso de las células fotovoltaicas se originó en la carrera espacial con los primeros satélites colocados en órbita alrededor de la Tierra. La primera nave espacial que usó paneles solares fue el satélite norteamericano Vanguard 1, lanzado al espacio en marzo de 1958. Y en el año siguiente Estados Unidos envió al espacio el Explorer 6 con módulos solares. Ambos fueron hitos muy importantes en el desarrollo de la nueva tecnología, que después se extendió a los satélites geoestacionarios para el desarrollo de las comunicaciones.
A principios del siglo XXI la tecnología fotovoltaica predomina en los satélites y sondas de la National Aeronautics and Space Administration (NASA) —Mars Pathfinder, Mars Global Surveyor, Mars Observer, Mars Climate Orbiter, Mars Reconnaissance, Curiosity— y en otros vehículos espaciales de órbita terrestre.
Hacia el año 2014 Alemania, Italia, China, Japón, Estados Unidos, España y Francia eran los mayores productores de energía fotovoltaica.
La energía geotérmica dimana de las aguas calientes que brotan de las profundidades de la Tierra. Su fuente está en el calor del magma terráqueo. Esta energía puede ser de alta temperatura —entre 150 y 450º C—, de mediana temperatura —de 70 a 150º C— o de baja temperatura —entre 20 y 70º C—. La primera y la segunda pueden transformarse en electricidad, aunque con diferentes grados de eficiencia, ya que el vapor de las aguas puede servir para mover las turbinas generadoras de electricidad, mientras que la última puede utilizarse como energía para calefacción y como agua caliente doméstica o industrial. Esta fuente energética tiene enormes potencialidades dado que los sistemas hidrotérmicos conocidos en Estados Unidos y en muchos otros países pueden producir decenas de miles de megavatios.
Fue en Italia (Toscana) donde por primera vez la energía geotérmica se convirtió en electricidad en 1904.
La fuente de la energía geotérmica es el calor generado y almacenado en las entrañas del planeta. Las aguas termales fueron uno de sus usos más antiguos. La energía geotérmica, a través de la bomba de calor, sirve a los fines de la calefacción, provisión de agua caliente y aire condicionado. En algunas zonas del planeta —en Islandia, por ejemplo— el agua que brota de las capas subterráneas puede alcanzar temperaturas de hasta 450 grados centígrados, con las que se obtiene vapor para la generación de electricidad al servicio de los procesos industriales.
El uso pacífico de la energía nuclear es otra posibilidad, aunque ella no es una energía limpia: deja residuos radiactivos de larga duración, que deben almacenarse en contenedores de acero y concreto o enterrarse en cavernas.
Esta forma de energía se obtiene de la fisión o de la fusión de los átomos. Ella obedece al principio de la transformación de la materia en energía, de acuerdo con la conocida ecuación formulada por Albert Einstein: E = mc2. En la física nuclear, la fisión consiste en la ruptura del núcleo de un átomo —en su desintegración— para producir átomos de menor peso, operación que origina grandes volúmenes de energía. La ruptura de los átomos de uranio o de plutonio libera una gigantesca cantidad de energía que puede ser aprovechada, por medio de reactores nucleares, para la generación de electricidad y otros fines productivos. Paradójicamente las armas atómicas obedecen a este mismo principio. Se unen dos o más masas “subcríticas” de uranio 235 o de plutonio y, en conjunto, constituyen la llamada “masa crítica” capaz de iniciar una reacción en cadena autosostenible que, al romper los átomos de uranio o de plutonio, liberan una gigantesca cantidad de energía, que es aprovechada con fines destructivos. La fusión, en cambio, es la reacción nuclear producida por la unión de dos núcleos ligeros: los isótopos del deuterio y el tritio, que se combinan y dan origen al helio ordinario, compuesto por neutrones, protones y electrones y por una gran cantidad de energía. La bomba de hidrógeno responde a este proceso de física nuclear.
Actualmente se produce energía eléctrica en términos comerciales por el método de fisión en las plantas nucleares generadoras de electricidad. Pero, hacia el futuro, el propósito es hacerlo por medio de la fusión del átomo, que es un método más seguro y menos costoso. Los científicos trabajan en la investigación de este método con reactores nucleares experimentales, que puedan desencadenar reacciones nucleares controladas, a fin de tornar rentable en el futuro el proceso de generación de fuerza eléctrica.
La producción de electricidad por la fisión de neutrones lentos del uranio y del plutonio deberá ser sustituida por la de neutrones rápidos de otros elementos radiactivos a fin de que la operación sea menos contaminante, puesto que la duración de estos residuos radiactivos es mucho menor. La desactivación de los residuos radiactivos de los neutrones lentos —que son los que se utilizan para la fabricación de armas nucleares— toma centenares de miles de años.
Dentro de los proyectos energéticos fundados en la fusión nuclear está el denominado ITER, que se propone construir un reactor experimental para la generación de 500 MW de electricidad, cuyo período de prueba comenzará en el año 2014 y su operación en el 2037. Se espera que al final de este siglo la obtención de energía nuclear por fusión, que tendrá la ventaja de contar con un combustible inagotable —el deuterio del agua del mar— y de ser mucho más limpia que la energía del petróleo o de la fisión nuclear, sea un recurso abundante y ampliamente aprovechable, que entre otras cosas permita la desalación de las aguas oceánicas y la provisión de grandes volúmenes de agua dulce.
El ITER es un proyecto internacional en el que están comprometidos Estados Unidos, la Unión Europea, Japón, la Federación Rusa, la República Popular de China, Suiza y Corea del Sur.
Los expertos sostienen que la energía nuclear pudiera ser una energía limpia, con costes de construcción y operación de reactores y de tratamiento de residuos muy inferiores a los de las plantas convencionales de generación de energía con combustibles fósiles. Estos reactores nucleares emiten muy pocas sustancias contaminantes aunque purgan periódicamente pequeñas cantidades de gases radiactivos, que deben ser tratados con mucho cuidado por su efecto letal y su prolongada vida. Esta es una de sus ventajas sobre el uso de los combustibles fósiles —carbón, petróleo o gas— que emiten gases de <efecto invernadero y que producen lluvia ácida y otros desórdenes. Pero el punto débil del sistema es el manejo y almacenamiento seguros de los residuos radiactivos. Los partidarios del sistema sostienen que los desechos más peligrosos podrían ser destruidos o transmutados mediante el bombardeo de partículas por un acelerador de protones. Otro de los riesgos, si bien remoto porque el diseño de los reactores nucleares ha avanzado mucho, es un accidente similar al ocurrido en la central nuclear soviética de Chernobyl el 26 de abril de 1986 —que causó decenas de muertos y lanzó al aire una nube radiactiva que afectó a 600 mil personas en Ucrania, Bielorrusia, Finlandia, Suecia, Noruega, Polonia, Alemania y Francia— o bien un ataque terrorista que dejara escapar radiación al medio ambiente.
En el empeño de reducir la dependencia de los combustibles fósiles, altamente contaminantes, la energía de hidrógeno puede ser otra de las respuestas. El hidrógeno es el más abundante y ligero de los elementos conocidos y posee una conductividad térmica muy alta. Desde hace varios años la National Aeronautics and Space Administration (NASA) ha realizado investigaciones acerca del hidrógeno como potenciador de la combustión de sus cohetes espaciales. The University of British Columbia en Estados Unidos patentó en el 2001 un método para extraer hidrógeno del agua y convertirlo en combustible de motores a través de un proceso industrial. Pero el hidrógeno no está libre en la naturaleza —como el petróleo crudo o el gas natural— sino que hay que obtenerlo por medio de un proceso de electrólisis del agua —la electrolización es la descomposición de un cuerpo por medio de una corriente eléctrica que atraviesa su masa—, y este método resulta costoso. Por tanto, hacia el futuro se prevé que con el desarrollo de nuevas tecnologías el hidrógeno podrá ser producido a bajo coste en paneles solares de dióxido de titanio —a partir de la luz del Sol y el agua—, para ser entubado y transportado como gas y almacenado en forma líquida en tanques especiales para su distribución a los usuarios mediante redes de estaciones de servicio de hidrógeno a lo largo de las carreteras y autopistas.
Esta podrá ser una nueva fuente de energía renovable, que reduzca significativamente las emisiones de CO2, no deje productos secundarios tóxicos y no consuma recursos naturales extinguibles.
El gas hidrógeno podrá utilizarse para la generación de electricidad y para el funcionamiento de motores. Se han construido prototipos de automóviles activados por hidrógeno, pero los científicos suponen que su fabricación en serie no podrá ser antes del año 2015. Sin embargo, un buen número de camiones recorre ya las carreteras norteamericanas impulsados parcialmente con este nuevo combustible mediante un sistema inyector de hidrógeno —denominado HFI— acoplado a los motores de combustión a diésel, que les da mayor potencia, ahorra diésel y produce menor contaminación. Esta es una primera etapa, aún en fase de experimentación. El sistema consiste en inyectar pequeñas cantidades de hidrógeno en la toma de aire del motor, que facilitan y potencian la explosión, puesto que el hidrógeno explosiona más rápidamente y a mayor temperatura que el gasoil, produce un ahorro del combustible tradicional y disminuye las emisiones de gases tóxicos.
Alvin Toffler y su mujer Heidi, autores del libro “La revolución de la riqueza”, afirman que “existe otra fuente de energía potencialmente inmensa: la Luna. Al parecer, abunda en ella el helio-3 que, combinado con el isótopo de hidrógeno deuterio, puede producir lo que Lawrence Taylor, director del Instituto Planetario de Geociencia de la Universidad de Tennessee, califica de ingentes cantidades de energía”.
Los Toffler transcriben las palabras de Taylor: “sólo veinticinco toneladas de helio, transportable en un cohete espacial, son suficientes para proporcionar electricidad a Estados Unidos durante un año”. Y agregan: “Otra persona igualmente autorizada, como Abdul Kalam, presidente de la India y científico espacial, nos dice que la Luna contiene diez veces más energía en forma de helio-3 que todos los combustibles fósiles de la Tierra”.
Fue en 1969 que los astronautas del Apolo descubrieron grandes cantidades de helio-3 acumuladas en la superficie lunar a lo largo de miles de millones de años, que pudieran ser más que suficientes para muchos siglos de consumo energético en la Tierra. Gerald Kulcinski, director del Fusion Technology Institute (FTI) de la Universidad de Wisconsin en Madison, considera que “la energía de la fusión del helio-3 puede ser la clave de la exploración espacial futura y de colonizaciones”.
Frente al ingente problema de encontrar energía barata, inagotable y no contaminante destinada a reemplazar al petróleo —que es uno de los grandes retos de nuestro tiempo— las investigaciones nanocientíficas y nanotecnológicas permiten vislumbrar hacia el futuro la posibilidad de crear, a través de la producción molecular, nuevas y mejores materias primas, con características hasta hoy desconocidas en los materiales tradicionales, para la generación y transporte de electricidad y para la producción industrial. Estas investigaciones han descubierto que las materias experimentan cambios fundamentales en sus características, propiedades y comportamientos según su escala. La resistencia, la durabilidad, la consistencia, la conductividad eléctrica, la reactividad, la elasticidad, entre otras propiedades, cambian en los elementos dependiendo de su escala. Lo cual significa que un mismo elemento tiene cualidades y disposiciones completamente diferentes a escala tradicional que a nanoescala, es decir, a escala millones de veces menor a un milímetro.
Ya se han podido construir experimentalmente, bajo este sistema, los denominados nanotubos, que son moléculas largas y delgadas de carbono cristalino puro de uno a tres nanómetros de diámetro —es decir, de una a tres milmillonésimas partes de un metro— por varios milímetros de longitud, de forma tubular, destinados a reemplazar a los cables de cobre. La conductividad eléctrica de los nanotubos es inmensamente superior a la de los cables cobrizos. Cada nanotubo puede conducir hasta veinte microamperios de electricidad, de modo que un cable de media pulgada de grosor integrado por un haz de nanotubos tendría la capacidad de conducir más de cien millones de amperios de corriente eléctrica, o sea un volumen muy superior al del cobre y de la plata. El profesor Peter Burke de la Universidad de California explicó en el 2005 que, según sus investigaciones, los nanotubos pueden transmitir señales eléctricas mucho más rápidamente que los materiales tradicionales, por lo que se abren grandes perspectivas de aplicación de las moléculas cilíndricas de carbono puro a la energía eléctrica.
Estamos a las puertas de una nueva revolución industrial: la revolución nanotecnológica, basada en el manejo y manipulación de cuerpos de escala ínfima, que se propone crear nuevos materiales, más eficientes, resistentes, versátiles y durables que los tradicionales. La nueva revolución industrial tendrá repercusiones en todos los ámbitos productivos, desde la química hasta la física cuántica, desde la medicina a la industria, desde la biología a la informática, desde la agricultura a los transportes, desde las comunicaciones a la energética.