Capítulo 1 - Cambio climático

¿Calentamiento Global, o Próxima Glaciación?

¿A Quién Debemos Creer?

 

No hay ningún tema en las ciencias ambientales que haya acaparado tanto la atención de la gente, y que haya pro-vocado tantos temores y angustias como la afirmación que la Tierra se está calentando, lo que tendría consecuencias catastróficas. Algunos científicos están de acuerdo con la teoría del «Calentamiento Global» y algunos otros no. ¿A quién debemos creer?

Para ser justos, aún si el profetizado calentamiento fuese a ocurrir, nadie puede esperar que esto suceda de un día para el otro, o sin ocurrencias de grandes fríos de vez en cuando. Dado que la climatología se maneja con lo que se llama «escala geológica» (es decir períodos de tiempo de cientos de miles ­ o millones ­ de años), mediciones realizadas en cortos períodos de unos dos, cinco o diez años, no marcan ninguna tendencia en ningún sentido. Las variaciones que ocurren dentro de tan cortos períodos se consideran «variaciones naturales, o «ruido estadístico«.

La cobertura de gases de la Tierra constituye su Invernadero natural. Si esta cobertura no existiese, las temperaturas durante el día subirían más allá de los 98º C y las nocturnas bajarían a menos de ­172ºC. La temperatura media sería de 25º C. Como la temperatura media de la Tierra es de 15º C, se calcula que el efecto invernadero que nos propor-ciona la atmósfera equivale a 34º C. El famoso investigador Sherwood Idso, del Servicio de Investigación del Depar-tamento de Agricultura de los EEUU y profesor del Depto. de Botánica y Geografía de la Universidad de Arizona, tiene una muy razonable teoría basada en estos 34º C del invernadero natural de la Tierra, elaborada después de muchos y fructíferos años de investigación.

Idso investigó una propiedad de la atmósfera que se llama «emisividad», que es una medida de lo próximo que están sus propiedades como absorbedor y radiador de energía a las del más eficaz radiador posible, el llamado «cuerpo negro». Un cuerpo negro perfecto absorbe toda la energía radiante que recibe. Por lo tanto, la Tierra está actuando casi tan eficientemente como un «cuerpo negro» dado que absorbe el 90% de la energía recibida desde el Sol.

En cualquiera de los casos imaginables, la atmósfera de la Tierra jamás podría ser tan eficaz como un cuerpo negro y, al actuar ahora con una eficacia del 90% del cuerpo negro en el infrarrojo, ha producido un efecto invernadero global de 34º C. Ese 10% que falta, dice Idso, no podría producir más que otro 10% de efecto invernadero, es decir, no más que un ulterior aumento de temperatura media global de 3,4º C.

Sin embargo, es imposible que la Tierra actúe como un cuerpo negro perfecto debido a la simple razón que este cuerpo negro no puede existir. Es sólo un ejercicio intelectual de los científicos. Por otra parte, los largos estudios de Idso le hacen afirmar que una duplicación del CO2 en la atmósfera sólo provocaría un aumento de la temperatura de apenas 0,34º C. Miles de científicos están de acuerdo.

Un Poco de CO2

Analicemos brevemente un aspecto del aumento del CO2 en la atmósfera que es ignorado con muchísima frecuencia: su impacto sobre la biosfera. El CO2 tiene un rol esencial ya que, al revés que los demás gases emitidos por la quema de combustibles fósiles, no es un gas contaminante con efectos potencialmente perniciosos para la biosfera, sino que se trata de un gas esencial y altamente beneficioso para el desarrollo de la vida animal y vegetal en nuestro planeta Tierra.

En consecuencia, cuando el hombre emite CO2 a la atmósfera no la está dañando, sino más bien beneficiándola ­ por cierto que dentro de cualquiera de los rangos que puedan ocurrir a causa de la quema de combustibles fósiles. Existen numerosos estudios que han evaluado el posible impacto que un aumento del bióxido de carbono tendría sobre una gran variedad de plantas, tanto silvestres como cultivadas.

Las conclusiones generalizadas son abrumadoramente positivas y se pueden resumir así: «Mayores niveles de CO2provocan aumento en la fotosíntesis, peso de las plantas, cantidad de ramas, hojas y frutos, tamaño de estos últimos, tolerancia de las plantas a la contaminación atmosférica y un marcado aumento de la eficiencia en el uso del agua».

Por último, los estudios de Maier-Reimer y Hasselmann (Climate Dynamics, 1987) demuestran que, a mayor tempera-tura, mayor es el crecimiento de las plantas ­ por lo menos dentro de los rangos de temperatura observados en nuestro planeta. Esto es totalmente cierto para las temperaturas tropicales, y refleja parcialmente el hecho que la variedad de especies en la biosfera aumenta a medida que aumentan la temperatura y la humedad.

Los Modelos por Computadora

La Verdad sea dicha de una vez, toda la alarma y miedo que se les ha echado encima a la pobre gente están basados en las «profecías» que salen de poderosas computadoras que corren programas llamados MCG (o Modelos de Circula-ción General). Para dejar las cosas bien en claro, no importa cuán perfectos sean estos programas, siguen siendo solamente modelos, es decir, una aproximación incompleta de la multitud de procesos físicos, químicos y aún biológicos que ocurren en la Tierra, y están muy lejos aún de incluir a todos los procesos que son importantes para el clima. Primero, existe una infinidad de procesos naturales aún desconocidos y que no están incorporados a estos modelos, por lo que sus resultados carecen de todo valor científico.

Los científicos han estado tratando desde fines del siglo 19 de comprender el complicado comportamiento de los fluidos que se conoce como turbulencia. Se trata de un proceso caótico que no puede ser simulado por ningún programa computado por la simple razón de que los científicos no saben como funciona. Cuando un fluido es turbu-lento (casi todos lo son naturalmente), no se puede predecir teóricamente la manera en que comportará, y tampoco se pueden medir experimentalmente las condiciones en el fluido de manera de poder saber qué está sucediendo.

 

 

Los experimentos están dificultados por el hecho de que un fluido turbulento está activo en escalas más pequeñas que el tamaño de los más pequeños instrumentos de medición. En consecuencia, las medidas mismas no son de las variables reales sino de alguna clase de promedio, no especificado, dependiente del instrumento, en sólo algunas partes pequeñas del fluido analizado.

 

 

Es fundamental para poder comprender la seriedad de todas las afirmaciones que se hacen en el tema del cambio climático, darse cuenta que el clima no puede ser modelado de la manera tan perfecta que permita predecir el tiempo que hará la semana que viene – para no hablar de 100 años en el futuro! Los resultados que producen los modelos computarizados son realmente profecías. Son nada más que una profunda expresión de FE. La razón básica es que no sabemos lo suficiente sobre cómo funciona el clima.

Los modelos creados para simular el funcionamiento de la atmósfera son del tipo de modelo tridimensional o MCG. Para que tenga usted una somera idea de la precisión y fiabilidad que pueden tener estos modelos computarizados, veamos cómo se diseñan.

Estos modelos dividen al mundo en dos hemisferios y toman en cuenta solamente al Hemisferio Norte ­ el Sur no existe para los ‘modeladores’. Luego dividen al mundo en una cuadrícula cuyos cuadrados tienen 450 km de lado. Cada uno de estos cuadrados tiene encima una columna de aire de 50 kilómetros de altura donde se deberían reproducir miles de reacciones químicas y físicas, todas ellas turbulentas. Cada una de estas reacciones debe representarse por una ecuación que contiene constantes y variables, que nadie sabe cómo medir ni determinar con exactitud.

Lo difícil es determinar el valor de estas variables y constantes. Como no se pueden medir por ser turbulentas, los científicos esquivan el problema y comienzan con un valor a «ojo de buen cubero» y luego lo van modificando de acuerdo a los resultados. Si los resultados obtenidos no parecen confirmar la hipótesis de que la temperatura aumen-tará, se siguen modificando las variables hasta que se obtiene el resultado que confirma la hipótesis a priori de que el calentamiento será grave.

Sin embargo, la cuadrícula de 450 km de lado es demasiada grande y los valores dentro de cada una de ellas es dife-rente al de las cuadrículas vecinas. De acuerdo a esto, mientras en uno de los cuadrados está lloviendo torrencial-mente, en el cuadrado vecino hay una sequía terrible; en otro se derriten de calor y en el siguiente se congelan a muerte. La precisión o «fineza» de este análisis y simulación de la Tierra es demasiado grosera como para ser considerado con alguna seriedad.

Los MCG, aún los más perfeccionados y costosos de «correr», están muy, pero muy lejos de ser representaciones adecuadas de la realidad: la radiación solar se introduce como un valor fijo, correspondiente ya sea al verano o bien al invierno. Los MCG no pueden calcular los efectos de las variaciones estacionales y los científicos no se han puesto de acuerdo sobre el efecto de la nubosidad en el clima: ¿Ayuda a calentar a la atmósfera al impedir que la radiación escape al espacio, o en realidad enfría al planeta al impedir que los rayos solares lleguen hasta la superficie del mis-mo? Imaginen el resultado de una ecuación con una variable que puede tener valor negativo para unos, o positivopara otros. ¿A quién creerle? 

Pero lo peor de todo es que ninguno de los modelos usados hasta ahora toma adecuadamente en cuenta a los océa-nos. Y algo más: ni las corrientes del Niño o La Niña son consideradas algo que valga la pena introducir como dato. Cuando se piensa que los océanos cubren un 73% de la superficie del planeta, y este 73% está ausente en los cálculos, hay algo en los MCG que no puede andar bien. Sin embargo, el Sr. James Hansen, cuando habló ante el Congreso de los Estados Unidos para afirmar que el Calentamiento Global se había iniciado, lo hacía basándose única-mente en los resultados de sus modelos computarizados. En una realidad virtual. Una fantasía.

El Nivel de CO2 en la Atmósfera

El Panel Intergubernamental del Cambio Climático (IPCC, por sus siglas en inglés, anque merecería llamarse Pandilla Internacional del Chantaje Cíclico) ha publicado varios Informes sobre el estado del clima, predicciones y recomen-daciones para los gobiernos y quienes hacen las políticas que determinan si uno será más rico, más pobre, más sano o más enfermo, más feliz o más desgraciado.

En la elaboración de sus informes técnicos han tomado parte varios miles de científicos de todas partes del mundo, quienes han contribuido con sus observaciones y estudios que proveen datos que serán usados por los modelos computarizados del clima para saber de donde venimos y hacia dónde nos dirigimos. Pero el asunto no es tan sencillo. Las cosas se complican cuando uno recuerda que los promedios de las temperaturas no son la realidad sino una estadística, y los promedios estadísticos se pueden obtener de muchas maneras diferentes, y según el método de obtención de promedios que se usa, el resultado puede ser negativo o positivo – usando exactamente los mismos datos.

¿Difícil de creer? Lo es cuando se desconocen los detalles. Veamos un simple ejemplo de obtención de temperaturas, como nos lo demuestran Christopher Essex y Ross McKitrick, en su libro Taken by Storm, de 2002. Los científicos de la NASA y del GISS (Goddard Institute of Space Studies) nos llenan de gráficos de promedios de temperaturas, diarias, semanales, mensuales, anuales, seculares y, por supuesto, todas «globales». Lo que es notable es la precisión con la que estos tipos de la NASA son capaces de medir algo que no existe.

Gráfico o no gráfico, no hay tal cosa como «una temperatura global». Esta es una estadística global de la tempe-ratura, pero no es «una temperatura«. El mundo no está en un equilibrio termodinámico, de manera que no existe una sola temperatura para discutir. Lo que medimos está atado a lugares a través de equilibrios termodinámicos locales. No tiene un sentido global, y una estadística ciertamente no establece si el mundo está más caliente o más frío que hacen 10, 100 o 1.000 años atrás. No hay ninguna manera científica de mostrar tal cosa ¿Cuál es la diferencia entre temperatura y estadística?

Con cualquier cosa que es medida numéricamente podemos, si así queremos, tomar una muestra de las observaciones, sumarlas y calcular cualquier tipo de promedio. Eso es hacer simplemente estadísticas. Pero algunas veces la cosa que se mide sólo significa algo localmente y pierde su significado cuando se suma o se hace un promedio. Si tomamos el número de teléfono de todos nuestros amigos en el club de golf, por ejemplo, los sumamos y computamos su promedio. Ahora, si discamos este número, ¿nos contestará el amigo promedio?

Por supuesto que no. Los números de teléfono sólo significan algo individualmente, cuando están ligados a una sola línea. Súmelos a todos y al instante pierden su sentido. El número de teléfono «promedio» es un absurdo sin sentido. De la misma manera, «la temperatura prome-dio» tampoco tiene sentido. Numéricamente, se pueden sumar un montón de temperaturas y sacar algún promedio, pero no tiene ninguna interpretación física. La temperatura sólo significa algo de manera local, porque las condiciones termodinámicas varían de punto a punto.

Essex y McKitrick nos describen la manera en que un profesor de física demuestra a sus alumnos la manera de obtener los promedios de temperatura del aula, y la variación que habrá cuando llegue la primavera. Ha tomado cuatro tempe-raturas de diversos lugares del aula, cerca de la puerta, de la ventana, en su escritorio, y al fondo de la clase. Las temperaturas medidas fueron: : 17º C, 19.9º C, 20,3º C, y 22,6º C, respectivamente.

Supongamos ahora que dejamos los termómetros donde están hasta la próxima primavera. Entonces abrimos la ventana y una cálida y agradable brisa ingresa al aula, mezclándose con el aire. Todos los cuatro termómetros leen 20º C. ¿Se ha calentado la habitación? La mitad de los alumnos calculan el promedio de las temperaturas usando la suma lineal dividida en cuatro. El resto hace lo mismo, pero usan la regla de la energía cinética: suman los cuadrados de las temperaturas, dividen en cuatro, luego sacan la raíz cuadrada. ¿Qué obtuvieron?

La mitad de los alumnos que usó el método de la suma lineal obtuvo +0,05º C, de manera que la habitación se ha calentado durante la primavera. Pero los que usaron la media de los cuadrados, obtuvieron -0,05º C para el cálculo, de manera que la habitación es más fría en la primavera.

Si no se tiene una razón física para elegir un promedio sobre el otro, entonces se están haciendo simples suposi-ciones. «Calentamiento» o «enfriamiento» de la habitación depende de la fórmula para obtener el promedio y no de las reales mediciones. Pero los promedios no son físicamente significativos. Son apenas dos estadísticas diferentes, y lo mismo se aplica para las temperaturas de la Tierra, ya sean locales o globales.

La Computadora Encantada

Nos dicen Essex y McKitrick que quizás una Hada Madrina toque alguna cosa con su varita mágica y la convierta en la Computadora Encantada, que podrá resolver todas las incertezas y desconocimientos que hay sobre el clima, sin importar si las variables y constantes que se usen son las verdaderas. En realidad, lo que los climatólogos del IPCC han estado haciendo desde hace muchos años, es exactamente eso: han usado una Computadora Encantada que ha producido Resultados Mágicos. Partiendo de des-conocimientos, incertezas y datos controvertidos, han reproducido lo que ellos llaman el promedio de las temperaturas globales, y han determinado el comportamiento que tendrá el clima en los próximos 20, 50 y 100 años. Sin embargo, los meteorólogos le siguen errando al pronóstico del tiempo cuando van más allá de tres días.

Dicen que Bert Bolin, por entonces cabeza del IPCC, bailaba de gozo el día que le presentaron la edición de la revista Nature donde aparecía el artículo de Mann, Bradley y Hughes sobre la reconstrucción de las temperaturas del último milenio, «probando» que las temperaturas del Siglo 20 eran las más altas de los último mil años, y que los niveles de dióxido de carbono de la atmósfera se habían incrementado pasmosamente desde el inicio de la llamada Revolución Industrial.

La alegría de Bolin no era para menos. El artículo de Mann et al, traía un gráfico a colores que mostraba una «curva» de temperatura desde el año 1000, que descendía de manera suave y gradual hasta alrededor del 1860, y luego daba un salto muy pronunciado en todo el Siglo 20, adoptando la forma que se parecía a un palo de hockey sobre hielo. Ese gráfico se conoce desde entonces como El Palo de Hockey, y junto con la afirmación de Mann et al sobre los bajos niveles de CO2 históricos antes del inicio desbocado de las actividades industriales del hombre, se convirtió en la piedra angular de la teoría del calentamiento global provocado por el hombre.

Para «reconstruir» las temperaturas, Mann había usado lo que se conoce como «proxys», o estudios del grosor de los anillos de árboles, crecimiento de corales, y otras cosas, que permitirían hacer comparaciones con mediciones actuales e inferir las temperaturas de hace cien, quinientos, mil años o más. También se usaron los análisis de los cilindros de hielo extraídos de perforaciones hechas en las capas de hielo de glaciares en Groenlandia, la Antártida, Europa, el Himalaya, etc, para determinar la concentración de dióxido de carbono en las burbujas del aire atrapado en el hielo hace miles de años. ¿Son confiables estas mediciones? Vistos algunos resultados y después de mucha discusión, el análisis de los cilindros de hielo está siendo muy cuestionado.

El CO2 en las Burbujas de Hielos Profundos

El Dr. Zbigniew Jaworowski es un científico multidisciplinario – médico, biólogo, físico y químico – que se desempeña como Presidente del Consejo Científico del Laboratorio Central de Protección Radiológica (LCPR) en Varsovia, Polonia, una institución del gobierno involucrada en estudios ambientales. El LCPR tiene una relación de «Enlace Especial» con el Consejo Nacional de Protección Radiológica de los Estados Unidos, (NCRP). En el pasado, durante diez años, LCPR cooperó estrechamente con la Agencia de Protección del Ambiente (EPA), en la investigación sobre la influencia de la industria y las explosiones nucleares en la polución del ambiente global y la población.

Jaworowski ha publicado unos 280 artículos de estudios científicos, entre ellos unos 20 sobre los problemas del clima. Además es el representante de Polonia en el Comité Científico sobre los Efectos de las Radiaciones Atómicas(UNSCEAR), y entre 1980-1982 fue el presidente de este comité. Durante los últimos 40 años estuvo involucrado en estudios de glaciares, usando nieve y hielo como matriz para la reconstrucción de la historia de la polución causada por el hombre en la atmósfera global. Una parte de esos estudios estaba relacionada con asuntos del clima. Los registros de CO2 han sido ampliamente usados como prueba de que, debido a las actividades del hombre, el actual nivel de CO2 atmosférico es un 25% más alto que en el período preindustrial. Estos registros se convirtieron en los parámetros básicos de los modelos del ciclo global del carbono y una piedra angular de la hipótesis del calentamiento global causado por el hombre.

En marzo de 2004, Zbigniew Jaworowski presentó una declaración al Comité de Comercio, Ciencia y Transporte, del Senado de los Estados Unidos sobre el tema de los niveles de CO2 en la atmósfera pre y post industrial, en un informe titulado: «Cambio Climático: Información Incorrecta en el CO2 preindustrial,» en donde afirma que estos registros, sin embargo, no representan la realidad de la atmósfera.

Dado que se trata de un documento público, reproduciré aquí su contenido porque es de importancia fundamental para demostrar que el Palo de Hockey, la pretensión de que el Siglo 20 fue el más caliente del milenio, y que el calentamiento global será catastrófico, carecen de toda base científica y tienen que ser descartados de plano en toda discusión relacionada con el clima de la Tierra.


Declaración del Prof. Zbigniew Jaworowski 
Presidente del Consejo Científico del Laboratorio
Central de Protección Radiológica

Varsovia, Polonia

 

 

Al Comité de Ciencia, Comercio y Tansporte del
Senado de Estados Unidos, Marzo, 2004.

 

 

Soy Profesor en el Laboratorio Central de Protección Radiológica (CLOR) en Varsovia, Polonia, una institución gubernamental, involucrada en estudios ambientales. CLOR tiene una relación de «Enlace Especial» con el Consejo Nacional de Protección Radiológica de los Estados Unidos, (NCRP). En el pasado, durante diez años, CLOR cooperó estrechamente con la Agencia de Protección del Ambiente (EPA), en la investigación sobre la influencia de la industria y las explosiones nucleares en la polución del ambiente global y la población.

He publicado unos 280 artículos de estudios científicos, entre ellos unos 20 sobre los problemas del clima. Soy el representante de Polonia en el Comité Científico sobre los Efectos de las Radiaciones Atómicas (UNSCEAR), y entre 1980-1982 fui el presidente de este comité.

Durante los últimos 40 años estuve involucrado en estudios de glaciares, usando nieve y hielo como matriz para la reconstrucción de la historia de la polución causada por el hombre en la atmósfera global. Una parte de esos estudios estaba relacionada con asuntos del clima. Los registros de CO2 han sido ampliamente usados como prueba de que, debido a las actividades del hombre, el actual nivel de CO2 atmosférico es un 25% más alto que en el período pre-industrial. Estos registros se convirtieron en los parámetros básicos de los modelos del ciclo global del carbono y una piedra angular de la hipótesis del calentamiento global causado por el hombre. Estos registros, sin embargo, no representan la realidad de la atmósfera, como demostraré en mi declaración.

Antecedentes Relevantes

Para estudiar la historia de la polución industrial de la atmósfera global, entre 1972 y 1980, organicé 11 expediciones a glaciares, que midieron contaminantes naturales y causados por el hombre, en precipitaciones contemporáneas y antiguas, preservadas en 17 glaciares en el Ártico, Antártida, Alaska, Noruega, los Alpes, el Himalaya, las Montañas Ruwenzori de Uganda, los Andes Peruanos, y las Montañas Tatra de Polonia.

También medí los cambios de largo plazo del polvo en la troposfera y la estratósfera, y el contenido de plomo en los humanos que vivieron en Europa y otros lugares durante los últimos 5000 años. En 1968 publiqué el primer estudio sobre contenido de plomo en el hielo de glaciares.[1]. Más tarde demostré que en el período pre-industrial el flujo total de plomo a la atmósfera global era más alto que en el siglo 20, que el contenido atmosférico de plomo está dominado por fuentes naturales, y que el nivel de plomo en los humanos durante las épocas Medievales era de 10 a 100 veces más alto que en el siglo 20.

Nota de FAEC: Estos estudios sobre el plomo fueron el motivo central del Capítulo 8 del libro Ecología: Mitos y Fraudes «El Plomo de las Naftas: Un Mito Costoso», que puede leerse en Capítulo 8: El Plomo

En los años 90 estaba trabajando en el Instituto Noruego de Investigación Polar en Oslo, y en el Instituto Nacional de Investigación Polar de Japón, en Tokio. En este período estudié los efectos del cambio de clima en las regiones polares, y la confiabilidad de los estudios en glaciares para la estimación de la concentración de CO2 en la atmósfera del pasado antiguo.

Falso Bajo Nivel de CO2 pre-Industrial en la Atmósfera

Las determinaciones del CO2 en cilindros de hielo polar se usan comúnmente para estimar los niveles del CO2 de las épocas pre-industriales. El profundo estudio de estas mediciones me convenció de que los estudios glaciológicos no son capaces de proveer una confiable reconstrucción de las concentraciones de CO2 de la antigua atmósfera. Esto se debe a que los cilindros de hielo no satisfacen cabalmente los criterios esenciales de los sistemas cerrados. Uno de esos criterios exige que haya ausencia de agua líquida en el hielo, que puede cambiar dramáticamente la composición química de las burbujas de aire atrapadas entre los cristales de hielo. Este criterio no se cumple, dado que hasta el hielo más frío de la Antártica (hasta -73º C) contiene agua líquida. (2)

Más de 20 procesos físico-químicos, en su mayoría relacionados con la presencia de agua líquida, contribuyen a la alteración de la composición química original de las inclusiones de aire en el hielo polar. (3)

Uno de estos procesos es la formación de hidratos gaseosos, o «clatratos». En el hielo profundo fuertemente comprimido todas las burbujas de aire desaparecen, dado que bajo la influencia de la presión los gases se transforman en clatratos sólidos, que son pequeños cristales formados por la interacción del gas con moléculas de agua. Las preforaciones descomprimen a los cilindros de hielo extraídos del hielo profundo, y contamina a los cilindros con el fluido de perforación con que se llena al agujero perforado. La descompresión conduce a densas fracturas horizontales en los cilindros, por un bien conocido proceso de formación de capas (o «sheeting«).

Luego de la descompresión de los cilindros de hielo, los clatratos sólidos se descomponen en una forma gaseosa, explotando en el proceso como si fuesen granadas microscópicas. En el hielo libre de burbujas las explosiones forman nuevas cavidades de gas y nuevas fracturas. (4)

A través de estas fracturas, y en resquebrajaduras formadas durante el «sheeting», una parte del gas se escapa primero hacia el fluido de perforación que llena el agujero, y una vez en la superficie hacia el aire atmosférico. Gases particulares, CO2, O2, v N2, atrapados en el profundo hielo congelado, comienzan a formar clatratos, y abandonan las burbujas de aire a diferentes presiones y profundidades. A temperatura del hielo de -15º C la presión de disociación del N2 es de unos 100 bars, para el O2 es de 75 bars, y para el CO2 es de 5 bars.

La formación de los clatratos del CO2 comienza en las capas de hielo a unos 200 metros de profundidad, y los del O2 y N2 a 600 y 1000 metros, respectivamente. Esto conduce al agotamiento del CO2 en el gas atrapado en las capas de hielo. Por ello es que los registros de las concentraciones de CO2 en las inclusiones de gas del hielo polar profundo muestran valores más bajos que los de la atmósfera contemporánea, aún para las épocas cuando la temperatura global de la superficie era más alta que la de hoy.

 

 


 

 

Figura 1: Concentración de CO2 en las burbujas de aire de hielo pre-industrial extraido en Siple, Antártida (cuadrados blancos) y de la atmósfera de Monte Mauna Loa, Hawaii 1958-1986 (línea sólida): (a) Datos originales de Siple sin suponer una edad 83 años más joven para el aire que la edad del hielo que lo encierra. Y (b) los mismos datos después de la «corrección» arbitraria de la edad del aire. (Neftel et al., 1985; Friedli et al., 1986, y IPCC, 1990)

La información de los cilindros de hielo de baja profundidad, como los de Siple, Antártida, (5, 6), es usado ampliamente, especialmente por el IPCC, como prueba del aumento del CO2 atmosférico causado por el hombre. Esta información muestra una clara correlación inversa entre las decrecientes concentraciones de CO2 y la presión de carga que aumenta con la profundidad. (Figura 1A). El problema con la información de Siple (y con otros hielos de baja profundidad) es que la concentración de CO2 hallada en el hielo pre-industrial a una profundidad de 68 metros (por encima de la profundidad de formación de los clatratos)era «demasiado alta». Este hielo fue depositado en 1890 y los niveles de CO2 eran de 328 ppmv, no de 290 ppmv, como era necesario para demostrar la hipótesis del calentamiento global causado por los humanos. Los niveles de 328 ppmv fueron medidos en Mauna Loa, Hawaii en 1973 (8), es decir, 83 años después de que el hielo fuese depositado en Siple.

Una suposición ad hoc, no apoyada por ninguna evidencia fáctica (3, 9), resolvió el proble-ma: se decretó arbitrariamente que la edad promedio del hielo fuese de exactamente 83 años más joven que la del hielo en la que estaba atrapado. La información «corregida» del hielo fue entonces alineada con el registro de Mauna Loa (Figura 1B), y reproducida en innumerables publicaciones como la famosa «curva Siple». Sólo 13 años más tarde, en 1993, los glaciólogos intentaron probar experimentalmente la «suposición del hielo» (19), pero fracasaron. (9)

 

 

 

 

Figura 2: Los valores medios de las mediciones de CO2 atmosférico de hielos de Europa, Norte América y Perú, entre 1800 y 1955. Los valores entre 1860 y 1900 encerrados por círculos, fueron seleccionados arbitrariamente por Callendar (12) para estimar en 292 ppmv la concentración media del CO2 del Siglo19. Slocum (19), demostró que, sin esa selección arbitraria de datos, la media del Siglo 19 sería de 335 ppmv. Rediseñado a partir de la referencia (3)

La noción de los bajos niveles pre-industriales de CO2, basada en un conocimiento tan pobre, se convirtió en un Cáliz Sagrado muy aceptado para los modelos del calentamiento del clima. Los modeladores ignoraron la evidencia de las mediciones directas de CO2 en el aire que indicaban que en el Siglo 19 la concentración promedio era de 335 ppmv (11) (Figura 2). En la Figura 2 los valores encerrados dentro de círculos muestran una selección prejuiciada de la información, usada para demostrar que en el Siglo 19 la concentración promedio del CO2 era de 292 ppmv (12).

Un estudio de la frecuencia de estomas en las hojas fósiles depositadas en el fondo de lagos en Dinamarca durante el Holoceno, muestra que hace 9400 años el nivel del CO2 atmosférico era de 333 ppmv, y hace 9600 años era de 348 ppmv, desvirtúa el concepto de que las concentraciones de CO2 eran bajas y estables hasta el arribo de la revolución industrial. (13).

La manipulación indecorosa de la información y el rechazo arbitrario de lecturas que no se ajustan a la idea preconcebida del calentamiento provocado por el hombre, es común en muchos estudios glaciológicos sobre los gases de invernadero. En publicaciones con «peer review» yo expuse este mal uso de la ciencia (3, 9). Desafortunadamente, ese mal uso no está limitado a publicaciones individuales, sino que también aparece en documentos de organizaciones nacionales e internacionales.

Por ejemplo, el IPCC no sólo basó sus informes en una «Curva Siple» falsificada, pero en su Informe 2001 (14)usó como buque insignia al «palo de hockey» de la temperatura, tratando de mostrar que no hubo un Calentamiento Medieval, como tampoco una Pequeña Edad de Hielo, y que el Siglo 20 fue excepcionalmente cálido. La curva fue crédulamente aceptada a partir del artículo de Mann et al., publicado en la revista Nature en 1998. (15). En una crítica demoledora, dos grupos independientes de científicos de otras disciplinas fuera de la climatología, (16, 17) (es decir, no apoyados por el pozo de miles de millones de dólares «climáticos»), culparon de manera convincente al estudio de Mann et al., de manipulación indecorosa y rechazo arbitrario de datos.

Surge ahora la cuestión de ¿Cómo un estudio con metodología tan pobre, que contradecía cientos de otros excelentes estudios que demostraban la existencia del alcance global del Calentamiento Medieval y de la Pequeña Edad de Hielo, pudo pasar con éxito el proceso de peer review para NATURE? ¿Y cómo pudo pasar el proceso de revisión de los pares del IPCC? La aparente debilidad del IPCC y su falta de imparcialidad fue diagnosticada y criticada a principios de los años 90 en los editoriales de Nature(18, 19) La enfermedad parece ser persistente.

Conclusión

La base para la mayor parte de las conclusiones del IPCC sobre las causas antropogénicas y de las proyecciones del cambio climático es la suposición del bajo nivel de CO2 en la atmósfera pre-industrial. Esta suposición, basada en estudios glaciológicos, es falsa. Por consiguiente, las proyecciones del IPCC no deberían ser usadas para el planeamiento nacio-nal o internacional de las economías. El climáticamente ineficiente y económicamente desastroso Protocolo de Kioto, basado en las proyecciones del IPCC, fue correctamente definido por el Presidente George W. Bush como «fatalmente defectuoso». Esta crítica fue seguida recientemente por el Presidente Vladimir Putin. Espero que sus visiones racio-nales puedan salvar al mundo del inmenso daño que podría inducirse por la implementación de las recomendaciones basadas en ciencia distorsionada.

Referencias

1. Jaworowski, Z., Stable lead in fossil ice and bones. Nature, 1968. 217: p. 152-153.

2. Mulvaney, R., E.W. Wolff, and K. Oates, Sulpfuric acid at grain boundaries in Antarctic ice. Nature, 1988. 331(247-249).

3. Jaworowski, Z., T.V. Segalstad, and N. Ono, Do glaciers tell a true atmospheric CO2 story? The Science of the Total Environment, 1992. 114: p. 227-284.

4. Shoji, H. and C.C. Langway Jr., Volume relaxation of air inclusions in a fresh ice core. Journal of Physical Chemistry, 1983. 87: p. 4111-4114.

5. Neftel, A., et al., Evidence from polar ice cores for the increase in atmospheric CO2 in the past two centuries. Nature, 1985. 315: p. 45-47.

6. Friedli, H., et al., Ice core record of the 13C/12C ratio of atmospheric CO2 in the past two centuries. Nature, 1986. 324: p. 237-238.

7. IPCC, Climate Change – The IPCC Scientific Assessment. ed. J.T. Houghton et al. 1990, Cambridge University Press: Cambridge, pp. 364.

8. Boden, T.A., P. Kanciruk, and M.P. Farrel, TRENDS ’90 – A Compendium of Data on Global Change. 1990, Oak Ridge National Laboratory: Oak Ridge, Tennssee, pp. 257.

9. Jaworowski, Z., Ancient atmosphere – validity of ice records. Environ. Sci. & Pollut. Res., 1994. 1(3): p. 161-171.

10. Schwander, J., et al., The age of the air in the firn and the ice at Summit, Greenland. J. Geophys. Res., 1993. 98(D2): p. 2831-2838.

11. Slocum, G., Has the amount of carbon dioxide in the atmosphere changed significantly since the beginning of the twentieth century? Month. Weather Rev., 1955(October): p. 225-231.

12. Callendar, G.S., On the amount of carbon dioxide in the atmosphere. Tellus, 1958. 10: p. 243-248.

13. Wagner, F., et al., Century-scale shifts in Early Holocene atmospheric CO2 concentration. Science, 1999. 284: p. 1971-1973.

14. IPCC, Climate Change 2001: The Scientific Basis., ed. J.T. Houton et al. 2001, Cambridge: Cambridge University Press, pp. 892.

15. Mann, M.E., R.S. Bradley, and M.K. Hughes, Global-scale temperature patterns and climate forcing over the past six centuries. Nature, 1998. 392: p. 779-787.

16. Soon, W., et al., Reconstructing Climatic and Environmental Changes of the past 1000 years: A Reappraisal. Energy & Environment, 2003. 14: p. 233-296.

17. McIntyre, S. and R. McKitrick, Corrections to the Mann et al. (1998) proxy data base and Northern hemispheric average temperature series. Energy & Environment, 2003. 14(6): p. 751-771.

18. Editorial, A., IPCC’s ritual on global warming. Nature, 1994. 371: p. 269.

19. Maddox, J., Making global warming public property. Nature, 1991. 349: p. 189.


 

 

Fin de la declaración de Jaworowski

 

 


La Próxima Glaciación
Durante los últimos 800.000 años el clima de la Tierra ha pasado por 8 ciclos bien diferenciados de 100.000 años cada uno, más o menos. Estos ciclos están gobernados por los períodos de excentricidad, inclinación y presesión de la órbitadel planeta. En cada uno de los ciclos pasados, el período de crecimiento de los hielos terminó con un derretimiento general, seguido por un período de más o menos 10.000 años ­ conocido como período interglacial ­ donde prevalece un clima relativamente más cálido en las previa-mente cubiertas de hielo latitudes boreales. La inercia térmica de los océanos es tan descomunal que las glaciaciones han sido de menor extensión, aquí en el lejano Hemisferio Sur.

El actual período interglacial ya ha durado más de 10.000 años en promedio. Podemos sospechar que un nuevo período de avance de los hielos ­ una nueva era glacial ­ está por comenzar en cualquier momento. Ya sea que tome unos pocos miles o unos cientos de años en manifestarse, o que el proceso ya haya comenzado es difícil de precisar. De algo sí podemos estar seguros: La histeria actual sobre el calentamiento global ­ con las apocalípticas profecías de derretimiento de los casquetes polares, inundación de las zonas costeras y desertificación de las tierras fértiles ­ no está ayudando para nada a que la gente comprenda cuáles son las reales y complejas fuerzas que dan forma al clima terrestre. Entonces, demos una breve y rápida ojeada a la historia de los ciclos del clima de la Tierra, que ha sido compilada durante cientos de años por una ciencia multidisciplinaria llamada Paleoclimatología.

Los períodos de 100.000 años no son una pendiente descendente continua de temperatura y glaciación sino que están modulados por ciclos de aproximadamente 20.000 años, consistentes en 10.000 años de enfriamiento y avance de los hielos, seguidos por 10.000 años de calentamiento y retroceso de los glaciares. Sin embargo, estas subidas y bajadas más cortas tienden a ser cada vez más frías a medida que avanza el ciclo mayor de 100.000 años. El clímax glacial de la última glaciación de 100.000 años ocurrió hace 18.000 años, en tiempos en que las sociedades humanas estaban ya bien asentadas en la Tierra.

¿Dónde Estamos Ahora?

Actualmente nos encontramos pasados del esperado punto final de un período Interglacial que comenzó hace más de 10.000 años. Estamos ahora en un punto en el calendario paleoclimático donde se espera el inicio de un nuevo período glacial de 100.000 años, que muy bien puede haber comenzado ya. ¿Una pequeña muestra de ello podría ser el frío invierno del Hemisferio Norte de 1997? ¿O del invierno del 99?¿O el fresco verano del 99 en el Hemisferio Sur? ¿O los gélidos inviernos de 2000, 2003 y 2004?

El clima global se ha estado enfriando durante los últimos 6.000 a 8.000 años y es ahora casi 0,55º Centígrados más frío que durante el tiempo del «óptimo climático post-glacial». Se puede citar como evidencia el avance de la cubierta de hielo de Groenlandia o el movimiento hacia el Sur de la línea de heladas del sudeste de los Estados Unidos (el límite del cultivo de citrus, ahora apenas llega un poco al norte de Orlando, hace 40 años estaba por Jacksonville, unos 160 kilómetros más al norte), sugiere que el enfriamiento está iniciado. Uno de los axiomas de la climatología dice que: «Un cambio de clima sería un cambio permanente de un parámetro climático de un período de 30 años ­ o un promedio de cierto número de dichos períodos ­ a otro período de 30 años, en donde el cambio es de suficiente magnitud como para ser caracterizado de tal».

Esta magnitud depende la variabilidad natural del parámetro. En consecuencia, si hay una serie de estaciones o años mucho más cortos que 30 años, en donde el clima es más frío o más caliente, más seco o más lluvioso que el promedio de 30 años, no se habla aún de cambio climático sino de fluctuaciones climáticas de corto plazo. Por ello, la ocurrencia de una serie de muy fríos inviernos en la década del 70 no constituyó un cambio climático, como tampoco lo fue la ocurrencia de veranos muy calientes y secos de los años 80, porque, en ambos casos, el clima retornó a sus niveles de largo plazo. Las sequías de los años 30 y los fríos inviernos de los 70 constituyen verdaderos ejemplos de variaciones climáticas de corto plazo.

Apocalipsis . . . ¿Cuándo?

Después de una serie de oscilaciones de corto término que comenzaron hacia unos 12.000 años antes de Cristo, se produjo una subida de las temperaturas hacia el 8.300 AC que condujo a una sostenida alta temperatura en la Europa del Norte, que antes estaba totalmente cubierta de hielo. Las máximas temperaturas estivales que se experimentaron en Europa en los últimos 10.000 años ocurrieron alrededor de 6000 años AC. Por su parte, este calor llegó a Norteamérica recién hacia el 4000 AC.

 

 

 



Fig. 1

 

 

FUENTE: Adaptado de S. W. Matthews, «What’s Happening to Our Climate», National Geographic, Nov.1976 y el IPCC, 1990,

Este período es conocido como Óptimo Climático Postglacial donde las temperaturas eran 2 grados Celsius más altas que ahora. ¿Qué quieren decir los científicos cuando hablan de Optimo Climático? Simplemente que esas temperaturas son consideradas las mejores ­ las ÓPTIMAS ­ para el desarrollo y el mantenimiento de cualquier tipo de vida, sea animal o vegetal.

Sin embargo, una brusca inversión conocida como la oscilación Piora se hizo presente hacia el 3500 AC, marcada por un fuerte avance de los glaciares en Europa y grandes migraciones de pueblos agricultores. Desde el 3000 AC hasta el 1000 AC, el clima recuperó un poco de su anterior calor. Del año 1000 AC hasta el 500 AC los glaciares avanzaron otra vez.

Hacia el año 400 de nuestra era, se instaló en Europa un período de más calor y más elevados niveles de los mares, pero otra vez fue seguido por un regreso a climas más fríos y húmedos. Puede verse la manera, a veces brusca, que tiene el clima de la Tierra para variar sus temperaturas, pasando de frío a calor y luego nuevamente a frío. Y todos estos cambios se produjeron sin la más mínima intervención del hombre, ni se le puede achacar la culpa a sus actividades manufactureras ni agrícolas, mínimas y burdas.

Y otra vez más el tiempo cambió y un clima realmente cálido imperó en Europa (y el resto del mundo, por supuesto) que culminó en Groenlandia hacia los años 900 a 1100 y en Europa hacia el 1100 a 1300. Este período es conocido como el Pequeño Óptimo Climático (también como Óptimo Climático Medieval). Las temperaturas de este período se hicieron, por un corto período, tan altas como las del Óptimo Climático Post-glacial (6000 a 4000 AC). Como se ve, el clima cambiante es la norma; el clima estable la excepción. La historia nos dice que el clima jamás fue igual por mucho tiempo.

¡Otra Vez el Frío!

Este hermoso período permitió la colonización de Groenlandia y la extensión de los campos de labranza hasta muy al norte de Europa y Asia. Sin embargo, este período de bonanza hoy sería etiquetado por los propulsores del Calentamiento Global como el Apocalipsis Now. Pero las cosas buenas tienen su fin y así, a partir de más o menos el 1350, se instaló en Europa un tiempo de fríos severísimos e inviernos memorables, de unos 500 años de duración, y que se lo conoce como la Pequeña Edad de Hielo, o como le llaman los alemanes, el Klima Verschlechterung, o el Empeoramiento del Clima. El punto más bajo del frío ocurrió entre 1550 y 1750.

Por ejemplo, la colonia en Groenlandia desapareció no mucho más tarde del año 1400. Y en Inglaterra se erigían ciudades de carpas para celebrar las Ferias Heladas sobre el congelado cauce del río Támesis, aún hasta los años de 1813­14.

El resto es bastante conocido, algunos climatólogos sostienen que la temperatura aumentó desde 1850 unos 0,5ºC, otros dicen que las aguas del Mar del Norte se han enfriado 0,5ºC desde principios del siglo. Haga el Hombre lo que haga, su pretendido inmenso poder no puede competir con las tremendas fuerzas astronómicas y cósmicas que gobiernan el subir y bajar de las temperaturas del planeta Tierra.

El Derretimiento de los Polos

Pocas cosas asustan más a la gente en el debate del Calentamiento Global que el tema del «derretimiento de los casquetes polares», con su consecuencia profetizada de aumento de los niveles de los océanos e inundaciones de áreas costeras. El Río de la Plata invadiendo al Teatro Colón y otras tonterías por el estilo. ¿Por qué es un mito o una falsedad gigantesca? Veamos: Es necesario diferenciar entre los dos casquetes polares, el Ártico y la Antártida. El casquete polar Ártico es un océano congelado rodeado por las masas de tierra de América y Asia. Se trata de un «cubo de hielo» que flota en el mar.

Los imperfectos modelos MCG predicen un derretimiento parcial del hielo de los mares y una retirada hacia los polos de unos 300 kilómetros, pero nunca un derretimiento substancial, y mucho menos uno total. ¿Cuáles serían las consecuencias de tal derretimiento para los niveles del océano? Exactamente: ninguno.

Simplemente porque, a medida que el hielo flotante de los mares se derrite, va devolviendo el mismo volumen de agua que tomó cuando se congeló. ¿No me cree? Haga la prueba siguiente: coloque en un vaso alto dos o tres cubitos de hielo y llénelo luego con agua tibia hasta el mismo y exacto borde del vaso. Verá que la parte superior de los cubitos sobresalen por encima del borde. Espere a que el hielo se derrita totalmente y podrá comprobar que no se ha derramado ni una sola gota de agua. El nivel del agua en su vaso ­ lo mismo que el de los océanos ­ no aumenta cuando el hielo flotante se derrite.

La situación sería diferente en la Antártida, donde la mayor parte del hielo está asentado sobre tierra firme. Si el hielo que rodea a la parte de tierra firme antártica se derrite, ya sabemos lo que no va a pasar. Lo que no pasó en su vaso. Puede preguntar ahora ¿por qué no hay más derretimiento? De manera simple, porque el calentamiento profetizado por los MCG no es suficiente para derretir más. Supongamos que el calentamiento de la atmósfera eleve la temperatura en el polo los 3 grados que se profetizan. La temperatura promedio de la Antártida es de unos –15ºC, por lo tanto, si se hace más caliente (hasta unos –12º C), dicha temperatura todavía está 12ºC por debajo del punto de congelación (o derretimiento, si prefiere). Los hielos de tierra firme seguirán congelados.

La Antártida es, como dije antes, un bloque de hielo reposando sobre un continente. Más del 90% del hielo de la Tierra está allí, mientras que Groenlandia sólo tiene el 5%. El resto está en los distintos glaciares que hay en el mundo. Los científicos han calculado que no existirá un significativo derretimiento de la cobertura helada de la Antártida, sino un mínimo derretimiento de los hielos que circundan al continente, con un efecto nulo sobre el nivel de los mares.

Los científicos que han analizado la respuesta de la cobertura de hielo de la Antártida a un calentamiento provocado por la mentada duplicación de los niveles de CO2 en la atmósfera han descubierto, para desazón de los catastrofistas, que en realidad los hielos van a aumentar, en lugar de disminuir! ¿Por qué? Primero, la Antártida es un lugar sumamente frío, por lo que aún un substancial calentamiento no provocará un deshielo significativo. Pero, en segundo lugar, y mucho más importante, ya que el aire sobre y alrededor del continente se calentará (supuesta-mente) tanto, podrá contener mucho más vapor de agua que lo que puede hacer ahora.

La Física nos dice que la capacidad del aire de contener vapor de agua se duplica con aproximadamente cada 10º C de aumento. Parte de esta nueva cantidad de humedad se condensará y caerá en forma de nieve. Esta nieve no se derretirá, y su acumulación hará que la cobertura de hielos de la Antártida vaya creciendo de manera paulatina. Ahora bien, esto es en esencia una neta transferencia de agua de los mares hacia la tierra, donde permanecerá durante miles de años. Este balance negativo de agua de los océanos hará que en realidad el nivel de los mismos descienda unos 30 centímetros. El Teatro Colón no será inundado por el Río de la Plata.

Aunque esto sea una sorpresa para la mayoría de la gente, este hecho es conocido por los climatólogos desde siempre. A consecuencia de muchos estudios, se determinó que durante períodos geológicos de millones de años atrás, los niveles de los mares eran mucho más bajos durante los períodos calientes que durante los períodos fríos.Sorprendente, no?

Finalmente, los científicos parecen haber considerado con mayor cuidado el real impacto de las mayores temperaturas sobre los casquetes polares y, en consecuencia, han disminuido sus estimaciones del aumento del nivel de los mares a 30 centímetros. En efecto, las observaciones realizadas indican que el espesor de los hielos de Groenlandia y de la Antártida ha aumentado en los últimos años. Los últimos modelos MCG han disminuido más todavía el futuro aumento del nivel de los océanos a unos insignificantes 2,5 centímetros para los próximos 50 años. Cada vez menos apocalíptico.

El Verano del 88

El año 1988 fue un año particularmente seco y caliente. Desde entonces, se afirma que la sequía del 88 fue la prueba final de que la teoría del Calentamiento Global era correcta y que el Apocalipsis estaba a nuestras puertas… a menos que se implementaran las medidas que el Establishment de la ecología proponía – con todas las penosas consecuencias que ello acarrearía a las naciones más pobres del mundo. Sin embargo, para dejar algunas cosas bien en claro, es menester decir que, para cualquier persona que fuese capaz de leer una tabla climatológica (para no mencionar a los científicos en climatología), las predicciones basadas en el único año de 1988 eran algo que erizaba los pelos. Veamos entonces por qué esto fue uno de los «bloopers» científicos más gigantescos que se hayan registrado en la Historia.

Primero, volvamos a la hipótesis central de qué es el Clima, y grabémoslo muy profundamente en la memoria: El Climaes el promedio a largo plazo de un parámetro climático, y un Cambio Climático es el cambio a largo plazo y duradero de ese parámetro. Una serie de algunos pocos años fríos o calientes, secos o lluviosos, son una variación climática de corto plazo y no un cambio climático a largo plazo. Pero, como los ecologistas sostienen que la frecuencia y la severidad de las sequías aumentarán con el Calentamiento Global, analicemos entonces al asunto desde dos ángulos diferentes:

  • Desde la perspectiva histórica climatológica,
  • La perspectiva causal.

La Perspectiva Histórica

Créase o no, las sequías severas son algo sumamente común, no sólo en las grandes planicies de los Estados Unidos o en el Sahel, sino en todo el mundo. Esto es muy fácil de corroborar: sólo es necesario echar una ojeada a las tablas de temperatura y lluvias de cualquier lugar del mundo. En los Estados Unidos, aún se recuerdan las gravísimas sequías de los años 30 y los 50, para ser más precisos, 1934-1936, y 1952-1954.

Los períodos que siguieron a 1954 estuvieron desprovistos de sequías dignas de mencionarse y las décadas del 70–80 se caracterizaron por veranos frescos y lluviosos, interrumpidos únicamente en 1980 y 1983 por una sequía en las planicies del sur. Pero, cuando llegó el año 1988 – la primera gran sequía en 34 años – había que culparlo al Calentamiento Global.

Obviamente, a partir del análisis de la historia climática de los Estados Unidos, no existe ninguna evidencia de ninguna clase que sea, que permita siquiera sugerir que haya ocurrido algún cambio climático, tal como lo afirman los que manejan los modelos computarizados, y la sequía del 88 es nada más que una pequeña y muy corta variación natural del clima.

La Perspectiva Causal

De acuerdo al cálculo de los modelos computarizados, las sequías deberían aumentar como resultado de la subida de las temperaturas veraniegas, en un escenario de precipitaciones relativamente constantes, cosa que no se ha materializado aún, ni ha dado señas de querer hacerlo. Entonces, debería haberse dado un aumento de la frecuencia de tales situaciones donde, debido a la incrementada evaporación, la sequedad de los suelos aumenta simplemente como consecuencia de mayores temperaturas, pero no a causa de cambios concurrentes en el patrón de circulación general de la atmósfera.

Sin embargo, los científicos han podido determinar que la sequía del 88 no fue causada por un aumento generalizado de la temperatura, sino a un desusado cambio en los patrones de circulación general de la atmósfera encima y alrededor del continente norteamericano, de naturaleza temporaria, y que se han revertido desde entonces. La predominante característica de tal cambio fue la muy persistente recurrencia de altas presiones en la zona central de los Estados Unidos y el tiempo soleado y caluroso aso-ciado con las altas presiones del verano. Debemos rechazar, en consecuencia, las afirmaciones sobre que la sequía de 1988 estuvo relacionada con el Calentamiento Global profetizado por los modelos computarizados, por las siguientes razones:

 

  • La sequía se debió a un cambio anómalo y temporal de los patrones de circulación general de la atmósfera.
  • La historia climática muestra que las sequías son parte normal de las variaciones climáticas de los Estados Unidos. La única gran sequía en 34 años no puede tomarse como una señal del Calentamiento Global, sobre todo si los previos 34 años estuvieron desprovistos de cualquier sequía digna de mencionarse.

 

 

 

Más aún, las tendencias a largo plazo de las temperaturas de verano en Estados Unidos no muestran ninguna indicación del calentamiento que los modelos predicen. Por el contrario, parece existir un enfriamiento durante las seis últimas décadas, lo que contradice de manera muy evidente las predicciones de los modelos computarizados. Es necesario agregar que, si bien los Estados Unidos fueron castigados por una de las peores sequías de la historia, otras regiones del mundo tuvieron los veranos más lluviosos que se hayan registrado jamás. Y lo más sorprendente de todo es que, en los Estados Unidos, en realidad se ha producido un muy ligero enfriamiento durante los últimos 60 años, en donde 16 de los 48 estados experimentaron enfriamiento notable, de acuerdo a los registros del US Historical Climataology Network. Yo he realizado un análisis de los 1538 registros históricos de esa base de datos y he obtenido las tendencias de temperatura de los Estados Unidos desde el año 1900 hasta el 2000.

Elegí ese período de la historia porque 100 años pueden marcar una tendencia de las temperaturas. Si hubiese elegido el período posterior a 1940, la tendencia al enfriamiento hubiese sido más pronunciada. Si el lector tiene la curiosidad suficiente, puede ver mi estudio en la página titulada Espantando Temperaturas Fantasmas, en este mismo sitio web.

Las organizaciones ecologistas sostienen que, de acuerdo al informe del IPCC (o Panel Intergubernamental del Cambio Climático), se «observa un discernible efecto antropogénico sobre el calentamiento de la atmósfera», y por consiguiente es imperioso imponer el Tratado de Kyoto, que demanda la reducción de los gases de efecto inverna-deros a un 7% por debajo de los niveles del año 1990. 

Las consecuencias que esto traería aparejadas son catastróficas. Según el informe que el Departamento de Energía de los EEUU presentó al presidente Clinton, dado el nivel de producción actual y la tendencia de consumo de energía, para cumplir con el Protocolo de Kyoto, los EEUU deberían desaparecer de la faz de la Tierra.

Ahora bien, ¿cuál es la mejor –si no la única manera de comprobar si la atmósfera de la Tierra ha tenido algún calentamiento? No es, por cierto, mediante la observación del «aumento en la frecuencia e intensidad de los huracanes», ni «el aumento de las inundaciones», ni el «retorno de las enfermedades tropicales», ya que cada una de estas cosas tiene una explicación sin relación alguna con el calentamiento. Lo mejor es fijarse en los registros de las temperaturas que se vienen llevando en las miles de estaciones meteorológicas esparcidas a lo largo y ancho de la faz del planeta, y ver si existe algún cambio notorio o, por lo menos, alguna tendencia hacia alguna dirección. Del estudio de estos registros se observa que existe una tendencia, pero en dirección al enfriamiento del planeta.

De acuerdo a los modelos computarizados, el primer lugar donde debería mostrarse un calentamiento son los Polos. De allí la profusa abundancia de publicaciones y noticias sobre los desprendimientos de grandes témpanos de hielo en la Antártida, o la ausencia de hielos en el Polo Norte. Por lo tanto, fijémonos en los registros de las estaciones meteorológicas de los polos y de las costas de Europa y Asia que están dentro del Círculo Polar Ártico.

 

 

 
 

 

 

 

Figura 2: Temperaturas en las estaciones Casey (base Antártica de Australia), Davis, Halley Bay, y Vostok. 

Los gráficos son de las estaciones Casey, (Australia), Davis, Halley Bay y la rusa Vostok, en Antártida, donde se comprueba de manera concreta y fehaciente que, si existe una tendencia, ésta es en dirección a un enfriamiento de la atmósfera. Las conclusiones son obvias. Si los termómetros de las estaciones y las lecturas de los satélites y globos sonda indican que la atmósfera se enfría, ¿Por qué las naciones del mundo deben cometer suicido firmando el nefasto Protocolo de Kioto? ¿Cuáles son, entonces, las motivaciones que se encuentran detrás de toda esta gigantesca campaña de terror relacionada con un inexistente aumento de la temperatura de la Tierra? Geopolítica e intereses corporativos multinacionales juegan un papel fundamental. Los pueblos atrasados pagan los gastos de la fiesta.

¿Quién Calienta a la Tierra?

El Sol, ¿quién más? Y este factor es uno de los más importantes y menos conocido de todos los que se agitan en el tema del Efecto Invernadero. Se conoce desde hace muchos años que el Sol tiene variaciones regulares e importantes en el número de manchas sobre su superficie – las conocidas «manchas solares» – que tienen un período promedio de 11 años. Además se han registrado grandes variaciones en la amplitud y número de estas manchas durante años pico. Hace relativamente poco tiempo se descubrió una posible relación entre el ciclo solar de 11 años y la Oscilación Cuasi Bianual (u OCB), un fenómeno estratosférico que influye sobre el clima y también sobre la magnitud del famoso Agujero de Ozono.

Las variaciones solares tienen que ver con las diferencias en la amplitud pico en diferentes «máximos» del ciclo de 11 años. Los investigadores notaron que un muy profundo mínimo de esas amplitudes pico (el llamado mínimo Maunder), coincidió con las temperaturas más bajas registradas durante la Pequeña Edad de Hielo de la según-da mitad del Siglo 17. Más aún, otro mínimo producido a principios del Siglo 19 (el «mínimo Spoerer») también fue acompañado por temperaturas mucho más bajas que en las décadas previas.

 

 

 

 

Cualquiera sean las razones, si comparamos las tendencias a largo plazo de las temperaturas de tierra durante los últimos 100 años con el número de manchas solares, se observan impactantes similitudes. Cuando se relacionan estadísticamente los registros de temperaturas regionales con los diversos factores solares registrados desde casi 1750, el promedio a largo plazo de la cantidad de manchas solares tiene una estrecha relación con las temperaturas registradas. (Fig. 3)

Estudiando la historia podemos comprobar que los cambios climáticos han fluctuado continuamente a lo largo de los siglos. Hay décadas que son predominantemente frías y otras son cálidas, pero a largo plazo (y aquí hablamos de cientos y aún miles de años) parecen fluctuar alrededor de un centro de gravedad, que es el promedio climático de largo plazo.

 

 

 

 

Fig. 4. Variación de promedios anuales del número de manchas solares y las temperaturas troposféricas en latitudes medias del Hemisferio Norte entre 1966 y 1990. El coeficiente de correlación entre los conjuntos de datos es r = 0.76

El Palo de Hockey se RompeVimos más arribe que Mann, Bradley y Hughes realizaron un reconstrucción de las temperaturas medias de la Tierra desde el año 1000 hasta la fecha, y de acuerdo a sus conclusiones, los niveles de CO2 en la atmósfera en el Siglo 20 eran muy superiores a los de los siglos anteriores, segundo, que el Siglo 20 era el más caluroso en últimos mil años. En base a este estudio de 1998, el IPCC fundamentó su afirmación que había una perceptible influencia del hombre sobre el clima. Por supuesto, esto enfureció a los muchos científicos que habían contribuido con sus trabajos al informe técnico del IPCC, y sus conclusiones no decían nada de eso.

Entre los disidentes más influyentes estaba el Dr. Richard Lindzen, jefe de uno de los grupos que habían trabajado para el IPCC, famoso climatólogo, y ex miembro de la Academia de Ciencias de los Estados Unidos. No precisamente un improvisado. A sus severas críticas se unieron reconocidos científicos de la valía del profesor Fred Singer, el Dr. Tim Patterson, Sherwood Idso, Fred Hoyle, y muchos, muchos más, que elevaron sus voces para mostrar su desacuerdo con un estudio que consideraban defectuoso y plagado de metodologías y procedimientos nada claros.

Pero, ¿Qué aspecto tiene el Palo de Hockey? Es tiempo de que analicemos todo lo que hay por detrás de esta piedra fundamental de la hipótesis del Calentamiento causado por el hombre. Ajústense los cinturones porque vamos a volar en áreas peligrosas.

 

 

 


Figura 5: El «Palo de Hockey», como lo presenta el IPCC en sus informes.

 

 


En la Figura 5 vemos al Palo de Hockey en la parte inferior, mostrando la fuerte subida de las temperaturas a partir de la mitad del Siglo 19, cada vez más pronunciada a medida que transcurre el Siglo 20. Recordemos que ya demostró el profesor Zbigniew Jaoworowski que los estudios del CO2 contenido en los cilindros de hielo de los glaciares no son buenos indicadores de la fecha ni de la cantidad de CO2 que había en el aire al momento de la formación del hielo. Pero no es ese el principal problema del palo de hockey de Mann etc al, y sus defensores en el IPCC. El peor problema fue que el estudio fue tomado por los científicos canadienses Steven McIntyre, y Ross McKitrick, quienes le hicieron una disección total –diría yo, más bien una autopsia.

Uno de los principales antagonistas del estudio de Mann, Bradley y Hughes (MBH98), fue el ingeniero y marino retirado John Daly, de Tasmania, Australia, quien desde su sitio de Internet «Waiting for Greenhouse» (Esperando por el Invernadero) se ocupó de desenmascarar lo que había caracterizado como «un escandaloso fraude científico» cometido por Mann et al. Finalmente, el tiempo y la ciencia le dieron la razón. John Daly murió de un infarto cardíaco el 29 de enero de 2004, pero su sitio de Internet mantiene aún toda la información científica sobre el asunto «cambio climático». Una visita a www.john-daly.com/ le ofrece una inmensa cantidad de material científico de primera calidad, como discusiones entre científicos que resultan muy reveladoras.

Como fui yo el encargado de llevar la sección en Castellano de su sitio, presentaré aquí la traducción que hice del artículo que John Daly escribió en Octubre de 2003, cuando McIntyre y McKitrick publicaron sus crítica de estudio MBH98 en la revista inglesa Energy & Environment:

 

 

 

El Palo de Hockey se Rompió

 

 

En un asombroso estudio recién publicado en Energy and Environment, el infame «Palo de Jockey» desarrollado por Mann, Bradley y Hughes en 1998, ha sido totalmente desacreditado – usando las mismas fuentes de datos, y hasta la misma metodología utilizada por los autores originales del «Palo de Jockey».

De acuerdo con McIntyre y McKitrick, [Energy & Environment];

«El conjunto de datos de proxys del clima pasado usado en Mann, Bradley y Hughes (1998, «MBH98» en adelante) para la estimación de las temperaturas desde 1400 hasta 1980, contiene errores de colación, injustificable truncado o extrapolaciones de las fuentes de datos, datos obsoletos, errores de ubicación geográfica, cálculos incorrectos de los componentes principales y otros defectos del control de calidad. Detallamos esos errores y defectos. Aplicamos después la metodología MBH98 para la construcción de un índice promedio de las temperaturas del Hemisferio Norte para el período 1400-1980, usando datos corregidos y actualizados.

Los principales descubrimientos son que los valores a principios del siglo 15 excedían cualquier valor del siglo 20. La particular forma de un «Palo de Hockey» obtenida en la construcción de proxys del MBH98 – un índice de temperaturas que disminuye ligeramente entre principios del siglo 15 y principios del siglo 20, y luego aumenta de manera dramática hasta 1980 – es de manera primaria «el resultado de un pobre manejo de los datos, datos obsoletos y cálculos erróneos de los componentes principales.»

En este sito de la web, se enfrentaron y refutaron las conclusiones acerca de los climas del pasado (ver www.mitosyfraudes.8k.com/articulos-2/Hockey.html «El Palo de Hockey: Nuevo Bajo Nivel en la Ciencia del Clima«), en base a comparaciones directas con numerosos estudios científicos que encontraban que el final del siglo 20 no era para nada destacable cuando se comparaba con siglos previos «anteriores a gases de invernadero», en especial el Período Cálido Medieval.

Sin embargo, McIntyre y McKitrick han desafiado al Palo de Hockey en su propio terreno, haciéndolo sujeto de una «auditoría», usando los mismos datos y suposiciones, y desarrollando una reconstrucción de las temperaturas siguiendo principios similares. Fue un ejercicio clásico de replicación, tan necesario en ciencia. El resultado se muestra en el gráfico de abajo:

 

 

 

 

 

Figura 6: El Palo de Hockey rectificado por McIntyre y McKitrick

La reconstrucción de McIntyre-McKitric (línea gruesa) muestra que los climas previos eran más cálidos que el final del siglo 20, una conclusión apoyada por otros numerosos estudios científicos, mientras que el Palo de Hockey niega esta realidad. Parece que a través de una combinación de errores de tabulación, truncado de serie de datos sin razón valedera, y «saltando brechas» en los datos con poco más que suposiciones, los autores del Palo de Hockey crearon una imagen falsa de los climas pasados, que fue abrazada de manera instantánea como política por el IPCC de las naciones Unidas y la industria del invernadero que ella dirige. Se hizo influyente para convencer a los hacedores de políticas pro-Verde como el ex vicepresidente de Estados Unidos, Al Gore, que el calor de fines del siglo 20 no tenía precedentes en la historia humana.

No sólo se impuso el Palo de Hockey en frente de una montaña de evidencia de otras ciencias que contradicen sus conclusiones, sino que gracias a McIntyre y McKitrick, ahora sabemos que el Palo de Hockey estaba también fallado internamente, dado que sus propios datos, cuando son interpretados correctamente, tampoco apoyan sus conclusiones.

Esto hace surgir la cuestión de la bona fides científica en la misma ciencia climática. McIntyre y McKitrick han expuesto fallas científicas fundamentales en una influyente publicación científica, estudio que ha sido totalmente revisado por sus pares (peer-review), «expertos» de la industria del calentamiento y publicado en un periódico de renombre.

Su auditoría de las bases de datos y procesos estadísticos que subyacen en el Palo de Hockey, exigió habilidades estadísticas de primer orden por encima de todo, y es aquí donde ellos han expuesto la incompetencia que existe detrás del Palo de Hockey original.

Hubo también muchas otras instancias de ciencia profundamente errónea, a las que se dio luz verde de manera nada crítica para su publicación por parte de los revisores de esta ciencia, pero ahora debemos hacer la pregunta si su pretensión de status científico puede ser justificada por su comportamiento.

Energy & Environment es una publicación que estuvo al frente para debatir este y otros asuntos de importancia pública, y es para felicitarles por haber publicado esta crítica tan esperada y condenatoria del Palo de Hockey. Para facilitar el debate públi-co, la publicación ha dado el inusual paso de poner el estudio de McIntyre y McKitrick disponible libremente en la web: http://www.multi-science.co.uk/mcintyre_02.pdf

Ética Científica y Otras Ausencias

Está ahora claro que la historia climática del hemisferio norte y del planeta como un todo no guarda ninguna similitud con la mostrada por el ‘Palo de Hockey’ de Mann. Es inconcebible que dos mayores eventos climáticos del pasado milenio, el Período Cálido Medieval y la Pequeña Edad de Hielo, puedan haber sido observadas en los mismos puntos en el tiempo, en tal variedad de lugares, y con tal variedad de proxys alrededor del mundo y, sin embargo, haber sido ignorados por el estudio de Mann. Una explicación posible para esta discrepancia es que los anillos de árboles son inapropiados como proxys para la temperatura, algo que muchos dendrocronólogos se rehusan a reconocer.

Debe preguntarse entonces, ¿por qué la gente que dice tener credenciales científicas en el campo se aferra tan tenazmente a una caracterización de climas pasados que es tan notoriamente falsa? ¿Por qué hubo tan poco cuestionamiento a la teoría de Mann entre sus pares? ¿Por qué existe una negativa colectiva al papel que juega el Sol, cuando la evidencia publicada y con «peer review» de los científicos solares demuestra que existe una clara relación entre los cambios solares y los cambios del clima?

Un folleto titulado «Ser un Científico: Conducta Responsable en la Investigación», publicado por la Academia Nacional de Ciencia de los Estados Unidos en 1995, nos provee de un bien presentado conjunto de criterios para guiar la conducta de los científicos a medida que navegan su rumbo a través de las difíciles elecciones que deben hacer sobre la manera en que deben conducirse éticamente.

«La falibilidad de los métodos es un valioso recordatorio de la importancia del escepticismo en la Ciencia. El conocimiento científico y los métodos científicos, ya sean nuevos o viejos, deben ser constantemente escrutados para descubrir posibles errores. Tal escepticismo puede tener conflictos con otros aspectos de la ciencia, como la necesidad de creatividad y para la convicción en argumentar una nueva posición. Pero el escepticismo organizado e inquisidor, como también una mente abierta a las nuevas ideas son esenciales para estar en guardia contra la intrusión de dogmas o sesgos colectivos en los resultados científicos.»

Aquí, el escepticismo es tomado como una virtud, en contraste con el hostil tratamiento dado a los ‘escépticos’ en las ciencias climáticas. Pero también tenemos esta convincente advertencia contra los dogmas y el sesgo colectivo introduciéndose en la ciencia. Esta precaución es directamente aplicable a aquellos involucrados en la investigación del cambio climático ya que han demostrado demasiadas veces un sesgo colectivo en su trabajo, un sesgo que debe contaminar de manera inevitable al mismo proceso de «peer review» (o evaluación por los pares).

Una falla común en los científicos, particularmente en aquellos ocupados en la investigación que puede tener impactos sobre el público, es rechazar cualquier aporte del público en la conducta de su trabajo. El proceso de peer-review provee una barrera efectiva al escrutinio público de una ciencia, como es la tendencia de considerar al público como gente ‘a ser educada’ en vez de aprender de ella. La resultante arrogancia intelectual tiene el efecto de convertir a los científicos en una suerte de hermandad medieval, guardianes de secretos y conocimiento exclusivo, y que deben ser mantenidos lejos de los ojos inquisidores del público. Tal actitud, común a tantos científicos, es imperdonable ya que la mayor parte de las investigaciones son pagadas con dinero público. Sin embargo, esto no impide que dichos científicos adopten una visión de propietarios de los resultados de sus trabajos. El folleto de la Academia Nacional de Ciencias nos advierte:

Al cumplir con estas responsabilidades los científicos deben tomarse el tiempo para pasar el conocimiento científico al público en una manera que los miembros del público puedan hacer decisiones informadas sobre la relevancia de la investigación. Algunas veces, los científicos reservan este derecho para sí mismos, considerando que lo ‘no-expertos’ no están calificados para realizar tales juicios. Pero la ciencia ofrece solamente una ventana a la experiencia humana. Mientras mantienen el honor de su profesión, los científicos deben evitar poner al conocimiento científico en un pedestal por encima del conocimiento obtenido por otros medios»

Esta es una crítica directa al «cientificismo«, una creencia compartida por muchos científicos de que el conocimiento no adquirido por científicos profesionales es conocimiento que no merece tenerse. El cientificismo es una afrenta a las personas libres en todo el mundo ya que niega el derecho al público para juzgar el trabajo de la ciencia, aún cuando este trabajo está financiado por el dinero de los contribuyentes. Es una fórmula que mantiene a los científicos por encima de la crítica, y de todos los demás que no sean sus propios pares. Es una visión antidemocrática del mundo y está claramente conde-nada por la Academia Nacional de Ciencias.

Y así, en la ciencia climática, tenemos numerosos ejemplos de crítica pública y preocupaciones que son desechadas por medio de graciosas estadísticas y llamados espúreos a la autoridad académica.

¿Quién es Michael Mann?

Al momento en que publicó su estudio del ‘Palo de Hockey’, Michael Mann tenía una posición de adjunto de facultad en la Universidad de Massachussetts, en el Departamento de Geociencias. Recibió su diploma de PhD en 1998, y un año más tarde fue promovido a profesor Asistente en la Universidad de Virgina, en el Departamento de Ciencias Ambientales, a la edad de 34 años.

Es ahora el Autor Principal (Lead Author) del capítulo ‘Variabilidad y Cambio Climático’ del Tercer Informe de Evaluación del IPCC (Third Assessment Report – TAR-2000), y un autor contribuyente en varios otros capítulos del mismo informe. El Resumen Técnico del informe, haciéndose eco del estudio de Mann,, dijo: «La década de los 90s es muy probablemente la más caliente del milenio, y 1998 es probablemente el año más caliente.»

Mann también es conocido en el panel editorial del `Journal of Climate’ y fue un editor invitado para una edición especial de «Cambio Climático». También es un «árbitro» para las revistas Nature, Science, Climatic Change, Geophysical Research Letters, Journal of Climate, JGR-Oceans, JGR-Atmospheres, Paleo Oceanography, Eos, International Journal of Climatology, y NSF, NOAA, y programas de becas DOE.

En el sistema de «peer-review» de las ciencias, el rol del árbitro anónimo confiere el poder de rechazar estudios y artículos que, en opinión del árbitro, no alcanzan a cumplir con las normas científicas.)

Fue nombrado «Consejero Científico» del gobierno de los Estados Unidos (White House OSTP) sobre asuntos del cambio climático. Mann lista su ‘exposición en los medios populares’ como incluyendo a: «CBS, NBC, ABC, CNN, CNN Headline News, BBC, NPR, PBS (NOVA/FRONTLINE), WCBS, Time, Newsweek, Life, US News & World Report, Economist, Scientific American, Science News, Science, Rolling Stone, Popular Science, USA Today, New York Times, New York Times (Science Times), Washington Post, Boston Globe, London Times, Irish Times, AP, UPI, Reuters, y muchos otros medios de TV e impresos».

En la carrera de Mann se destaca un serio problema con las ciencias climáticas modernas, particularmente el sistema «estrella» donde científicos de alto perfil son promovidos velozmente a posiciones influyentes en la industria. Tal sistema de «estrellas» reduce a la ciencia al nivel de Hollywood.

Las pruebas presentadas como evidencias contrarias a la tesis del Palo de Hockey son abrumadoras. De todos los rincones del mundo el Período Cálido Medieval y la Pequeña Edad de Hielo se muestran claramente en una gran variedad de indicadores proxys, más representativos de la temperatura que los inadecuados anillos de árboles usados por Michael Mann.

Lo que es inquietante en el asunto del ‘Palo de Hockey’ no es la presentación original de Mann. Como con cualquier «paper», se habría hundido en el olvido si se hubiese hallado defectuoso de alguna manera. Lo inquietante fue la reacción de la industria del invernadero al mismo – el coro de aprobación, la completa ausencia de una evaluación crítica de la teoría, la ciega aceptación de evidencia que era tan endeble. La industria abrazó la teoría por una sola y única razón: les dijo exactamente lo que ellos querían escuchar 

Los proponentes del ‘Palo de Hockey’ deberían recordar «1984» de George Orwell, un negro drama de ciencia ficción en donde su ficticio régimen totalitario usaba ‘agujeros de memoria’ para reinventar a la historia pasada. En esta época de comunicación instantánea, no existen ‘agujeros de memoria’ bastante grandes como para dar vuelta la verdad histórica sobre el Período Cálido Medieval y la Pequeña Edad de Hielo.

Resumen Final

Resumiendo lo visto hasta ahora podemos afirmar que los períodos fríos de la historia climática moderna (desde la aparición del hombre en la Tierra), se relacionan estrechamente con los períodos que le han causado a la Humanidad graves problemas, mientras que los períodos cálidos (más cálidos que el presente) se consideran más benignos y favorables a la Naturaleza y a las actividades humanas, por lo cual han sido calificados por los científicos como «Optimos Climáticos». Aún las regiones subtropicales gozaron de climas más favorables, es decir, más húmedos y frescos.

Invernadero, Adiós

Para terminar con este tema, quiero dejarles el pensamiento del notable científico francés Haroun Tazieff, vulcanólogo, investigador, ex Ministro para la Prevención de Desastres de Francia, y otros títulos más (fallecido en Febrero de 1998) ­ hablando sobre este remanido tema del Calentamiento Global. Como podrán apreciar Tazieff tenía, además de un profundo conocimiento científico, una enorme cantidad de aquello tan difícil de encontrar actualmente: Sentido Común.

«En cuanto al Efecto Invernadero, presuntamente generado por el CO2 liberado por la quema de petróleo y sus derivados, carbón y madera, esto me parece a mí imaginario y tan irreal como la destrucción del ozono en la alta estratosfera» ­ «El CO2 juega, en realidad, un rol muy pequeño en el efecto invernadero, siendo el rol esencial jugado por el agua, ya sea bajo su forma visible, pequeños cristales de hielo suspendidos en las nubes, o por su forma invisible, el vapor de agua.»

«Como prueba de esto considero yo que el efecto invernadero es máximo en las regiones húmedas y mínimo en las áridas, mientras que la proporción de CO2 es la misma en ambas: 0,03%. Tome un día (24 horas) sin nubes en alguna zona Ecuatorial y otro en una zona desértica. La máxima temperatu-ra diaria (en la sombra) es de 35ºC a 36ºC en el Congo (por ejemplo) y de 50º C a 55ºC en el Sahara. La mínima temperatura nocturna es de 28ºC a 30ºC en el húmedo trópico y de 0ºC a -5ºC en Tibesti o en Hoggar. Hay una diferencia de 6 grados (entre mínima y máxima) donde hay una humedad del 95% al 100% y una diferencia de 50º C donde la humedad no pasa de los 15% a 20%. ¿En dónde está el mayor efecto invernadero? Donde se encuentra mayor humedad. »

«Ahora bien, la concentración de CO2 es la misma en la selva, el desierto, los mares, los polos y los picos de las montañas: No es el dióxido de Carbono el que determina el efecto invernadero sino que es la humedad de la atmósfera.»

«Sostener que el aumento del CO2 en la atmósfera hará que aumente la temperatura revela o un análisis insuficiente de las causas del efecto invernadero, o una cierta mala fe. Es un análisis insuficiente porque se olvida que un eventual aumento de la temperatura del aire incrementará tanto la evaporación del agua de la superficie de la Tierra – principalmente océanos – y la transpiración de las plantas. Esto aumentará la nubosidad, que disminuirá la temperatura durante el día y la aumentará durante la noche. La nubosidad, de hecho, aumentará el albedo de la Tierra, es decir, la reflexión de la energía solar de vuelta al espacio exterior.»

«Todo esto implica una significativa autoregulación de la temperatura. La alternancia de los períodos glaciales e interglaciales, como Milankovitch demostró matemáticamente en los años 30, está condicionada por tres factores astronómicos que varían de manera regular: por la inclinación del eje de rotación de la Tierra con respecto al plano de la eclíptica ­ cuyo período es del orden de 40.000 años; por la excentricidad de la órbita de la Tierra en relación al Sol ­ de un período de unos 100.000 años; y la presesión de los equinoccios, de unos 20.000 años. La cantidad de energía solar que recibe la superficie de la Tierra, y de allí su clima, depende casi exclusivamente de estos factores. Los alternados avances y retiradas de los hielos y la duración de estas épocas dependen de la interacción de estos tres factores. Aparte de estas variaciones mayores, el clima está fuertemente influenciado por la actividad del Sol mismo, que es en parte cíclica (el ciclo de las manchas solares de 11 años es el más conocido), y en parte impredecible – pero definitivamente importante. »

Molinos de Viento para Ecologistas

«He resumido aquí el muy solitario sendero que he seguido para descubrir que las catástrofes anunciadas con gran soplar de trompetas no son nada más que molinos de viento para que ecologistas ingenuos y crédulos se lancen sobre ellos. Después que adopté mi postura, primero con un pequeño libro escrito en 1989, luego en debates públicos y en apariciones en entrevistas radiales y televisadas, tuve la sorpresa ­ ¡Oh, que agradable sorpresa! ­ la de recibir la aprobación de numerosos científicos, especialmente especialistas en esas materias. Por otra parte, he atraído innumerables enemistades, algunas ingenuas y otras de personas de honestidad bastante dudosa. Pero un pequeño número de amigos de calidad es mucho más valioso que una barra de «fanáticos» o una pandilla de locos.»

Haroun Tazieff, 1993

Bibliografía consultada:

 

  • Christopher Essex y Ross McKitrick, 2002, «Taken by Storm», Key Porter Books, Ltd, Toronto, Canadá.
  • Ellsaesser, Hugh W., 1991, «Setting the 10.000 Year Climatic Record Straight,» 21st Century Science & Technology, Winter, 1991, pp. 52-58
  • Ellsaesser, Hugh W., 1985, «Do the Recorded Data of the Past Century Indicate a CO2 Warming?», Lawrence Livermore Laboratory Contract, W-7405, Eng. 48, pp. 87-88.
  • Ellsaesser, Hugh W., 1982, «Should We Trust Models or Observations?», Atmospheric Environment, Vol. 16, No. 2, pp. 197-205.
  • Seitz, Frederick, Robert Jastrow y William Nierenberg, 1989, «Global Warming Update: Recent Scientific Findings», George C. Marshall Inst. Washington, D.C., Junio 1989.
  • Tazieff, Haroun, 1992, «The Holes in the Ozone Scare», Prefacio, pp. vii-xvii, 21st Century Science Associates, editores, Washington, D.C., 1992.
  • Singer, Fred S., 1991, «The Science Behind Global Environmental Scares», Consumer’s Research, octubre 1991, pp. 17-21.
  • Singer, Fred S., 1992, «Global Change ­ Greenhouse Warming and Ozone Trends», conferencia en la reunión anual de la American Association for the Advancement of Science, Febrero 11, 1992, Chicago, Illinois.
  • Michaels, Patrick J., y David E. Stooksbury, «Global Warming: A Reduced Threat?», Bulletin of the American Meteorological Society, Vol. 73, No. 10, Octubre 1992, pp. 1563-77.
  • Boden, T.A., P. Ranciruk y M.P. Farrell, 1990, Trends 90: «A Compendium of Data on Global Change,» Carbon Dioxide Information Analysis Center, Environmental Sciences Division, Oak Ridge National Laboratory.
  • Jaworowski, Zbigniew, T. V. Segalstad y Vidar Hisdal, 1990, «Atmospheric CO2 and Global Warming: A Critical Review»Norsk Polarinstitutt Raportserie, NR. 59, Oslo, 1990.
  • Schlesinger, Michael E. y Navin Ramankutty, «Implications for Global Warming of the Intercycle Solar Irradiance Variations,» Nature, Vol. 360, Nov. 26, 1992, pp. 330-33.
  • Lamb, H. H., «Climate History and the Modern World», 1982, Methuen & Co. Ltd. London & New York.
  • Idso, Sherwood, 1989, «Carbon Dioxide and Global Change: Earth in Transition», IBR Press, Tempe, Arizona, 85282.
  • Idso, S. B., B.A. Rimball, M.G. Anderson y J.R. Mauney, 1989, «Greenhouse Warming Could Magnify Positive Effects of CO2 Enrichment on Plant Growth»CDIAC Communications, Invierno 1989, pp. 8-9. Oak Ridge National Laboratory.
  • Manabe, S. and R. Bryan, 1985, «CO2 Induced Change in a Coupled Ocean-Atmosphere Model and Its Paleoclimatic Implications»Journal of Geophysical Research, Vol. 90, C 6, pp. 11.689-11.707.
  • Oerlemans, J., 1982, «Response of the Antarctic Ice Sheet to a Climatic Warming: A Model Study,» Journal of Climatology, Vol. 2, pp. 1-11.
  • Trenberth, K.E., G.N. Branstator y P.A. Arkin, 1988, «Origins of 1988 North American Drought», Science, Vol. 242, pp. 1640-1645.
  • Weber G.R., 1992, ‘Global Warming: The Rest of the Story», Editor Dr. Boettiger Verlags – GmbH, Dotzheimerstr. 166, D- 6200 Wiesbaden, Alemania.

Capítulo 2 - El fraude de la capa de ozono

 El Fraude del Siglo
El tema de la capa de ozono, su famoso agujero de la Antártida y la accióndestructora que tendrían algunas substancias hechas por el hombre,se inscribe en la categoría de fraude total y absoluto, desde el principiohasta el fin. Hacia fines de la década de los 20, los químicosde la empresa Du Pont producen y lanzan al mercado una familia de gases conocidacomo Cloro Fluoro Carbonos, por estar su composición químicabasada en las moléculas de Cloro, Flúor y Carbono. Las fórmulas másampliamente usadas desde entonces, se comercializaron bajo el nombre de Freón-11Freón-12, siendo sus fórmulas respectivas:CFCl3 y CF2Cl2,es decir: una molécula de Carbono, dos de Flúor y dos de Cloropara el Freón-12, y una de Carbono, una de Flúor y tres de Cloropara el Freón-11. La familia de los Freonesha sido considerada como uno de los productos más extraordinarios quehaya inventado el Hombre. Eran demasiado maravillosos como para que alguienno les descubriera una contra. En 1974, los químicos F. Sherwood Rowlandy Mario Molina, dieron su primera alerta sobre los CFC, prediciendo que nose desintegrarían rápidamente en la baja atmósfera y,que de «alguna manera» llegarían hastala estratosfera, dando nacimiento a su famosa Teoría del Ciclo Catalíticodel Cloro o Teoría Química de la destrucción de la capade ozono.

 Ciencia y Política

A menudo, los científicos,industriales y políticos toman posiciones enfrentadas en lo relativoa las políticas que se refieren a las prohibiciones de orden público.Los políticos creen que una simple conclusión científicade «es bueno» o «es malo» es suficiente requisito para promulgar prohibicionesque resultarán costosas para la industria y para el públicoen general. Por su parte, los científicos creen casi siempre que estánen condiciones de proporcionar esas conclusiones. Sin embargo, cualquier asuntocientífico que tenga algo que ver con el mundo real, es con frecuenciaimposible de simplificar hasta el punto de ofrecer ­ sin sombras de dudas­ las respuestas simples y rápidas, y al mismo tiempo confiables, queexigen los políticos sin saber que, en ciencia, nada es totalmentenegro o totalmente blanco.

 La Teoría Química

La edición deSept-Octubre 1990 de la revista CIENCIA HOY, vol. 2, No. 9, págs. 41-48, publica un artículo de Luis V. Orce, del Depto. de Radiobiología de la Comisión Nacional de EnergíaAtómica (CNEA) y del que se cita textualmente:
«Hacia 1974, dos investigadores de la Universidad de California, Mario Molina y Sherwood Rowland, observaron que la producción anual de CFC alcanzaba una cifra cercana al millón de toneladas anuales y dedujeron que tratándose de compuestos tan estables debía de haber miles de toneladas de ellos en alguna parte. En consulta con algunos expertos en dinámica de la atmósfera concluyeron que los CFC liberados en la Tierra, al igual que cualquier otro gas más liviano que el aire,tenían que ser dispersados por los vientos a toda la atmósfera, independiente-mente del lugar desde el que partieran. En una marcha lenta pero segura, las corrientes ecuato-riales ascendentes deberían transportarlos hasta la estratosfera, hacia un inexorable encuentro fotoquímico con la radiación ultravioleta solar más energética. Los estudios de laboratorio de Molina y Rowland demostraron que los químicamente inalterables CFC son poco estables ante la radiación UV-C, pues se produce una reacción fotoquímica que da lugar a la liberación de átomos de cloro (Cl’). Sobresimplificada, esta reacción puede esquematizarse así:

Cl3CF + hv ( l < 230 nm) —-> Cl2CF + Cl’ [ I ]

«Los átomos de cloro que se liberan son muy reactivos y muchos de ellos colisionan con átomos (sic) de ozono (debería decir moléculas) produciendo monóxido de cloro (ClO) y oxígeno molecular:

Cl’ + O3 —-> ClO + O2 [ II ]

«Pero allí no termina todo. El monóxido de cloro puede reaccionar con átomos de oxígeno producidos en la reacción [ I ] del texto principal, y se regenera así el cloro atómico:

ClO + O’ —-> O2 + Cl’ [ III ]

«Los átomos de cloro liberados cierran el llamado «ciclo cloro catalítico del ozono». Se estima que un solo átomo de cloro liberado de un CFC puede dar origen a una reacción en cadena que destruya 100.000 moléculas de ozono.» «Sin embargo, este ciclo catalítico puede ser bloqueado por dióxido de nitrógeno (NO2), uno más de los tantos gases atmosféricos. El NO2 puede «secuestrar» monóxido de cloro producido por la reacción [ II ] mediante una reacción química en la que se forma nitrato de cloro (ClNO3)

:NO+ ClO —-> ClNO3 [ IV ]

«Esta combinación es conocida como «reacción de interferencia», ya que bloquea la degra-dación del ozono producida por derivados de CFC.

Primera Observación

He destacado en el textola frase:«al igual que cualquier otro gas más liviano que el aire. . . »,refiriéndose a los CFC, porque este es el punto sobreel que se basa la acusación a los CFC, y su consiguiente pedido deerradicación del mercado comercial. Analicemos el asunto bajo la luzde los hechos científicos aceptados por el 100% de los científicosdel mundo. La tabla siguiente muestra los pesos atómicos de algunosde los gases que componen la atmósfera de nuestro planeta, y de suanálisis podremos sacar algunas conclusiones.
PESOS MOLECULARES Y DENSIDAD DE ALGUNOS GASES DE LA ATMOSFERA
 

HIDROGENO (H2) = 2,016 — HELIO (He2) = 8,0

OXIGENO (O2) = 32,0 — NITROGENO (N2) = 28,02

Peso molecular promedio de la atmósfera Terrestre: 29,01

PESO ATOMICO DE ALGUNAS MOLECULAS

Oxígeno (O) : 16,00 – Carbono (C) : 12,01 – Flúor (F) : 19,00 Cloro (Cl) : 35,50 — Hierro (Fe) : 55,8
Peso Molecular del Freón-11 (Cl3FC) : 137,51

Peso Molecular del Freón-12 (Cl2F2C) : 121,01

TABLA 1

Como es fácilde advertir, si se libera HIDROGENOo HELIOa la atmósfera, subiránhasta la estratosfera porque son mucho más livianos (tienen menor pesodensidad) que la atmósfera. Es sabido que esta capacidad de los gasesHidrógeno y Helio se usa para inflar globos meteorológicos quesuben hasta la estratosfera (y globos para niños, también!). Por su parte, el más liviano de los Freones (el Freón-12pesa 4,10 veces más que el airey el Freón-11 es 4.66 más denso que la atmósfera. Esto hace que los CFC, molécula por molécula, sean entre 2,16 y 2,46 veces más pesados que el Hierrocuyo peso molecular es de 55,8. Por lo tanto, los CFC se comportan de la misma manera que lo hace el hierro: cuando un objeto de hierro es liberado de la mano, cae hacia tierra a una velocidad que depende de su forma, de su peso y la densidad del aire. Los CFCs tienen el mismocomportamiento, pues al ser 4,66 más densos que el aire, desciendena niveles inferiores cuando son liberados. De hecho, esta característicade los Freones los hizo (y los sigue haciendo) el medio ideal de construiru obtener perfectas «tapas a medida» para cubetas de reveladores fotográficos­altamente oxidables­ para aislarlos absolutamente del oxígeno ambiental,evitando la rápida oxidación de los reactivos y consiguientepérdida de actividad química. Es fundamental que se entiendamuy bien y no se pierda de vista que:

LOS CFC NO «SUBEN» A LA ESTRATOSFERA:

 

¡SON DEMASIADO PESADOS!

Esta es la razónpor la cual jamás se han podido detectar moléculas de CFC enlas muestras obtenidas de la estratosfera, en cantidades suficientes comopara tener alguna importancia, como tampoco han sido hallados ni cerca delas altitudes donde la ra-diación UV tiene la energía suficientepara disociar a la molécula de CFC. Sí se ha comprobado la existenciade moléculas de muchos otros gases como Hidrógeno, Helio, Metano(o CH4), Monóxido y Bióxido de Cloro (ClOy ClO2), toda la familia de óxidos de nitrógeno,genéricamente representados por la fórmula NOX ,y otras familias de compuestos a base de Bromo, de Flúor, de Iodo y,aunque en altitudes menores, se encuentra también al bióxidode carbono (CO2) y gases como Argón, Kriptón,Neón, Xenón, etc. Sin embargo, las GrandesAusentes han sido las moléculas de CFC que, de acuerdo a la Teoríade Rowland y Molina «subenhasta la estratosfera y son allí disociados por los rayos ultravioletasde la banda UV-C». Paraque los CFC puedan liberar sus átomos de cloro, es primero condiciónSINE QUA NON que sean atacados por la radiaciónUV de menos de 190 nm de longitud de onda. Esta radiación sólose encuentra por encima de los 36 a 40 kilómetros de altura, porquela atmósfera los filtra totalmente, a medida que va haciéndoseprogresivamente más densa. Por la misma razón, es que tampocose encuentran trazas de gases como el Radón (peso atómico 222),que por su elevada densidad se mantiene «pegado al suelo», metiéndosepor todas las cavidades, zanjas, sótanos y subsuelos de edificios.Los CFC actúan de la misma manera.

 MECANISMOS ATMOSFERICOS

Formación de la Capa de Ozono

La creación de una molécula de ozono (O3) se produce cuando un fotón de elevada energía (l< 242 nmimpacta contra una molécula de oxígeno (O2), rompiendo el doble enlace de sus átomos. La molécula se divide en sus dos átomos constitutivos, en una reacción que se representa así:

O2 + hv ( < 242 nm) ———> O’ + O’ ­ 118.111 Kcal/mol [ 1 ]

Como los dos átomosresultantes son sumamente reactivos, se unen con toda rapidez a otra moléculade oxígeno intacta para formar ozono:

O2 + O’ ——–> O3 [ 2 ]

El ozono es una formatriatómica del oxígeno que también tiene elevada reactividad(aunque menor que el oxígeno atómico), debido a que el tercerátomo sólo ha podido saturar uno de sus enlaces, permaneciendoel otro libre para «aferrar» o combinarse con cualquier otro compuesto quesea «oxidable». Se produce industrialmente en el lugar que se usará,puesto que es imposible envasarlo: su elevada reactividad hace que cuandodos moléculas de ozono se tocan se anulen entre sí formandootra vez oxígeno, en una reacción como esta:

O3 + O3 ———> 3 O2 + 64 Kcal/mol [ 3 ]

Dice la Encyclopædia Britannica, en su Ready Reference Index, Tomo VII pag. 659 (Micropædia) lo siguiente: «El ozonoes un gas ligeramente azulado, cuyas moléculas consisten en tres átomosde oxígeno. Está siempre presente en la atmósfera dela Tierra, aunque su mayor concentración se encuentra en la ozonósfera,Se forma allí principalmente como resultado de las radiaciones ultravioletassolares (longitudes de onda menores que 2,42 x 10-8 cm).Cuandoexiste equilibrio fotoquímico, la cantidad de ozono presente es talque la tasa de producción es igual a la de destrucción. A causade la fuerte absorción de la radiación ultravioleta solar porparte del oxígeno molecular y del ozono, la radiación capazde producir ozono no puede llegar a las capas inferiores de la atmósfera,y la producción fotoquímica es insignifi-cante por debajo delos 20 km de altura.» Una vez formado, el ozonopuede ser destruido por la radiación UV de longitudes de onda inferiora los 300 nm, radiación que se encuentra sólo por encima delos 30 km de altura. A causa de su elevadísima intestabilidad, la energíanecesaria para destruir una molécula de ozono es muy baja. Como sedijo más arriba, el mero contacto de dos moléculas entre síbasta para provocar su destrucción.

 Contradicciones Evidentes

El Ozone Trends Panel de la NASA emitió un parte de prensa el 15 de marzo de 1988 anunciando que la Capa de ozono sobre los EEUU y Europa había sufrido una disminución del 3% entre 1969 y 1986 ­ (los estudios se mantuvieron rigurosamente en secreto y no se publicaron sino dos años más tarde) ­ lo que fue aprovechado por la prensa para publicar grandes titulares anunciando una inminente epidemia de cánceres de piel debido al pronosticado incremento de la radiación ultravioleta. En realidad, la informacióncientífica disponible y publicada demuestra que lo que sucedióes exactamente lo contrario delo que expresó el Trends Panel. En un estudio publicado en la revistaScience el 12 de Febrero de 1988, Joseph Scotto, (1)del Bio-statistic Branch del National Cancer Institute de EEUU, presentódura evidencia científica probando que la cantidad de radiaciónUV-B que llegó a la superficie de los EEUU no sólo no habíaaumentado sino que, por el contrariohabíadisminuido un 7% entre 1974 y 1985. Este estudio, que fueignorado por los medios de prensa, estaba basado en lecturas directas de unared de estaciones de monitoreo a nivel del suelo que habían estadoregistrando diariamente la radiación UV desde 1974. Scotto dice losiguiente:
«Los registros R-B anuales promedio (R-B se refiere a los instrumentos con que se mide la radiación UV, llamados medidores Robertson-Berger) obtenidos durante dos períodos consecutivos de 6 años cada uno (1974 -1979 y 1980 -1985) muestran un cambio negativo en cada estación, con disminuciones que varían del 2 al 7 por ciento. . . muestra que no existe una tendencia positiva en las lecturas R-B anuales para 1974-1985. . . El cambio anual promedio estimado varió de ­1.1% en Minneapolis, Minnesota, hasta ­4% en Philadel-phia, Pennsylvania. Para todas las estaciones las lecturas R-B disminuyeron un 0.7% por año desde 1974. . . .» (pág. 762).
Scotto informa despuésque sus instrumentos están confirmando lo que muchos otros científicostambién están registrando: una disminución de la radiaciónultravioleta que llega hasta la Tierra. En un número posterior de Science,Scotto rechaza la posibilidad que la contaminación urbana del airepudiese dispersar los rayos UV-B incidentes cau-sando una disminuciónde la radiación UV-B que llega realmente a la superficie. Scotto señalaa la información obtenida en la estación en el Monte Mauna Loa,Hawaii, que está relativamente libre de contaminación aéreay que «los análisis preliminares de la información de esta estaciónno muestran ningún aumento de la radiación UV entre 1974 y 1985.»(Fig. 2)

FIGURA 2

TENDENCIAS DEL ULTRAVIOLETA SOLAR (UVB) Y CONTEOS R-B ANUALES, 1974-1985 Nótese la clara tendencia descendente en los niveles de radiación UV. La mayor disminución total ocurrió en las estaciones de monitoreo de El Paso, Texas y Minneapolis, Min. FUENTE: Scotto et al., Biologically Efective Ultraviolet Radiation: Surface Measurements in the United States, 1974-1985″, Science, Feb. 12, 1988
Los resultados de lapublicación de los estudios son: Scotto no pudo continuar con las investigacionesdespués de 1985 porque los fondos para el funcionamiento de la mayoríade las estaciones de monitoreo de radiación UV fueron cancelados, ylas estaciones fueron cerradas. Aunque Scotto es un experto en cáncerde renombre mundial, no recibe más subsidios para viajar a conferenciasinternacionales para presentar sus descubrimientos sobre la disminuciónde la radiación UV. Joseph Scotto ingresó al famoso «conode sombra» proyectado por el poderoso lobby de la Internacional Ecologista. Es bueno preguntarse,a esta altura del tema, ¿cómo puede ser que un asunto estrictamentetécnico – como es la química estratosférica – haya podidoacaparar los titulares de todos los diarios del mundo y haya movilizado alos políticos para imponer una prohibición que les costaráa sus naciones más de 5 billones de dólares en los añosvenideros? La respuesta es: miedo al incremento de las muertes debidas a loscánceres de piel, a medida de que mayor cantidad de radiaciónultravioleta llegue a la Tierra, supuestamente provocada por una reduccióndel ozono. Si no fuese por lahisteria de masas que se ha creado acerca del pretendido aumento de los casosde cáncer de piel, hoy no existiría ninguna prohibiciónde los CFCs, halones y demás substancias acusadas de atacar al ozono,y los diarios ni siquiera se molestarían en mencionar el tema. Por ejemplo, duranteel mismo período de cuatro a seis semanas que aparece el famoso «agujerode ozono» en la Antártida, también aparece en la misma áreaun «Agujero de Oxidos de Nitrógeno». Ambos»agujeros» están creados por los mismos fenómenos físicosnaturales, pero la mención de este y otros fenómenos que ocurrenen la Antártida darían lugar a muchas molestas preguntas acercade las extraordinarias condiciones químicas y físicas que tienenlugar al final del invierno antártico, y haría que las gentecomenzase a cuestionar el asunto del Miedo al Ozono. Por ello, el «agujerodel Óxido de Nitrógeno» jamás es mencionado.

El Agujero en la Antártida: El Vórtice Polar Sur

Se conoce como VórticePolar Sur a una región de la estratosfera de la Antártida endonde se forman, a fines del invierno austral, vientos huracanados de hasta400 km/h, formando un círculo que abarca toda la Antártida.Estos vientos huracanados impiden que nada del interior del Vórticesalga hacia afuera, y nada del exterior ingrese al mismo. Esto provoca quelas condiciones meteorológicas, físicas y químicas quetienen lugar dentro del Vórtice Polar Sur sean únicas en elmundo. (Figura 3)
 

Figura 3: El Vórtice Polar Antártico

Afines del invierno y comienzos de la primavera (fines de Agosto y todo elmes de Septiem-bre) se produce en la Antártida un fenómeno atmosféricoconocido como el Vórtice Polar Sur, que es el causante de la disminucióndel ozono en la región. El fenómeno seproduce de la siguiente manera: Cuando los rayos de sol comienzan a iluminarla alta estratosfera de la Antártida, alrededor del 20 de Agosto decada año, están cayendo también de manera perpendicularsobre los 7o 30′ del hemisferio Norte. Esto significa que sobrela superficie del Polo Sur reina todavía la oscuridad más absoluta. La atmósfera dela Tierra es casi opaca a la radiación ultravioleta, dejando pasarsolamente una ínfima parte de la que proviene del Sol, siendo absorbidacasi totalmente por el oxígeno y el nitrógeno presentes en laatmósfera. El ozono, con su elevada inestabilidad química (otambién su alto nivel de energía cuántica), sólocontribuye muy humildemente a la absorción de los rayos UV. Debidoa esta opacidad a los rayos UV que tiene la atmósfera, los rayos solaresque llegan a la estratosfera del Polo Sur están compuestos, casi totalmente,por radiación infrarroja y luz visible dentro de las bandas del espectrosuperiores a los 400 nm. Sin embargo, alguna radiación UV correspondientea las longitudes de ondas más largas alcanzan a llegar a la región. Como es sabido, estaslongitudes de onda carecen de la energía suficiente para provocar disociacionesde moléculas estables y pesadas como las que existen en la estratosferade la Antártida. Sin embargo, el ozono puede ser disociado por estaslongitudes de onda, debido a la inestabilidad química propia del ozono.En la figura 4 se puede ver el efecto que tiene en el tema la curvatura dela Tierra y la gran distancia que tienen que atravesar los rayos UV a travésde la atmósfera terrestre.
 

FIGURA 4: Un largo camino hasta la estratósfera del Polo Sur. La energía es absorbida casi totalmente durante su viaje por la atmósfera.  
Debido a la carenciade rayos UV en la radiación incidente sobre la estratosfera, no seproduce la disociación atómica de las moléculas de oxígenoo nitrógeno, o aún de los numerosos compuestos gaseosos presentes,tales como óxidos de nitrógeno, de bromo, de flúor, decloro, CO2, metano, etc. Como el contenido de radiacióninfrarroja es casi el 100% de la que ingresó a la atmósfera,las moléculas de gases se calientan y comienzan a ganar energíacinética. Esto significa que los gases se movilizan cada vez con mayorvelocidad hasta que comienzan a producirse corrientes de aire, verticalesy horizontales de gran magnitud. Se producen entoncesvientos huracanados de hasta 400 km/h girando sobre la vertical del Polo.Estos vientos giratorios forman una especie de cono invertido sobre la Antártida,encerrando una gran porción de la atmósfera, impidiendo queningún gas en su interior pueda salir o cualquier otro pueda ingresaral Vórtice. De esta forma, las moléculas de los gases en elinterior del Vórtice se entrechocan debido al movimiento caóticogenerado por los vientos. Sin embargo, las temperaturas de la estratosferadel polo sur son, en esos momentos, las más bajas que se puedan registraren la Tierra, por debajo de los ­82oC. Las reacciones químicasse anulen casi completamente disminu-yendo hasta niveles bajísimos. Sin embargo, el choquede dos moléculas de ozono no necesita de calor para que se anulen entresí, sino que por el contrario, generan64 kcal/mol al convertirse en tres moléculas de oxígeno.Esta acción destructora del ozono sobre sí misma es la causante,según muchos científicos, de la disminución de los nivelesde ozono dentro del Vórtice Polar Sur. Como los vientos estratosféricosforman una barrera infranqueable para los gases fuera del Vórtice,el ozono que está en regiones circundantes al Vórtice ­ y quealcanza cifras elevadísimas, del orden de los 450 a 500 DU (UnidadesDobson) ­ no puede ingresar a restablecer los niveles de ozono. Cuando la estratosferaantártica comienza a perder ozono, el calor generado por la reaccióndel ozono al anularse, sumado al calor suministrado por la radiacióninfrarroja del Sol, provoca corrientes de aire ascendentes. Cuando el solaparece sobre el horizonte del polo (21 de Septiembre) la troposfera de laAntártida se calienta rápidamente, gene-rando más corrientesascendentes que llevan aire rico en oxígeno (y carente de ozono) desdealtitudes inferiores a la estratosfera. Esta desproporcióndel ozono producido por el aumento de oxígeno es interpretado por loscientíficos de la Teoría Química como una destrucciónproducida por átomos de cloro, culpando a los CFC de ser la fuenteproductora del cloro.

 El Monte Erebus

La elevada presenciade cloro en la atmósfera de la Antártida ha llevado a los científicosecologistas a postular la teoría que el cloro proviene de la disociaciónde los gases CFC en la estratosfera de la Antártida. No han podido,sin embargo, postular una teoría que muestre cómo hace el 90%de los CFC liberados en el mundo para viajar desde el Hemisferio Norte hastael Hemisferio Sur. Sin embargo, existe una razón más real ycientífica para explicar la anormal cantidad de cloro en la regiónaustral. La Antártida tienedos volcanes: el Terror, de 3277 metrosde altura, inactivo, y el Monte Erebus,de 4023 metros, en actividad constante desde 1841 (fecha de su descubrimiento).El Monte Erebus está situado en las coordenadas geográficas77o Sur y 168o Este, y sólo a 10 kilómetrosde distancia de la Base norteamericana McMurdo, lugar en donde se realizanlas frecuentes observaciones meteorológicas y científicas quelos técnicos usarán para sus estudios. Entre las medicionesque se realizan rutinariamente en McMurdo, figura el lanzamiento del globosonda con instrumental que medirá las concentraciones de gases en latroposfera y estratosfera de la Antártida. Uno de los gases que semiden es el cloro. El globo sonda debe pasar,durante su ascensión hacia las alturas, a través de la columnade humo que emana de manera constante del volcán Erebus, puesto quela Base McMurdo está «viento abajo» del volcán. Los volcanólogosque han podido estudiar a fondo el fenómeno (el Dr. Haroun Tazieff,realizó tres campañas al Monte Erebus para estudiar sus gases)comprobaron que la emisión de cloro producida por el Erebus asciendea las 1.000 toneladas diarias. Esto explica la gran concentración decloro que encuentra el globo sonda a su paso. Solamente el Erebus aportaa la atmósfera, en una semana, la cantidad de cloro que todos los CFCdel mundo aportarían en un año entero. La cantidad de cloroque podría provenir de los CFC liberados anualmente se eleva a 7.500toneladas ­ el Erebus emite 360.000 al año. Ydirectamente al «Agujero de Ozono». Pero lo que más llama la atención es la insistenciacon que los «científicos» ecologistas culpan a los CFC de ser el origendel cloro que destruye al ozono. Hagamos entonces un pequeño análisisde este aspecto, para ver hasta donde puede llegar la «miopía» delestablishmentcientífico.

 Orígenes del Cloro

El problema con el argumentoecologista es este: si todos los átomos de cloro de los CFC que seprodujeron desde 1930 hasta hoy, fuesen liberados simultáneamente ala atmósfera, el efecto que provocaría sobre la misma seríaimperceptible. Toda la cantidad de cloro que han producido los CFC desde suinvención, es ridículamente insignificante cuando se la comparacon el cloro que nuestra Madre Naturaleza lanza anualmente a la atmósfera.La producción anual de CFC se elevan a unas 1.100.000 toneladas anuales,de las cuales sólo es liberado a la atmósfera una cantidad quecontiene apenas 7500 toneladas de cloro. El resto queda dentro de los artefactosde refrigeración o almacenado. La liberación de átomosde cloro que se pueden atribuir a los CFC es de 7.500 toneladas anuales.
FIG. 5: FUENTES ATMOSFERICAS DE CLORO (millones de toneladas anuales)
Fuente: The Holes in the Ozone Scare, 1992, R. Maduro y R. Schauerhammer, 21st Century Science Associates, editores, Washington, D.C.La biota oceánica,por ejemplo, produce por año unas 5 millones de toneladas de cloro;la quemazón de bosques, selvas y rastrojos agregan sus 8.4 millonesmás; los volcanes del planeta le inyectan unas 36 millones, y el cloroaportado por los océanos son 600 millones de toneladas anuales más.La cantidad de cloro de origen natural es 80.000 veces mayor a la que presuntamenteliberan los CFC. Y tenemos que decir «presuntamente»porque de acuerdo a serias investigaciones, la existencia de CFC en la estratosferase registra en proporciones casi nulas (0.1 partes por billón) ­ enalturas donde la radiación UV no tiene la energía necesariapara provocar la liberación de sus átomos de cloro! ¿Dónde van entonces esas 7500 toneladas de CFC quese liberan al aire cada año? Según los estudios de Khalil yRasmussen,(2) los CFC son «devorados» por bacterias que se encuentranen los suelos de todo el mundo. También se encuentran CFC disueltosen el mar, hasta profundidades de más de 4000 metros. ¿Recuerda quelos CFC son 4.5 veces más pesados que el aire? Por ello es que el primerlugar en donde se deben buscar CFC es en el suelo, y no en la estratosfera.
 La Regeneración del Ozono
En 1987, los nivelesde ozono en la Antártida se redujeron en un 50%, considerado catastróficopor los ecologistas, profetizando que el Agujero seguiría creciendohasta alcanzar el continente sudamericano, sobre todo porque las liberacionesde CFC seguirían produciéndose como hasta entonces. Sin embargo,para desencanto de los químicos ecologistas (y para regocijo de losclimatólogos propulsores de la teoría Dinamicista, que habíananunciado que el Agujero del Ozono de 1988 sería menor que el de 1987)las disminuciones de ozono dentro del Vórtice Polar fueron de apenas15%. Lo que ha escapado al análisis de los químicos ecologistases el hecho que, aunque la disminución del ozono fuese del 15% (1988),o fuese del 60% (1992), las fechas del «cierre» del Agujero son siempre lasmismas, con pocos días de diferencia. Si el cloro ataca tanmasivamente al ozono, si lo hace desaparecer tan rápidamente (un 10%de reducción en sólo 24 horas, el 5 de Septiembre de 1987),sería lógico esperar que también interferiríaseveramente en la regeneración de la capa de ozono de la Antártida,al estar atacando ferozmente al ozono que se va formando a mediados de primavera.Por lo tanto, si en un año la reducción de ozono fue de un 15%,y la fecha de cierre se produjo alrededor del 20 de Octubre, en otro año,cuando la reducción fue del 60% hubiese sido lógico (¿o quizásmatemático?) que la fecha de cierre se produjese mucho después,es decir hacia fines de Noviembre.  Sin embargo, lasfechas de cierre se producen de manera invariable en la segunda quincena deOctubre, lo que demuestra que las disminuciones de ozono, así comola regeneración de sus niveles de concentraciónson independientes de la cantidad de cloro existente dentro del VórticePolar Sur. Puesto de otro modo, esto significa que si el clorono puede retardar la formación de ozono, tampocoha sido el causante de su destrucción; o si ha contribuidoa destruir algo, su aporte ha sido tan insignificante que, a la hora de impedirla formación de nuevo ozono, su acciónes absolutamente despreciable.
 La Radiación Ultravioleta
El espectro de la radiaciónelectromagnética emitido por el Sol es sumamente amplio y se extiendedesde los rayos cósmicos, de muy corta longitud de onda (desde 0.00001nanómetros (o nm, millonésima parte de 1 mm) hasta lasondas de radio de varios miles de kilómetros de largo. La gran cantidadde capas que componen la atmósfera filtran esta avalancha de radiaciónantes de que llegue hasta la superficie del planeta. La figura 6 muestra lacomposición del espectro electromagnético. La radiaciónUV se extiende el equivalente de más de tres octavas: desde 400 nmhasta casi 40 nm. Para comprender cuánto afecta al organismo humanoeste amplio rango del espectro, es conveniente subdividirlo en tres bandasseparadas: ultravioleta A, (UV-A); ultravioletaB (UV-B); y ultravioleta C (UV-C). Labanda UV-A es la de longitud de onda máslarga (400-320 nm), le sigue la banda de UV-B(320 a 286 nm), que es conocida como el rango biológicamente activodel espectro, porque tiene los efectos más pronunciados sobre la materiaviviente. La radiación ultravioleta con la longitud de onda máscorta es la UV-C (286 a 40 nm).
  Figura 5: EL ESPECTRO ELECTROMAGNETICO
La más energéticade las radiaciones ultravioleta, la UV-C, sólo llega hasta la Tierraen ínfimas cantidades. El resto de la banda UV-C es filtrada por lasmoléculas de oxígeno de la atmósfera. Los fotones enérgicosdel UV-C impactan y rompen las moléculas de oxígeno, produciendodos átomos de oxígeno. Este es el primer paso para la formaciónde la molécula triatómica de ozono (O3). Como lacantidad de oxígeno y de radiación UV-C son muy grandes, elozono se produce a razón de varios billones de toneladas por segundo. El ozono tambiénfiltra radiación UV-C (aunque en las proporciones que ya se ha vistomás arriba). Lo mismo que el oxígeno, el ozono es destruidopor los rayos UV tan pronto como es formado, por lo cual el balance neto deformación y destrucción del ozono se mantiene inalterable. Comouno de los materiales que sirve para formar ozono se mantiene bastante constante(el oxígeno) si la radiación UV aumenta, la producciónde ozono aumenta; si el Sol emite menos radiación UV la producciónde ozono disminuye. Esto es «natural.«. Es importante notar que,aunque la atmósfera filtra casi totalmente a la radiación UV-Cy UV-B, deja pasar casi por completo a la UV-A,por ello, una hipotética disminución de la capa de ozono ­ segúnsostienen los ecologistas ­ influirá exclusivamentesobre la radiación UV-B. Como los rayos UV-B son losque provocan el enrojecimiento de la piel y las «quemaduras de sol», se suponeque también podrían causar cáncer de piel. Aunque existe algunaposibilidad de que los rayos UV puedan influir en el desarrollo de tumoresbenignos de piel (tumores basocelulares y espinocelulares, mal llamados cánceresde piel porque no desarrollan metástasis), no existe evidencia algunadocumentada (de acuerdo a la Academia Americana de Dermatología) quepueda relacionar a los tumores cancerosos llamados melanomamaligno con la radiación UV-B proveniente del sol. Elmelanoma maligno ocurre casi siempre en zonas del cuerpo que no estánexpuestas a los rayos del sol ­ entre los dedos del pie, en las plantas delos pies y las palmas de las manos, bajo los brazos o en las nalgas y aúndentro de la boca. Es interesante notar que la población de piel oscuramuy rara vez contrae los tipos de tumores benignos de piel asociados con laradiación UV, sin embargo son susceptiblesa los melanomas malignos como el resto del mundo.Los propulsores de la teoría de la destrucción de la capa deozono tienden a agrupar a todos los tipos de tumores de piel en uno solo ylo llaman «cáncer maligno de piel».

 La Geografía y los Rayos UV

En base a un promedioanual, la radiación ultravioleta que llega a la superficie de la Tierravaría unas 50 veces entre los polos y el Ecuador. De manera grosera,a medida que nos acercamos al Ecuador la radiación UV se duplica cada1500 km, y los rayos UV que caen sobre el Ecuador son 5000% más intensosque los que caen en el Polo. Esto equivale a un aumento del 10% de radiaciónpor cada 100 km que nos acercamos hacia el Ecuador. La radiación tambiénaumenta con la altura, duplicándose desde el nivel del mar hasta los5000 metros de altura, o ­ a grandes rasgos ­ 1% cada 50 m. En otras palabras, unadisminución del 1% de la capa de ozono (profecía ecologista)causaría un aumento del 2% de la radiación UV que llega a lasuperficie del planeta, y sería equivalente adesplazarse hacia el Ecuador unos 18 kilómetros. Porello, en el peor de los casos pronosticados por los impulsores de la TeoríaCatastrófica ­ una reducción del 5% del ozono ­ esequivalente a un viaje de 40 o 50 kilómetros hacia los trópicos.Esto es como viajar desde Córdoba hasta Jesús María,o de La Plata a Olivos.

FIGURA 6: PORCENTAJE DE INCREMENTO DE LA RADIACION ULTRAVIOLETA SEGUN LA VARIACION DE LA LATITUD

 
A lo largo de miles deaños, la población humana que ha vivido durante generacionesen las mismas regiones, ha desarrollado tipos de piel adaptadas a los rayosUV existentes en esas latitudes. Aquellos que viven más cerca del Ecuadortienen la mayor concentración protectora de melanina (pigmentaciónoscura de la piel). Los que viven cerca de los Polos tienen las menores concentracionesde melanina. ¿Alguien se preocupa porque sus vacaciones en el Caribe o enBrasil le aumentarán su dosis anual de rayos UV entre 100% a 500%?No se ha escuchado a ninguna organización humanitaria que alerte ala gente sobre este tan espantoso peligro de contraer cánceres horribles.Los anuncios turísticos de las aerolíneas que promocionan viajesal Caribe no advierten a los viajeros que recibirán un 500% másde la «mortífera» radiación UV. Vista la total despreocupaciónque por tan tremendos peligros demuestra la gente, ¿por qué deberíapreocuparse por un mínimo incremento del 10% de radiación UVque los ecologistas anuncian como el Apocalipsis para dentro de 100 años?En un estudio publicado en 1989, los científicos noruegos Arne Dahlback,Thormod Henrik-sen, Søren H.H. Larsen y Knut Stammes se llega a laconclusión que :«.. . disminuciones de hasta 15 al 20% (de la capa de ozono) tendríanun muy pequeño efecto sobre la vida en la tierra». . . «Es aparenteque una disminución del 50% del ozono sobre Escandinavia (que es muchomás que lo anunciado por los pronósticos de los modelos atmosféricos)le darían a esos países una dosis efectiva de ultra-violetasimilar a la que se obtiene en California o los países del Mediterráneo.»  En la Figura 6 se muestrala dosis anual de radiación UV para algunas ciudades de diferenteslatitudes geográficas del Hemisferio Norte. En el peor de los casospronosticados de la disminución de la capa de ozono, el aumento delos rayos UV que llegarían a la tierra es del 10%. Un viaje desde Oslohasta Panamá representa un incremento en la exposición ultravioletadel 300%, mientras que ir hasta San Francisco representa un aumento del 100%. Otra de las conclusionesdel estudio es que no existe una tendencia observable en aumento o disminucióndel ozono o en radiación ultravioleta durante los últimos 12años, siempre sobre Escandinavia. Si la Teoría de la disminucióndel ozono fuese correcta, los valores del ozono deberían haber disminuidoen Noruega un 3% y la radiación UV aumentado más del 7%. Sinembargo, como siempre ocurre con este asunto, las observaciones y hechos científicosterminan contradiciendo escandalosamente todos los postulados de la teoríade la capa de ozono ­ la misma que ha recibido el Premio Nobel 1995. Comodiría Hamlet. Hay algo que huele mal, yno es precisamente en Dinamarca. Desde que las primerasestadísticas fueron compiladas en 1935, los casos de melanomas malignosse incrementaron en EEUU un 800 por ciento. ¿Pero que tiene que ver la disminucióndel ozono con esto? Absolutamente nada.La mayor parte del aumento tiene mucho que ver con un mejor trabajo en lospapeles: el informe de los casos se ha mejorado mucho durante los años.¿Y que otros factores han influido en este notorio incremento en formas decáncer de piel? Pero, . . . ¿son cánceres? Primero, veamos algunoshechos concretos sobre los tumores de piel. El tumor de piel es una enfermedadque afecta a los individuos de piel clara. Los individuos de piel oscura (orientales,Hindúes, Hispánicos, Indios, Europeos del Sur y Negros) tienenmuy poco riesgo de tumores de piel. De hecho, el tumor de piel es tan raroen los individuos de piel oscura, que la información de su incidenciaes muy difícil de obtener. ¿Cuán seria es la amenaza que representaun cáncer de piel? El caso más común de tumor de pieles el carcinoma de las células basales o tumorbasocelular. Si no es tratado a tiempo puede desfigurar, peroraramente es mortal. El segundo tipo es el llamado tumor espinocelular,que requiere más cuidado y debe ser extirpado quirúrgicamentepara evitar problemas ulteriores. El melanomamaligno, la última forma de tumor de piel es un verdaderocáncer, puesto que desarrolla metástasis, y es el que tieneel más alto índice de mortalidad.

 El Miedo al Cáncer de Piel

Echemos un vistazo ala teoría UV/cáncer. Primero, las historias de horror sobrelos rayos UV y la disminución del ozono se basan en aumentos de laradiación UV que son minúsculos, comparados con las variacionesnaturales determinadas por la altura y la distancia al Ecuador. Segundo, noexiste evidencia científica alguna de que los niveles de radiaciónUV hayan aumentado en la superficie de la Tierra, a pesar de todo lo que sehaya dicho sobre una disminución global del ozono. Y tercero, las nuevasinvestigaciones científicas demuestran que no es la radiaciónUV-B la causante de los melanomas malignos, sinola UV-A, que no es filtrada por la capa de ozono. Sin embargo,el melanoma maligno representa sólo el 4% de los tumores de piel, perotiene el 75% de la mortalidad de los cánceres de piel. El melanomamaligno es también el menor de los casos de tumores de piel asociadoscon la sobrexposición a los rayos solares. Un estudio realizado porel Consejo de Asuntos Científicos de la American Medical Association,publicado en el Journal of the American MedicalAssociation, Julio 21, 1989, resume los hallazgos científicossobre este punto: «Apesar de las correlaciones positivas relativas a la incidencia de melanomamaligno cutáneo a la exposición a la radiación ultravioleta,es obvio que otros factores están involucrados. Al revés quelos cánceres no-melanómicos, que tienen más incidenciaen individuos de edad avanzada, el melanoma cutáneo maligno es máscomún durante las décadas medias de la vida. Los cánceresno-melanómicos ocurren con mayor frecuencia en trabajadores al airelibre, mientras que el melanoma maligno afecta con mayor incidencia a loshabitantes de las ciudades que trabajan en el interior de edificios.» …«La incidencia de melanoma maligno no se correlaciona bien con los gradientesde latitudes (es decir, con la insolación) en Australia y en EuropaCentral. La distribución anatómica del melanoma maligno no secorresponde con las áreas del cuerpo de mayor exposición alsol, como ocurre con los casos no-melanómicos. Histológicamente,ocurre una relativamente pequeña elastosis en las vecindades del melanomamaligno, mientras que está muy asociada con los carcino-mas basocelulares. . . No se ha podido desarrollar ningún modelo animal que permitainducir de manera constante al melanoma únicamente por medio de laradiación ultravioleta.»Uno de los recientesintentos de rebatir al famoso estudio de Joseph Scotto fue el artículode J.B.Kerr y C.T. McElroy, publicado en la revista Science en 1993, (49)que denunciaba una tendencia creciente de radiación UV sobre Toronto,Canadá. Los resultados fueron enormes titulares en los diarios de todoel mundo, pero muy rápidamente otros científicos demostraronque tal tendencia era el resultado de una fallida manipulación estadística(50). Sin embargo, estas noticiastuvieron muy poca publicidad. Como dije antes, las desmentidas a los fraudesecologistas no tienen valor en el mercado periodístico. Todo el «aumento»del UV se basaba en lecturas tomadas durantelos tres últimos díasde un períodode medición de cinco años!Un análisis estadístico correcto mostró que latendencia, después de cinco años de mediciones, era exactamentecero. En otras palabras, la radiación UV no había aumentadoni disminuido sobre Toronto (como tampoco lo hizo en otras partes del mundo). Lo interesante vieneahora: el estudio canadiense había sido rechazado por la revista Naturepara publicación. Al momento que el estudio fue presentado a Science,el químico F. Sherwood Rowland era el presidente de la Asociaciónpara el Avance de las Ciencias, editora de la revista Science.De acuerdo a fuentes conocedoras del asunto, Rowland arremetió contodo y ordenó la publicación del estudio en Science,a pesar de sus garrafales errores. Una actitud lógica, ya que apoyabala teoría por la cual obtendría el escandaloso Premio Nobelde Química en 1995. . .
 ¡Cuidado con los Bronceadores!
Una nueva hipótesissugerida por Cedric Garland y Frank Garland del Departamento de Epidemiologíadel Cáncer de la Universidad de California, en San Diego, es que elincremento en los casos de cánceres de piel se debe al extendido usode los aceites bronceadores en uso desde hace más de 20 años!Según Frank Garland, es posible que sea el UV-A (ultravioleta cercano,320-400 nm) lo que puede estar provocando los tumoresde piel, aunque siempre se haya consideradoal UV-B (286­320 nm) como el rango peligroso de la radiación ultravioleta.Esto es porque el melanoma maligno aparece en los melanocitos de la dermis­ y menos del 10% de la radiación UV-B llega a la dermis, mientrasque más del 50% de los UV-A lo hace. Las modernas cremas protectorascontra el sol están diseñadas para bloquear la radiaciónUV-B, pero son transparentes a la supuestamente benigna banda UV-A. Pero, la sobrexposicióna los rayos UV-B, ¿no causa daños a la piel provocando quemaduras enella? En efecto, así es. La quemadura de la piel (o «eritema») es elmecanismo de alerta del organismo que le avisa al individuo que ha permanecidoya demasiado tiempo al sol. Las personas que usan cremas de «pantallasolar» de cualquier factor, están haciendo un «bypass»al mecanismo de alerta y exponen sus cuerpos a dosis masivas de radiaciónUV-A. Esto hace que una persona llegue a recibir dosis 50 veces superioresde rayos UV que si su piel le pudiese avisar que «yaes suficiente» poniéndose colorada. Por otro lado, el coloroscuro del bronceado es el segundo mecanismo de defensa que tiene el organismocontra la radiación perjudicial, y también es puesto en acciónpor la radiación UV-B. Entonces, cuando se filtra selectivamente alos rayos solares, bloqueando a los UV-B y dejando pasar totalmente a losUV-A, el bañista no sólo engaña al mecanismo de alerta(la piel roja) sino también al de defensa: la melanina que sube hacialas capas superiores de la dermis para bloquear los rayos ultravioletas, seanUV-B o UV-A. El otro peligro de laradiación UV proviene de las llamadas «camassolares» de gimnasios e institutos de belleza, que suministranlos supuestamente inofensivos rayos UV-A. Al suprimir nuevamente los rayosUV-B, el mecanismo de alerta del cuerpo es engañado otra vez, y lospacientes son irradiados con dosis 100.000 a 300.000 más concentradasque si hubiesen permanecido el mismo tiempo expuestos al sol. Dada la cantidadde gente que toma este tipo de «baño de sol» (en EEUU son másde 1.000.000 de personas por día) el problema puede llegar a ser degrandes proporciones y las estadísticas culparán al Agujerode Ozono. Las pantallas solares también bloquean algunas de laslongitudes de onda más beneficiosas para el organismo, dentro del espectrodel UV-B, incluyendo las que sintetizan a la hormona de la vitamina D3y que «gatilla» la función reparadora del organismo combatiendo infecciones,reparando células dañadas y DNA, y aún combatiendo algunostipos de cáncer.
 Algunos Hechos Científicos
Los científicosErnesto A. Martínez e Isidoro Orlansky, del Laboratorio de Geofísica(LAGE), de la Universidad de Buenos Aires, completaron un estudio sobre losniveles de radiación UV que llegan a la superficie del planeta, y loscompararon con los niveles de reducción del ozono. Luego declararona la prensa:
«Si los niveles de ozono disminuyesen un 50% ­ algo que ocurre muy pocos días y en zonas muy reducidas de la Antártida ­ y los demás parámetros se mantienen constantes, la radiación UV se incrementa un 15%, y la radiación global apenas aumenta un 1,5%. Los valores típicos de radiación global (de acuerdo a los promedios anuales) son de 300 watts/ men Buenos Aires; alrededor de 100 a 150 watts/m2 en Tierra del Fuego; y de unos 100 watts/m2 en la Antártida. Los niveles de radiación UV directa-mente debajo del Agujero de Ozono no alcanzan a los niveles promedio que se encuentran en Buenos Aires».
Por su parte, la LicenciadaVictoria Tafuri, del Observatorio Nacional de Villa Ortúzar en BuenosAires, y que está a cargo de medir los niveles de ozono, fue a la Antártidaen 1988 acompañando a la expedición NOZE de la NASA. A su regreso,declaró a la prensa en Diciembre de 1988 que:
«El mal llamado agujero de ozono de la Antártida está circunscripto al continente antártico y no hay razones científicas para presumir que pueda llegar al territorio argentino.» . . . «La historia del Agujero de Ozono sólo beneficia a intereses corporativos e industriales. La falta de ozono no produce cáncer de la piel ­ como se ha repetido con persistencia ­ aunque el problema puede derivarse de una excesiva exposición al Sol, sin la protección de aquellos productos que hemos estado usando durante los últimos 30 años».
Más tarde explicóque ella realiza diarias observaciones y mediciones de los niveles de ozonosobre Buenos Aires, y declaró: «No hemos observado ninguna variación en los niveles de la capa de ozono durante los últimos 25 años». Por otro lado, la variaciónestacional de los niveles de ozono tienen una estrecha relación conla actividad solar. El número de las manchas solares inciden de maneradirecta con una mayor o menor cantidad de radiación ultravioleta quellega hasta la Tierra. A mayor actividad solar, mayores serán los nivelesde ozono de la estratosfera, según han comprobado numerosos estudioscientíficos. Esto se debe a que la mayor cantidad de rayos UV que incidensobre las capas superiores de la estratosfera provocan una mayor disociaciónde las moléculas de oxígeno, y de tal forma se incrementa lacantidad de ozono. Esto se aprecia claramente en el gráfico siguiente:
Figura 7: Comparación entre números de manchas solares y niveles de concentración de ozono en la estratósfera. A mayor actividad solar, mayor es la producción de ozono en la estratosfera.

 ¡Cálculos Sorprendentes!

Los científicosnos cuentan que el Sol produce unas 5.000 millones de moléculas deozono por segundo, en todas las partes del mundo que esté alumbrando.Esto representa la impresionante cantidad de 100.000millones de toneladas de ozono por año.Téngase en cuenta que esta cantidad tremenda es sólola que se crea cadaaño y no la que ya existe, y que es infinitamente mayor.Pues bien, como los CFC liberan anualmente sólo 7.500toneladas de cloro, parece muy difícilque tan poco cloro pueda destruir cantidades tan siderales de ozono y, sobretodo, a una velocidad tan asombrosa. Haga usted la simple comparación:7.500 vs. 100.000 millones. Dado que estacomparación resulta un tanto dificultosa de «visualizar» (demasiadosceros), vamos a dividirlas por 1 millón:

7.500 /1.000.000 = 0,0075 Toneladas o sea: 7,5 Kg. de cloro

100.000.000.000 / 1.000.000 = 100.000 Ton, o 100 millones Kg. Ozono

Si suponemos, como lodeclaran los mismos ecologistas, que el cloro de los CFC puede destruir al10% de esa cantidad de ozono, bien se puede ver que 7.5 kg. de cloro destruirána 10 millones de kg. del ozono formado anualmente. Para determinar la relaciónentre ozono/cloro, hagamos la división:

10.000.000 Kg / 7,5 Kg = 1.333.000 moléculas de ozono

Esto significa que, porcada átomo de cloro existen 1.333.000 moléculas de ozono.Como los ecologistas afirman que cada átomo de cloro puede destruir100.000 moléculas de ozono, para determinar la cantidad de cloro quese requiere para destruir el 10% del ozono formado anualmente (o sea esas10.000 millones de toneladas) debemos aplicar la famosa regla de tres simple:

100.000 es a —————— 1

como 1,3 millones es a — X

x = 1.333.333 x 1 / 100.000 = 13,33 átomos de Cloro

Entonces,para encontrar a la cantidad de cloro necesaria para destruir a las 10.000millones de toneladas de ozono, debemos dividir10.000 millones por 13,33, cuyo resultado es 7.500millones de toneladas de cloro. Como el peso atómico del Freón-11es 137,5 y el cloro toma cuenta de35,5 de ese peso, debemos multiplicaresas 7.500 millones de toneladas de cloro por 3,87 (la relaciónpeso Freón/cloro), para obtener la cantidad de Freón-11 necesariapara destruir las 10.000 millones de toneladas de ozono que representan el10% que los ecologistas dicen que se destruirá eventualmente.

7.500 millones Ton x 3,87 = 29.025 millones Ton de Freón-11

Analice muy cuidadosamenteesta cifra: son más de 29.000 millonesde toneladas de CFC las necesarias para destruir solamenteal 10% del ozono que el Sol forma anualmente.Si ahora suponemos que los CFC han aumentado la concentración de cloroen la atmósfera a una tasa de 7.500 toneladas anuales desde hace 42años (los años previos se pueden descartar por carecer de importancia),la cantidad total de cloro aportada por los CFC tendría que ser:

7,500 ton/año x 42 = 315,000 toneladas de cloro

o también,

315,000 x 3,87 = 1.219.050 Toneladas de Freón-11

Pues bien, estas 1.219.050toneladas de Freón-11 son mucho menos que las 29.025millones de toneladas requeridas paradestruir al 10% del ozono que se forma anualmente, para no hablar de los billonesde toneladas que ya existen en la estratosfera de la Tierra!. Peor aún, estosería sólo si el100% de las moléculas de CFC fueran transportadas hasta la parte másalta de la estratosfera, sólo si los átomos de cloro no fueran interceptados por los NOx y otros gases,y sólo si el cloro pudiese atacaral ozono en otras partes que no fuesen las Nubes Estratosféricas Polares.Son demasiadas suposiciones que no han sido comprobadas científicamente. La ciencia debería basarse únicamente en hechos comprobadosy no en meras suposiciones. Por desgracia, el movimiento ecologista basa lainmensa mayoría de sus afirmaciones en sospechas o suposiciones para obligar la imposiciónde medidas reguladoras y prohibitivas. Hagamos nuestro últimocálculo: ¿Cuántos años llevaría, en estas condiciones,para destruir ese 10% del ozono que se forma anualmente?(Siempre de acuerdo a la actual tasa de emisión de 7.500toneladas anuales de cloro). Debemos restar a las1.219.000 toneladasde CFC (supuestamente acumuladas durante casi50 años) de las 29.025 millones de toneladasrequeridas para destruir al 10% del ozono formado anualmente, yluego dividirlo por las 7.500 toneladas deCFC que ingresan anualmente a la atmósfera. Veamos:

29.025millones ­- 1.219 millones = 27.806 millones de Ton CFC

27.806millones / 7.500 = 3.707.466 años

Estudie muy cuidadosamentea esta última cifra: más de 3,7 millonesde años! Más aún: ¿cuánto se habráincrementado la radiación UV después de 3,7 millones de años?¿5%, 10%, 20%? De acuerdo a los resultados de Martínez y Orlansky,una reducción del 50% de los niveles de ozono apenas si provocan unmiserable 15% de aumento de la radiaciónUV, de manera que una disminución del 25% del ozono provocaráapenas un 7,5% de incremento de la radiaciónUV, de manera grosera, el aumento de radiaciónque se produce de una semana para la otra durante la primavera de Buenos Aires.¿No le parece que toda la alarma por el asunto de la Capa de Ozono no es otracosa que una gigantesca y malvada estupidez?
 Conclusiones (Para Pensar)
Se han presentado eneste informe dos de las teorías para la formación del Agujerodel Ozono de la Antártida: la Teoría química (que culpaa los CFC, como fuente de cloro, ignorando la infinitamente mayor cantidadde cloro aportada por los mares), y la Teoría Dinámica, de losvientos huracanados, el vórtice polar, etc. No son las únicas,sin embargo, ya que existen otras que proponen como origen del fenómeno,o como fuerte colaborador, al campo magnético de la Tierra, (teoríaque personalmente emití en 1989 en mis primeros artículos acercadel origen del Agujero, pero como complemento de las otras teoríasdinámicas) propuesta por Tom Valentine en 1987, afirmándoseen las observaciones de Faraday sobre el efecto del magnetismo sobre los gasesde moléculas paramagnéticas, como el oxígeno y, por ende,del ozono. Otra teoría propone como gran colaborador al Sol, al vientosolar, al bombardeo de neutrones relativísticos de las manchas solaresy su interacción con el campo magnético de la Tierra. Como el tema es muchísimomás amplio de lo que el común de la gente supone, se proporcio-naal final de este capítulo una lista de referencias para controlar laveracidad de lo expuesto aquí, o para continuar informándosesobre un tema que es realmente apasionante, y tremendamente importante porlas implicancias sombrías que una prohibición de los CFC tendríanpara la Humanidad. Por ello es de fundamentalimportancia que se establezca y quede afirmada la verdad sobre el asunto:los gases CFC no tienen absolutamente nada que ver con una pasada, actualo futura disminución del ozono, sea éste de la estratosfera,o a ras del suelo, por la simple razón de que noexiste absolutamente ninguna reducción del ozono en la estratosferade nuestro planeta . .

  REFERENCIAS:
    1. Paul J. Crutzen et al. «Biomass Burning as a Source of Atmosferic Gases CO, H2, N2O, NO, CH3Cl, and COS» Nature, (Nov. 15), pp.253-256.
    2. A.C. Delaney, J.P. Sheldovsky, y A.N. Davis, 1974 «Stratospheric Aerosols: Contributions from the Troposphere«, Journal of Geophysical Research, (Dec.20), vol. 79, No. 36, pp. 5646-5650
    3. J.D. Devine, H. Sigurdsson, y A.N Davis, 1985, «Estimates of Sulfur and Chlorine Yield to the Atmosphere From Volcanic Eruptions and Potential Climatic Effects«, Journal of Geophysical Research, Vol. 89, No. B7, 6309- 6325)
    4. Scott D. Doiron, Gregg J.S. Bluth, Charles C. Schnetzler, A. J. Krueger, y L. S. Walther, 1991. «Transport of Cerro Hudson SO2 Clouds,» EOS (Nov. 5), pp. 489-491
    5. E. Eriksson, 1959. «The Yearly Circulation of Chloride and Sulfur in Nature: Meteorological, Geochemical and Pedalogical Implications«, Tellus, vol. 2 (July 25), pp. 375-403
    6. Brian M. Goodman, 1984. «The Climatic Impact of Volcanic Activity.» tesis para doctorado (Ph.D.), University of Wisconsin, Madison, Wisc. EEUU.
    7. David A. Johnston, 1980. «Volcanic Contribution of Chlorine to the Stratosphere: More Significant to Ozone Than Previously Estimated«, Science, vol. 209 (July 25), pp. 491-493
    8. W.W. Kellog, et al., 1972. «The Sulfur Cycle.» Science, Vol. 175 (Feb. 11), pp. 587-596
    9. P.R. Kyle, K. Meeker y D. Finnegan, 1990. «Emission Rates of Sulfur Dioxide, Trace Gases and Metals From Mt. Erebus, Antarctica.» Geophysical Research Letters, Vol 17 (Nov) pp. 2125-28.
    10. B.G. Levi, 1988. «Ozone Depletion at the Poles: The Hole Story Emerges» Physics Today, vol. 41 (July), pp. 17-21.
    11. William G. Mankin y M.T. Coffey, 1984. «Increases Stratospheric Hydrogen Chloride in El Chichón Cloud«, Science, vol.226 (Oct. 12), pp. 170-172
    12. R. Monastersky, 1991. «Pinatubo’s Impact Spreads Around the Globe. Science News (Aug 31) p.132.
    13. Nathaniel C. Nash, 1991.»Volcano Ash Is Smothering Vast Areas of Argentina.» The New York Times, (Oct. 21)
    14. Elmar R. Reiter, 1975. «Stratospheric-Tropospheric Exchange Processes.» Reviews of Geophysics and Space Physics. Vol. 13, No. 4, pp. 459-474
    15. Reinholt Reiter, 1983, «Modifications of the Stratospheric Ozone Profile After Acute Solar Events.» Weather and Climate Responses to Solar Variations, ed. Billy M. McCormac. Boulder, Co. Colorado University Press.
    16. W.I. Rose, R.I. Chuan y P.R. Kyle, 1985. «Rate of Sulfur Dioxide Emission from Erebus Volcano, Antarctica, December 1983.» Nature, vol. 316 (Aug. 22), pp. 710-712.
    17. R.B. Symonds, W.I. Rose y M.H. Reed, 1988. «Contribution of Cl- and F-bearing Gases to the Atmosphere by Volcanoes.» Nature, vol. 334 (Aug. 4), pp. 415-418
    18. Anna Marie Wuosmaa y Lowell P. Hager, 1990. «Methyl Chloride Transferase: A Carbocation Route for Biosynthesis of Halometabolites.» Science, vol. 249 (July 13), pp.160- 162REFERENCIAS SOBRE: CFC EN ATMOSFERA Y RADIACION ULTRAVIOLETA.
  1. F. Sherwood Rowland, 1989. «Chlorofluorocarbons and the Depletion of Stratospheric Ozone.» American Scientist, vol. 77, No. 1-2, pp. 36-45
  2. Fred Brockman et al., 1989. «Isolation and Characterization of Quinoline-Degrading Bacteria from Sub-surface Sediments.» Applied & Environmental Microbiology, vol. 55, No. 4, pp. 1029-32
  3. John L. Bullister, 1989. «Chlorofluorocarbons as Time-Dependent Tracers in the Ocean.» Oceanography (Novem-ber) pp. 12-17
  4. P. Fabian, R. Borders, S.A. Penkett, et al. 1981. «Halocarbons in the Stratosphere.» Nature, (Dec. 24), pp. 733-735.
  5. P. Fabian, R. Borders, G. Gömer, et al. 1984. «The Vertical Distribution of Halocarbons in the Stratosphere.» Atmospheric Ozone, Publicación del Simposio Cuatrienal del Ozono, Sept. 1984 Eds. C.
  6. Zerefos y A. Ghazi. Dordrecht, Holanda: Reidel.
  7. Aslam Khalil y R.A. Rasmussen, 1989. «The Potential of Soils as a Sink of Chlorofluorocarbons and Other Man-Made Chlorocarbons.» Geophysical Research Letters, vol. 16, No. 7 (July), pp. 679-682
  8. Aslam Kahlil, R.A. Rasmussen, J.R.J. French, et al., 1990. «The Influence of Termites on Atmospheric Trace Gases: CH4, CO2, CHCl3, N2O, CO, H2 and Light Hidrocarbons,» Journal of Geophysical Research, vol. 95 No. D4 (March 20), pp. 3619-3634.
  9. Aslam Kahlil, R.A. Rasmussen, M.Y, Wang, et al. «Emissions of Trace gases from Chinese Rice Fields and Biogas Generators: CH4, N2O, CO, CO2,,Chlorocarbons and Hidrocarbons,» Chemosphere, vol. 20, No. 1-2, pp. 207-226.
  10. Derek Lovely y Joan Woodward, 1990. «Consumption of Freons F-11 and F-12 in Methane-Producing Aquatic Sediments.» Publicación presentada en el encuentro de otoño de la American Geophysical Union, San Francisco, Calif., (Dic. 3-7)
  11. F. Sherwood Rowland y Mario Molina 1975. «Clorofluoromethanes in the Environment,» Reviews of Geophysics and Space Physics, vol. 13, No.1, pp. 1-35.
  12. Judith L. Sims, Joseph M. Suflita y Hugh H. Russel, 1991. «Reductive Dehalogenation: A Subsurface Bioremediation Process,» Remediation, vol. 1, No.1 pp. 75-93
  13. Peter Warneck, 1988. Chemistry of the Natural Atmosphere, vol. 41: International Geophysics Series. New York: Academic Press.
  14. V. Beral, H. Shaw, S. Evans y G. Milton, 1982. «Malignant Melanoma and Exposure to Fluorescent Light ing at Work», Lancet, (Aug. 7), pp. 290-93
  15. Council on Scientific Affairs, American MedicaL Association, 1989 «Harmful Effects of Ultraviolet Radiation», Journal of the American Medical Association, Vol. 262, No. 3, (July 21); pp.380-384
  16. Geoffrey Cowley, 1991. «Can Sunshine Save Your Live? Vitamin D May Help Fight Colon and Breast Cancer.» Newsweek, (Dec. 30), p.56.
  17. Arne Dahlback, Thormod Henriksen, Søren H.H. Larsen, et al.,1989. «Biological UV-Doses and the Effect of an Ozone Layer Depletion,» Photochemistry & Photobiology, Vol. 49, No. 5 (May); pp.621-625.
  18. Cedric F. Garland, 1990. «Acid Haze Air Pollution and Breast and Colon Cancer Mortality in 20 Canadian Cities,» Canadian Journal of Public Health, Vol. 80 (March-April), pp. 96-100.
  19. Cedric F. Garland & Frank C. Garland, 1980, «Do Sunlight and Vitamin D Reduce the Likelihood of Colon Cancer?, International Journal of Epidemiology, Vol. 9, pp. 2227- 231.
  20. Cedric Garland, Richard B. Shekelle, Elizabeth Barret-Connor, et al., 1985. «Dietary Vitamin D and Calcium and Risk of Colorrectal Cancer: a 19 year Prospective Study in Men», The Lancet (Feb. 9), pp. 307-309
  21. Cedric Garland, George Comstock, Frank Garland, et al., 1989. «Serum 25-Hydrox in vitamin D and Colon Cancer: Eight Year Prospective Study», The Lancet (Nov. 18), pp. 1176-1178.
  22. Frank Garland, Cedric Garland, and Jeffrey Young, 1990. «Geographical Variation in Breast Cancer Mortality rates and Solar Radiation in the United States». Preventive Medicine (December), pp. 614-622.
  23. Fritz Hollwich,1979. «The Influence of Ocular Light Perception on Metabolism in Man and in Animal.» New York: Springler Verlag.
  24. Jacob Liberman, 1990. Light, Medecine of the Future. Santa Fe, N.M.: Bear & Co.
  25. Michael J. Lillyquist, 1985. Sunlight and Health, New York: Dod, Mead & Co.
  26. W.F. Loomis, 1970. «Rickets,» Scientific American (December), pp. 76-86
  27. John Ott, 1973. Health and Light. Greenwich, Conn.: Devin-Adair
  28. Stuart A. Penkett, 1989. «Ultraviolet Levels Down, Not Up», Nature, Vol. 341 (Sept. 28), pp. 283-284.
  29. Joseph Scotto, Gerald Cotton, Frederick Urback, et al., 1988. «Biologically Effective Ultraviolet Radiation: Surface Measurements in the United States, 1974-1985.» Science Vol. 239 (Feb. 12), pp.762-764.
  30. Joseph Scotto, 1988. «Global Stratospheric Ozone and UVB Radiation,» Science, Vol. 239 (Nov. 25), pp. 1111- 1112
  31. J.B. Kerr, y C.T. McElroy, 1993. «Evidence for Large Upward Trends of Ultraviolet-B Radiation Linked to Ozone Depletion,» Science, vol. 262, (Nov. 12), p.1032.
  32. P.J. Michaels, S.F. Singer, P.C. Knappenberger, 1994. «Analyzing Ultraviolet-B Radiation: Is There a Trend?,» Science, vol. 264, p.1341.

Capítulo 3 - Energía nuclear y radioactividad

  LA NEUROSIS DEL SIGLO

Viktor E. Frankl es un psicólogo y pensador que sufrió campos de concentración y otras calamidades en su vida. Además fue quien consolidó la Teoría de las Neurosis Noógenas que se derivan del Vacío Existencial o Falta de Sentido de la Vida. El Vacío Existencial: tal como lo define Frankl, «sin saber lo que tiene que hacer, ni lo que debiera hacer, no sabe ni siquiera lo que desearía hacer». Muchos lo confunden con la depresión anímica, y las salidas de este estado a nivel noógeno conducen, por lo general, al conformismo. Se rechazan las preguntas complicadas y el planteo de problemas espirituales. Es el Hombre Cotidiano que ha renunciado a buscar un sentido a la vida.

Otras veces, el refugio contra el Vacío Existencial es el totalitarismo y el hombre «hace lo que otros desean que haga» y, en general, los escapismos más abundantes son el alcohol, las drogas, el trabajo excesivo, las búsquedas de poder, fama, riquezas, o la adhesión a alguna Causa Sagrada. También afirma Frankl que «cada época tiene su neurosis y cada tiempo necesita su psicoterapia». Así como existen neurosis de origen natural en cada individuo, también existen las provocadas artificialmente y que afectan a sociedades enteras: son el tipo de neurosis que pueden ser aprovechadas con fines comerciales o geopolíticos. Una de estas neurosis colectivas es la Neurosis Atómica provocada a partir del fin de la Segunda Guerra Mundial.

El efecto de esta angustia nuclear ha llevado a muchas sociedades a «vivir al día», una forma de exis-tencia provisoria que muchos adoptan al no vislumbrar ningún futuro. El Hombre está demasiado alarmado y pendiente de los estímulos externos (alienado) como para pensar con claridad en su proyecto de vida. Esto fue lúcidamente analizado por José Ortega y Gasset en su ensayo «Ensimismamiento y Altera-ción», primer capítulo de su libro El Hombre y la Gente. Lectura seriamente recomendada.

Otro elemento que contribuye a las neurosis colectivas son las ideas deterministas que, condicionando al Hombre a las fuerzas bio, socio y psicológicas lo conducen al fatalismo. La tercera actitud que contribu-ye a las neurosis colectivas es el Colectivismo que conduce, de manera inexorable, a la masificación más impersonal y despersonalizante de la sociedad. Según Frankl, «el Hombre desea perderse en la Masa», sólo se siente seguro en el anonimato de la muchedumbre, que es un excelente refugio contra las angustias generadas por el deseo ­ o el miedo ­ a triunfar.

Así es como se une a diversos tipos de grupos que le proporcionan un cómodo y fácil refugio a sus neurosis: Clubes de todo tipo, Ejércitos y Bandas Terroristas, Partidos Políticos, Sociedades de Beneficencia o Masónicas, Gremios, Sindicatos, ONGs Defensoras del Ambiente y demás ejemplos de la Infinita Estupidez Humana.

Y la última actitud que conforma la neurosis colectiva es el fanatismo que adora ídolos de todo tipo (políticos, artistas, deportistas, celebridades), que es intolerante y muchas veces violento con los que no opinan de la misma manera. Frankl termina diciendo que «Personas que no son clínicamente neuróticas pueden ser, sin embargo, colectivamente neuróticas». Son los miembros de las Colectividades Neuróticas, es decir, los miembros de todas las asociaciones mencionadas anteriormente y que se caracterizan por actitudes escépticas, nihilistas, pesimistas y destructivas frente a la vida, al destino y al progreso de la Humanidad.

Las viejas Neurosis Colectivas van siendo reemplazadas de manera paulatina por nuevas y actualizadas neurosis. La Neurosis Atómica ha ido perdiendo fuerza dado que la Amenaza Nuclear ha pendido demasiado tiempo sobre nuestras cabezas sin dar muestras de querer cumplirse; ha sido demasiado zarandeada y enarbolada como bandera de combate. Las demostraciones antinucleares no son las que evitaron que rusos y norteamericanos se lanzaran mutuamente bombas atómicas: no son tan estúpidos como para creer que podían salir indemnes del asunto.

 Un Mundo de Radiaciones

Dado que vivimos en un mundo radioactivo, para las personas que no les gusta la radioactividad, la Tierra no es un lugar que resulta adecuado para vivir. (1) Nuestros cuerpos reciben unas 15.000 partículas radioactivas en cada segundo de nuestra vida. Esto es el equivalente a unas 473 Millones de partículas radioactivas al año, o unas 40 billones a lo largo de 85 años. Sin embargo, ni las sentimos ni sufrimos ningún daño aparente por este incesante bombardeo radioactivo.

Hasta que los instrumentos adecuados fueron inventados, la radiación permaneció ignorada, debido a que carecemos del sentido natural para detectarla. Uno de los motivos en que se basa la extendida fobia por la radioactividad reside en la elevadísima precisión de los instrumentos de medición que permiten detectar el centelleo de un átomo solitario.

Se miden con toda facilidad cantidades de radiación de 1 parte en 1.000 millones. ¿Y cuánta radiación es esta parte en 1.000 millones? 1/1.000 millones equivale a 1 nanoCurie y se puede comparar a 1 medida de vermouth en 5 vagones tanque de gin. Lo que se llama un Martini muy, pero muy seco. O puesto de otra manera: hoy viven en la Tierra 5.000 millones de personas; una familia de 5 personas es el equivalente de 1/1.000 millones de la población mundial.

¿Y qué decir de 1 parte de radioactividad en 1 Billón? Esta cantidad de radiación es la que se conoce como picoCurie (pCi) y es 1.000 veces más pequeña que el nanoCurie (nCi). Equivale a una medida de vermouth en 5.000 vagones de gin!

 Terrores Infundados

Cuando en Abril de 1986 las nubes que contenían radioactividad proveniente del accidente ocurrido en la central nuclear rusa de Chernobyl llegaron a la costa oeste de los Estados Unidos, la prensa se deleitó en aterrar a la población informándole sobre la cantidad de radioactividad (en picoCuries) que contenían las nubes y los efectos que provocaría sobre la gente cuando cayese a tierra. Pero no se les explicó que la cantidad del agua de lluvia que la gente debería beber era de 250.000 litros ­en un solo día­ para que una persona recibiese la misma cantidad de radiación que recibe al someterse a un diagnóstico por problemas de la tiroides (2). Sin embargo, Greenpeace se dedicó a aterrar a la población de California y del resto del mundo con los terribles cánceres y las espantosas leucemias que estaban listas para abatirse sobre todos nosotros. La Humanidad iba a extinguirse, o un poco menos.

Gaia, la diosa de los ecologistas, es una Diosa Radioactiva. El mundo en el que vivimos es altamente radioactivo. La radioactividad está en todas partes, en el suelo, en la arena, en las piedras, en la arcilla, en las plantas y en nosotros mismos. Por donde se busque, un contador Geiger detectará la radiación. Quien fuese durante años el jefe del Consejo de Energía Atómica de Gran Bretaña, Lord Walter Marshall dijo una vez«Me gustaría hacer notar que, en mi propio país, Gran Bretaña, el jardín promedio de cada inglés mide un décimo de acre. Si cavamos un metro hacia abajo podremos extraer seis kilos de torio, dos kilos de uranio y 7.000 kilos de potasio, todos ellos radioactivos. En cierto modo, todo ello es residuo radioactivo ­ o basura nuclear ­ no hecho por el Hombre: fue dejado por Dios cuando el planeta fue creado». (3)

Del total de radiación que recibimos anualmente, el 82% es de origen natural y sólo el 18% es producido por el Hombre (4) . La radioactividad natural está compuesta por el 55% de gas radón, el 8% de fuentes cósmicas y radiaciones solares, otro 8% de fuentes terrestres, (principalmente uranio y torio) y el 11% del potasio-40 interno de los seres vivientes.

Pero es el 18% producido por el Hombre el que es usado para asustar a la población y conseguir que la neurosis se desparrame e instale con tanta fuerza que impide el correcto uso de los razonamientos que permitirían dar solución a los problemas que de una u otra forma se generan a partir de las actividades nucleares. Veamos entonces cuánta peligrosidad tiene este 18% de radioactividad que produce el Hombre.

Del total de radioactividad que está presente en el ambiente, el 11% está constituido por los rayos-X de origen médico, el 4% por la medicina nuclear (diagnóstico y terapia), el 3% corresponde a los productos de consumo como detectores de humo, tabaco, cerámicas, etc., y todo el resto de la radioactividad faltante apenas llega al 1%. Pues bien, en este 1% se incluye a toda la actividad de la industria nuclear (reactores experimentales, submarinos y todas las centrales nucleares del mundo) que aportan el 0,1% del total de radioactividad a la que está expuesto el ser humano. Y por este ínfimo 0,1% de radioactividad que recibimos es que Greenpeace y el resto de las organizaciones antinucleares han montado su gigantesca campaña de alarma y terror a escala mundial.

Resulta muy evidente, entonces, que existe una desproporción descomunal entre el riesgo real y las reacciones paranoicas del ecologismo, por lo que no sería necesario agregar nada más. Sin embargo, es muy importante que la gente (y sobre todos los encargados de promulgar leyes y regulaciones) conozcan y se instruyan sobre los asuntos nucleares de manera de que sea posible ir analizando y revirtiendo tantas y tan absurdas regulaciones que se han impuesto a la actividad nuclear y que impiden que la energía nuclear sea accesible para todos los países en desarrollo y la electricidad producida sea barata y abundante ­ elemento imprescindible para los países en vías de desarrollo.

Por otra parte, si realmente se desea imponer un criterio verdaderamente ecológico en lo relativo a la generación de energía eléctrica, la opción obligada es la energía nuclear. Seguir quemando carbón y petróleo es estúpido; las alternativas como la energía solar, la eólica o la hídrica no resultan ni viables ni rentables. Entonces, ¿qué están esperando nuestros políticos para poner en práctica las soluciones que los problemas energéticos del mundo actual están demandando? Porque en verdad, los problemas que hoy afligen a la humanidad tienen su origen en la incapacidad e inoperancia de los políticos, y no en la ciencia o en la tecnología que está disponible para dar solución a las necesidades actuales.

 Primero, Lo Importante

Existen dos aspectos fundamentales que deben conocerse a fondo. El primero es una Perogrullada inmensa: la radioactividad es radioactividad, venga de donde venga, ya sea de origen natural o producida por el Hombre. Por ejemplo, las partículas alfa consisten en dos protones y dos neutrones, están cargadas positivamente y son fuertemente ionizantes, ya sea que las produzca el Hombre o Mamá Naturaleza. Los rayos beta son electrones, provengan del origen que se desee, como también los rayos gamma, radiación electromagnética de muy corta longitud de onda. A bajos niveles de energía, los rayos gamma se comportan como los rayos-X, penetrando profundamente en los tejidos animales y los materiales. Por su parte, los rayos alfa son muy fácilmente bloqueables: ni siquiera traspasan una delgada hoja de papel.(5)

Es importante recordar que los rayos alfa, beta y gamma tienen la misma naturaleza y los mismos efectos, sin importar cuál sea su origen. Los activistas antinucleares han adoptado la curiosa y malintencionada actitud de intentar convencer al público de que la radiación producida por el hombre es, de alguna manera, diferente a la radiación natural, y mucho más peligrosa. Por supuesto, mienten.

 Radioactividad y Cáncer

El segundo asunto fundamental se resume en este planteo: Con toda la radioactividad y radiaciones que nos bombardea desde todas direcciones, ¿por qué no estamos todos los habitantes de la Tierra ya muertos o siquiera muriendo de cáncer?

La razón científica es que, a pesar de que súbitas exposiciones a muy altos niveles de radioactividad pueden provocar el daño celular que conduzca luego al desarrollo del cáncer, el asunto no es tan claro cuando se refiere a la exposición a pequeños niveles de radiación, aunque estas exposiciones sean crónicas. El riesgo, no sólo parece ser mínimo, sino que el creciente número de estudios científicos que se van publicando tienden a indicar que las exposiciones sostenidas a bajos niveles de radiación ionizante resultan altamente beneficiosas para los organismos vivientes. Aunque usted no me crea, como diría nuestro amigo Ripley.

Entonces créale al UNSCEAR (United Nations Scientific Commitee on Effects of Atomic Radiation, o más comprensible, Comité Científico de las Naciones Unidas sobre Efectos de las Radiaciones Atómicas) que publicó el 11 de marzo de 1994 un informe titulado «Respuestas Adaptivas a la Radiación en Células y Organismos», (Document A/AC. 82/R.542), resumiendo los resultados de 12 largos años de estudios sobre la totalidad de investigaciones y estudios realizados en todas partes del mundo sobre el tema. De manera muy resumida, el UNSCEAR afirma que:

«Las radiaciones ionizantes de bajo nivel son inmensamente beneficiosas para la salud de los seres humanos y animales al provocar efectos estimulatorios a niveles bioquímicos, celulares y orgánicos, conduciendo a un aumento de la inmunidad contra cánceres y enfermedades infecciosas, y un incremento de la longevidad y la fertilidad.»

En efecto, los científicos habían descubierto que aquellas regiones del planeta que poseen altos niveles de radioactividad natural de «bajo nivel» (menores que 100.000 mrems y mayores de 500 mrems anuales) sus poblaciones viven más, se enferman menostienen menos cánceres y son más fértiles que las sociedades que viven en regiones con niveles de radiación más bajos o casi inexistentes. Hasta llegar al mencionado nivel de 100.000 mrems anuales de exposición, existe una marcada ón positiva entre los niveles de radiación y la longevidad, fertilidad, resistencia a las enfermedades y baja incidencia de cánceres. Una declaración tan radical y terminante bien merece un examen más detallado.

Las células de organismos vivientes que han ido evolucionando desde el inicio de la Creación, en un mundo altamente radioactivo, tienen una increíble habilidad para reparar los daños moderados causados por la radioactividad. Por otro lado, la mayor parte de los impactos de partículas radioactivas provocan la muerte de las células, y las células muertas no crecen para transformarse en cánceres. Es necesario un daño muy especial ­ no letal ­ para que las células resulten genéticamente dañadas o se transformen en células cancerosas. Se desconoce la exacta naturaleza de este daño, como también se ignora la cantidad y tipo exacto de radiación necesaria para provocar cáncer en los seres humanos y otras especies animales.

 Determinar los Riesgos

Por otro lado, los riesgos son muy pequeños. Comparemos las probabilidades con las de la Lotería. Es posible que cualquier persona que compre un billete acierte con el «gordo» de Navidad, pero la realidad cotidiana nos dice que la inmensa mayoría no lo hará. En el caso de la radioactividad natural, las probabilidades de que UNA de las 40 Billones de partículas radioactivas que nos impactan durante toda nuestra vida nos provoque un cáncer o algún efecto genético es de una en 50 Trillones, expresado en números: 1/50.000.000.000.000.000 o mejor, 1/1×1016. Son suficientes probabilidades de que jamás nos ocurrirá nada.(6)

Es por ello que la inmensa mayoría de la población no le teme a la radiación natural: simplemente ni siquiera sabe que existe! Nadie se lo enseñó en el colegio, o ninguna publicación de controlada desinformación pseudo científica se lo ha mencionado jamás. Sin embargo, todos sabemos que una dosis de radiación lo suficientemente alta provocará la muerte o el cáncer. Entonces, ¿cuál es el nivel o cantidad de radiación necesaria para resultar dañina?

De manera general, se habla de «exposiciones promedio», pero la cantidad de radiación natural (o de «fondo») varía enormemente de un lugar a otro en la Tierra. En el caso de los Estados Unidos, un país bien estudiado, la radioactividad de «fondo» promedio es de 300 a 500 mrem (milirem) anuales, pero la dispersión del rango es muy grande: puede ser tan baja como 60 mrem y sobrepasar los 600 mrems. ¿Qué es un milirem (o mrem)? Es la milésima parte de 1 rem, o Roentgen Equivalent Man ­Equivalente Roentgen en el Hombre­ y representa el real efecto ionizante sobre el cuerpo humano. Algunos ejemplos aclararán esto.

Un milirem sería la dosis anual recibida a consecuencia de ver TV durante unas pocas horas al día, todos los días del año. Se calcula que cada mrem adicional de radiación que recibimos eleva nuestras probabilidades de desarrollar cáncer en 1 entre 9 millones. Puesto de otra manera: 1 mrem es equivalente a ser impactado por 7.000 Millones de partículas radioactivas.

Otra medida de radiación, el Curie (Ci) equivale a 37.000 Millones de desintegraciones por segundo, y corresponde a la radioactividad emitida por 1 gramo de radio. Muy extensos y profundos estudios han determinado que son necesarios muchos más de 100.000 mrem para obtener algún efecto detectable en los organismos vivos. El cáncer se desarrolla en la mitad de los casos donde la exposición pasa los 400.000 mrem. Recordemos que a consecuencia del «accidente» del reactor de Three Mile Island en 1979, la población circundante a la planta recibió una radiacióm «extra» de 1.2 mrem anuales. Es el momento de comparar esta exposición recibida por la población a consecuencia del peor y más catastrófico accidente nuclear que haya ocurrido en el mundo occidental, con las exposiciones que se reciben de manera constante por parte de Madre Naturaleza:

  • 30 mrem anuales de rayos cósmicos
  • 20 mrem anuales provienen del suelo
  • 10 mrem anuales de los materiales de construcción
  • 25 mrem anuales del Potasio-40 de nuestro organismo
  • 80 mrem anuales de procesos médicos
  • 180 mrem anuales o más provenientes del gas radón

El total para cada habitante se eleva a más de 360 mrem anuales. En las zonas montañosas donde la concentración de torio y uranio es más elevada, y la altura significa mayor exposición a los rayos cósmicos, la radiación natural llega normalmente a duplicarse, mientras que en otros lugares como la Florida, es un 15% menor. En algunas partes, la radiación de fondo alcanza valores anormalmente elevados. Las aguas termales y minerales tienen valores sumamente altos de radioactividad. Las «aguas maravillosas» de la ciudad inglesa de Bath (7) tienen un contenido de radón de 1.730 pCi (picoCuries) por litro y se las considera altamente benéficas para muchas dolencias. Ahora bien, la EPA ha establecido que deben tomarse acciones para remediar el asunto cuando el contenido del radón en el agua potable sobrepase los 4 pCi/litro. El radón contenido en el gas natural de Bath es de 33.650 pCi/litro. Sin embargo, los antiguos romanos construyeron aquí un templo en el año 42 DC y lo dedicaron a la Diosa de la Sabiduría y la Salud. En 1742 se construyó allí el Royal National Hospital para enfermedades reumáticas.

La gente acude en bandadas a Bath y a otros centros de baños termales, todos con aguas de muy elevada radioactividad, a causa de su fama de beneficiosos efectos terapéuticos. La gente no acude a los baños termales a morirse sino a curarse! Aunque no existe una prueba concluyente de que sea la radioactividad de las aguas la que provoque los efectos saludables, sí hay pruebas científicas de que la elevada radioactividad de las aguas no provoca efectos dañinos a los visitantes que se bañan y beben copiosamente sus aguas . . . que de acuerdo a la argumentación ecologista tendrían que ser letales!

Nos preguntamos por qué no se han realizado buenos y profundos estudios en la población de Cochin-Ernakulum, en el estado de Kerala, al sudoeste de la India, donde el suelo abundante en torio irradia a razón de 16.000 mrem anuales! O sino en algunas playas del noreste del Brasil, donde las arenas están compuestas del negro mineral conocido como Monagite, de altísimos niveles de radioactividad. Los visitantes llegan también en oleadas a esas playas atraída por la fama de benéficos efectos sobre la salud. Los niveles de exposición están allí muy por encima de los 500 mrem anuales. A pesar de ello, algunos «expertos» en radiación del Brasil opinan que estas poblaciones «son muy pequeñas como para permitir significantes investigaciones epidemiológicas»(8). Nos estamos internado aquí en el muy árido territorio de la estupidez . . .

Existen en el mundo dos extraordinarias regiones en el mundo con elevadísimos niveles de radioactividad: uno en Africa y el otro en Brasil. El africano está en Gabón, al oeste del continente, cerca de un lugar llamado Oklo, donde existe en la actualidad una mina de uranio. Las concentraciones del isótopo fisionable U-235 eran tan altas, que hace 1.800 millones de años se inició allí una reacción en cadena que duró un millón de años. La Naturaleza inició y mantuvo ese inmenso «reactor nuclear» hasta agotar al combustible. Así se quemaron miles o millones de toneladas de uranio, produciéndose miles de toneladas de plutonio y otros subproductos de la combustión atómica (los «transuránicos»). Aunque durante los últimos millones de años cayeron copiosas lluvias sobre la región, el plutonio y los demás isótopos radioactivos resultantes sólo han emigrados unos pocos metros hacia el interior del subsuelo.

Este reactor natural de Gabón ha sido extensa y profundamente estudiado por los científicos, cosa que no se puede decir, sin embargo, de la región de Brasil conocida como Morro de Ferro, un montículo de 250 metros de altura compuesto por un cuerpo mineral que contiene unas 30.000 toneladas de torio y unas 100.000 toneladas de «tierras raras». Los niveles de radiación son de 1 a 2 mRoentgen/hora en un área de 30.000 m2. Este monte tiene abundante vida animal y vegetal. Tan elevada es la radiación absorbida por las plantas que es posible obtener fotografías (autoradiografías) literalmente brillando en la oscuridad. Una colonia de ratas habita las galerías de este monte y las mediciones obtenidas demuestran que respiran una atmósfera que contiene niveles de radón de hasta 100.000 pCi por litro! Se calcula que las dosis de radiación que recibe el epitelio bronquial de las ratas está entre 3.000 y 30.000 mrem anuales, unas tres veces más radioactividad de la que debería provocar tumores u otros efectos relacionados con la radioactividad. Se atraparon 14 ratas y se les hicieron autopsias que no revelaron ninguna anormalidad. A pesar de ello, el investigador que hizo los estudios se internó profundamente en el territorio de la estupidez: «Esto tiene muy poca significancia ya que el Morro de Ferro es un área relativamente pequeña».(9) ¿Qué tendrá que ver el tamaño de un territorio con la actividad de las radiaciones ionizantes? ¿Querrá significar nuestro investigador que una bomba atómica lanzada sobre un pueblo pequeño tendrá menor efecto radioactivo que una lanzada sobre San Pablo?

Es hora de preguntarnos, entonces, viendo todos estos ejemplos, sopesando y analizando tanta información científica validada y comprobada; viendo cómo cientos de miles de personas acuden a bañarse y beber aguas altamente radioactivas; comprobando la existencia y saludable desarrollo de vida en lugares donde los ecologistas afirman que nadie podría sobrevivir . . . ¿A quiénes debemos creer?¿A los hechos científicos comprobados, que nuestros ojos pueden ver y nuestros instrumentos medir? ¿O a los paranoicos partes de prensa de ONGs como Greenpeace, que carecen de toda base científica comprobable? Es imperioso mantenernos muy alejados del peligroso territorio de la estupidez.

 Radio y Radón

Para hacer honor a la verdad, es necesario admitir que, sin ningún lugar a dudas, la radioactividad es peligrosa y ello también incluye a la radioactividad natural. Sólo que el grado de peligro reside en la dosis, tipo, cantidad y duración de la exposición, y del conocimiento sobre cómo manejar a la radioactividad. Esto último es de enorme importancia. Se puede decir, con total seguridad, que debido a los intensos programas de investigación que se desarrollaron desde los años 40, se sabe más sobre los efectos de las radiaciones ionizantes que sobre las consecuencias de exposiciones a cualquiera de las muchas substancias tóxicas que existen en la naturaleza o que haya producido el Hombre.

Desde su descubrimiento y hasta los años 40, el radio se aplicó a numerosos productos comerciales como la pintura radioluminosa para relojes y otros instrumentos que debían leerse en la oscuridad. Durante los primeros 50 años que estuvo disponible, se extrajo de la tierra y se aplicó a usos médicos y productos comerciales aproximadamente 1 kilo de radio, gramo más o gramo menos. Como consecuencia de ello y debido al poco conocimiento que se tenía sobre los efectos de la radioactividad, en todo el mundo murieron 100 personas por usos inadecuados o mal manejo del radio. Desde 1942 y hasta la fecha, diversos programas relacionados con la energía atómica han producido el equivalente radioactivo a muchas toneladas de radio. Pero a consecuencia de un mayor conocimiento y comprensión del asunto, no se ha producido ninguna muerte humana debido a exposición o depósito interno de una amplia variedad de radionucleidos producidos artificialmente.(10)

Ultimamente, el radón ha recibido una exagerada atención por parte de la prensa sensacionalista, sabiamente alimentada por las ONGs ecologistas. Como consecuencia, está muy extendida la creencia de que este abundantísimo elemento de la naturaleza es el responsable de la muerte de entre 5.000 a 30.000 personas por cáncer de pulmón, sólo en los Estados Unidos. ¿Es verdad esto?

¿Se trata de una nueva y terrible amenaza (al estilo Capa de Ozono)? La respuesta la veremos dentro de pocas líneas más. Nuestro conocimiento sobre el Radón comienza en las minas de la Montaña de Erz,Checoslovaquia, en el Siglo 16. En los libros de minería se ha informado que la mayoría de los mineros morían de una afección respiratoria conocida como el «mal de la montaña». No fue sino hasta 1879 que se identificó a este mal como el cáncer de pulmón(11). Después del descubrimiento de la radioactividad, y que se identificara al radón como un subproducto del radio, se constató que las minas de Erz tenían elevadísimos niveles de radón. Se sospechaba de una conexión entre el radón y el cáncer de pulmón, pero esto no se estableció hasta los años 50 cuando se hicieron estudios entre los mineros de Estados Unidos. Los resultados de estos estudios establecieron de manera concluyente que existía positiva y estrecha correlación entre los niveles de radón y el cáncer de pulmón. Posteriores estudios en las minas de Checoslovaquia confirmaron los resultados norteamericanos, de manera que, para 1976, el cáncer de pulmón inducido por el radón se transformó en el mejor estudiado y cuantificado de los efectos de la radioactividad.

Cuando se mejoró el sistema de ventilación de las minas para extraer al radón del interior de las galerías, el problema fue casi totalmente eliminado. Pero, al mismo tiempo, se comprobó que el radón no era el único culpable de los cánceres de pulmón: se comprobó que el fumar cigarrillos era el principal «gatillo» del cáncer de los mineros. Y aquí viene algo realmente extraordinario: En 1932, A. Pirchman informó en el American Journal of Cancer, que en las minas austríacas de Joachinosthal no se hallaban mineros enfermos de cáncer de pulmón. Sólo se hallaban entre los mineros jubilados, de los cuales moría el 75%.

Las expectativas de vida promedio en esa época era de sólo 55 años. Ahora bien, los mineros vivían más y se jubilaban a los 65 años.(12) La moraleja aquí parece ser«Si trabajas en las minas y respiras radón, tendrás cáncer de pulmón ­ pero sólo después de que hayas vivido 10 años más que el resto de tus amigos!»

Examinemos al radón con más detalle.(13) Recuerde que el radón es un gas inerte, químicamente neutro y radioactivo. Aparece en la cadena natural de la descomposición del uranio, que está compuesta por 14 pasos diferentes. El paso inmediatamente anterior al radón es quien le da forma: el radio (en sí mismo, un subproducto natural del uranio.) Aunque resulte aburrido, es interesante (e importante) saber que algunos átomos de radio sufren un proceso radioactivo conocido como «descomposición alfa», significando que el núcleo de estos átomos expulsan de manera espontánea una nube de partículas nucleares que consiste de 2 protones y 2 neutrones estrechamente unidos. Es la famosa y tan mentada partícula alfa. La pérdida de los protones convierte al radio (número atómico 88) en radón (número atómico 86). Las substancias emisoras de partículas alfa no son peligrosas (a menos de que se intro-duzcan dentro del organismo) y no son penetrantes, es decir, son fácilmente bloqueables por cualquier barrera, aún por una fina hoja de papel. Entonces, el proceso que produce al radón comienza con el uranio. Dado que se trata de un mineral de muy amplia distribución por toda la Tierra, el radón puede aparecer en cualquier parte.

De manera típica, de cada pulgada cuadrada del suelo emergen por segundo unos 6 átomos de radón y se dispersan en el aire. Esto está sucediendo de manera constante en la Naturaleza. Cuando la gente construye edificios y casas, estos procesos radioactivos naturales que ocurren en el subsuelo no son afectados de ninguna manera. La única diferencia reside en que cuando el radón, en su camino hacia la superficie encuentra una casa encima suyo, pasa directamente a través de los cimientos, contrapisos, grietas y fisuras, y aún a través del agua de las cañerías. Luego es atrapado en el interior de las casas durante algún tiempo ­ por lo menos hasta que alguien abra una puerta o una ventana y las corrientes de aire saquen al radón al exterior, donde se dispersa otra vez en la atmósfera.

En una casa promedio, el contenido de radón es normalmente 10 veces más alto que en el exterior de la casa; a veces, hasta 100 veces más alto. En las casas antiguas, el radón escapa hacia el exterior de la misma forma que hizo para entrar: a través de fisuras y grietas, hendijas de puertas y ventanas que ajustan mal, etc. En estas casas viejas, la tasa de renovación del aire es de una o dos veces por hora; por lo tanto, la acumulación del radón no llega a niveles altos: el radón no constituye problema alguno.

Pero en las casas modernas donde se han sellado con burletes, masilla y cintas todas las aberturas para conservar el calor (o el frío, en verano) con el objeto de ahorrar energía eléctrica, la tasa de ventilación (o recambio de la atmósfera) se reduce hasta una vez por día. La tasa de ingreso de radón que se produce en las casas herméticas no varía para nada, pero sí disminuye de manera drástica la de evacuación el radón. Por consiguiente, el radón se ve atrapado en el interior y su concentración va aumentando constantemente a medida de que pasa el tiempo. Sellar una casa para hacerla más eficiente en la conservación de la energía conduce de manera inevitable a la acumulación de radón en su interior. ¿Es esto peligroso? Sí, aunque esto también requiere una pequeña explicación.

 Las Hijas del Radón

El problema con los riesgos de acumulación de radón en los hogares no está en el radón en sí mismo, sino en los subproductos de la descomposición del radón, que son conocidos como las «Hijas del Radón». Aquí es donde reside el problema. El radón irradia muy débilmente, y su vida media es de apenas 3,82 días. Como se trata de un gas inerte, no reacciona químicamente con el organismo, de manera que cuando se lo respira es exhalado nuevamente. Pero si se respiran a las «hijas del radón», el asunto es totalmente diferente. Son partículas sólidas, tienen muy corta vida media, emiten partículas alfa o beta y son intensamente radioactivas. Más aún, las hijas se adhieren a partículas de polvillo que son muy fácilmente inhaladas. Como también se adhieren a las partículas de humo, el fumador «pasivo» que respira aire con humo dentro de una habitación cerrada, está introduciendo en sus pulmones a las hijas del radón, lo que resulta un poco menos peligroso que fumar directamente.

Transportadas hasta los pulmones, las hijas se pegarán a la membrana mucosa del pulmón y bombardearán a los tejidos sensibles con intensa radioactividad. Esto es lo que puede, eventualmente, ayudar a provocar algún cáncer de pulmón. Las hijas del radón se acumulan con facilidad en las habitaciones mal ventiladas y algunas de estas hijas son:

 
      • Polonio-218, vida media = 3,05 minutos, emisor alfa
 
      • Bismuto-214, vida media = 19,7 minutos, emisor beta (electrón)
 
    • Plomo-214, vida media = 26,8 minutos, emisor beta

Tomemos como ejemplo al Bismuto-214. En una atmósfera interior que haya acumulado radón durante tres minutos (lo que se llama «3 minutos aire», el Bismuto-214 contribuirá con el 0,5% de la energía radioactiva de la partícula. Contribuye con el 4% del total de la energía en un aire de 10 minutos, y con el 38% en un aire que no tiene recirculación. Con una tasa de recirculación de aire de 1 a 2 veces por hora (lo que sucede en la inmensa mayoría de las casas del mundo), la acumulación del radón es de 1 pCi/l(un picoCurie por cada litro de aire) Recordemos: 1 pCi es igual a 1 parte en 1 Billón. Esto debe traducirse a una exposición de unos 100 mrem anuales, lo que equivale a la tercera parte de la exposición anual promedio, y bien por debajo de los 500 mrem puestos por la EPA como el máximo admisible.

Sin embargo, hay dos cosas que pueden aumentar esta exposición promedio al radón: vivir en una casa de elevada eficiencia térmica (herméticamente cerrada), y vivir en una región donde las concentraciones de uranio sean elevadas, como regiones de suelos graníticos que contienen cantidades de uranio mayores que lo normal, como las Sierras de Córdoba o los Andes. En los Estados Unidos, la formación geológica más conocida por sus elevados niveles de uranio-radón es el llamado Reading Prong, que se extiende desde Reading, Allentown y Easton, en Pennsylvania, a través de Morristown, New Jersey hasta el estado de New York. Algunas de las casas de esta región tienen niveles registrados que son 1000 veces superiores a los niveles normales de radón, mientras que muchísimas tienen niveles que llegan a las 100 veces más altos que los promedios. A la fecha, el nivel de radón más alto registrado corresponde a una casa en Boyertown, Pennsylvania, que tiene un nivel 2.500 veces superior al normal. (14)

Aunque los riesgos que representan la acumulación del radón y sus hijas son conocidos desde fines de los años 70, la EPA no emitió ninguna advertencia al respecto, como tampoco publicó su muy esperada guía sobre las concentraciones internas de radón hasta el mes de Agosto de 1986. ¿Por qué se demoró tanto la EPA? ¿Será la conservación de la energía un problema de importancia excluyente como para pasar por encima de los problemas de la salud pública?

 De Leyes Estúpidas

La guía de la EPA no dice nada sobre los peligros de los edificios y casas herméticamente sellados. En lugar de ello, reclama medidas correctivas cuando los niveles de radón sobrepasan los 4 pCi/l(equivalentes a 400 mrem anuales). De acuerdo a las estimaciones de la EPA, este nivel ha sido excedido por 11 millones de casas en los Estados Unidos, involucrando a unas 26 millones de personas. Lo irónico (¿o estúpido?) es que este nivel de 4 pCi por litro de aire es 40 veces más alto que el muy estricto nivel de 0,4 pCi/l que rige para la industria nuclear. Nos preguntamos, ¿por qué se aplican niveles más estrictos al ambiente de trabajo, donde una persona estará apenas 8 horas cada día, y más elevados niveles para los hogares donde los adultos, niños y bebés viven, duermen, comen y pasan más de las dos terceras parte de su tiempo allí?

Una posible explicación para un absurdo inexplicable: mientras que la EPA regula los niveles para los hogares, la Comisión Reguladora Nuclear (CRN) regula los riesgos de radiación para la industria y las plantas nucleares, que son muchísimo más bajos y estrictos que los de la EPA. Ahora bien, si realmente se aplicaran con todo rigor estas normas de la CRN (tal como lo exigen a gritos los activistas del ecologismo) la gran mayoría de los ambientes naturales y casi todo el aire del campo serían declarados ilegales. El territorio de la estupidez se amplía, y se amplía … y se amplía.

De los estudios e investigaciones que se hicieron a causa del accidente de Chernobyl, (ver Capítulo: La Verdad Sobre Chernobyl) se determinó que la exposición a la radiación que recibió la población fuera de la zona de evacuación fue equivalente a la que reciben todos los años los habitantes del estado norteamericano de Nueva Inglaterra, al vivir ocho meses del año en sus casas muy eficientes para conservar la energía y sumamente ricas en radón. Cuando todos los hechos que conforman un asunto en disputa se ponen en su adecuada perspectiva, las cosas se aclaran. Quizás haya llegado el momento de permitir que entre un poco de aire fresco ­ no sólo a las casas herméticas ­ sino al tema nuclear.

En cuanto a las casas, lo mejor es abrir las ventanas todas las mañanas, como lo hacía abuelita, y renovar el aire con frecuencia, aunque ello represente un poco más de gasto en electricidad. Quizá no sea mucho pedir que la prensa sirva a la causa del Sentido Común y de la Salud Pública liberándose de los prejuicios ultra-ecologistas, y de la tonta noción de que la conservación de la energía es un bien que trasciende cualquier otra cosa; o destruyendo la absurda creencia que el radón atrapado en las casas no nos hará daño, pero que el radón de las minas de uranio (donde no vive nadie!) sí nos puede perjudicar. La tontería reside en no querer admitir que se trata de la misma radiación.

 Los Edificios Enfermos

Otro de los grandes remedios sería dejar de construir casas herméticas que, no sólo atrapan al radón sino que provocan la acumulación de nuevos y numerosos problemas de salud: el nuevo fenómeno de la contaminación interior. Tan malo se vuelve el aire pobremente ventilado de muchos edificios modernos, que se ha desarrollado el Síndrome del Edificio Enfermo. Actualmente se reconoce que el problema es la escasa o nula ventilación que tienen los edificios que se construyen siguiendo las normas de la conservación de la energía.

Pocos estudios demuestran con tanta claridad lo que sucede, como el realizado por el ejército de los Estados Unidos en cuatro de sus cuarteles, donde los reclutas dormían en grupos de 100 a 250 hombres en modernas y herméticas barracas con ventilación recirculada, comparándolos con otro grupo similar que habitaba en barracas de la Segunda Guerra Mundial.(16) El estudio se prolongó durante 47 meses, desde Octubre 1, 1982 hasta Septiembre 1, 1986, cubriendo a cuatro grupos diferentes de reclutas. Se encontró que, para el período entero los riesgos de enfermedades respiratorias se incrementaron un 45% en los cuarteles modernos, «energéticamente eficientes».

Durante los períodos de epidemias los riesgos y casos de problemas respiratorios se elevaron el 100%. Las conclusiones médicas fueron que 

  «en edificios herméticos con sistemas de ventilación cerrados, los agentes patógenos aéreos no sólo son recirculados y concentrados, sino que son además eficientemente dispersados por todos los espacios interiores habitables. Por el contrario, en los edificios con «pérdidas», los agentes aéreos son diluidos por el aire fresco y expulsados rápidamente de los espacios interiores.»Algo para tener en cuenta cuando haga su nueva casa.

Este nuevo par de problemas modernos ­la acumulación de radón y los problemas respiratorios de las casas herméticas­ nos han sido impuestos por los activistas del ecologismo que insisten en que la conservación de la energía es prioritario y excluyente, y quizás el único medio de asegurar suficiente energía para el futuro. Si se hubiese dedicado la misma devoción, esfuerzo y dinero que se usaron para sellar herméticamente hogares y edificios modernos en la construcción de nuevas, seguras y eficientes plantas nucleares, ahora tendríamos una población más sana, como también más energía para calentar o enfriar edificios de una manera limpia y saludable. Pero, por desgracia, la gente que está encargada de hacer las leyes que afectaron nuestro presente y nos afectarán en el futuro, son sempiternos y obcecados exploradores del territorio de la estupidez. Lo peor, es que aún se los vota.

La conservación de la energía, por más noble que pueda parecer, es tan productora o fuente de energía como que el dinero que se guarda en el colchón es fuente o productora de ingresos. Es bueno evitar el derroche y el despilfarro de recursos, pero los ahorros terminan por agotarse algún día, y es preciso salir a producir. La clave está, entonces, en trabajar, producir bienes, transformar los recursos naturales de manera eficiente y sensata . . . y gozar de lo que obtuvimos.

Ha llegado ahora el momento de retornar a la pregunta que hicimos más arriba: ¿Cuán dañinas son las exposiciones a las radiaciones de bajo nivel? Es decir, aquellas por debajo de los 100.000 mrem anuales. Ya vimos ejemplos de poblaciones aparentemente muy saludables viviendo en regiones de elevadísimos niveles de radiación. ¿Qué sucede cuando se vive con elevados niveles de radón? ¿Cuán peligroso puede resultar? Por suerte, hoy existen muchos estudios que permitieron al comité de las Naciones Unidas (UNSCEAR) emitir su famoso comunicado de marzo de 1994 relativo a los efectos benéficos de las radiaciones de bajo nivel. Y es aquí donde debemos introducir el concepto de la Hormesis.

 Hormesis

En el siglo 16, un médico alemán llamado Theophrastus Bombastus von Hohenheim, más conocido como Paracelso, desarrolló un concepto que se ha constituido en el Principio Fundamental de la Toxicología. Decía entonces Paracelso«¿Qué cosa no es un veneno? Todas las cosas son veneno, y nada existe que no sea veneno. Sólo la dosis determina que una cosa no es un veneno.»(17)

Este es el concepto básico de la Hormesis, y su validez se ha visto confirmada desde entonces una y otra, y otra vez. ¿Qué cosa puede ser más inofensiva que el agua pura y potable? Nada, y sin embargo, bebida en la cantidad adecuada le provocará la muerte tan rápido como un pelotón de fusilamiento. En 1979, un hombre murió en Alemania porque se bebió 17 litros de agua en muy corto período de tiempo. La causa inmediata de su muerte fue edema cerebral y perturbación electrolítica debida al exceso de agua. Este simple principio, lleno de sentido común, de que la dosis es el veneno, también se cumple para la radioactividad. Sabemos que las altas dosis de radiación provocan la muerte, pero, en otro sentido, los bajos niveles de radiación son inofensivos o, más aún, beneficiosos para la salud. Entonces, ¿cuáles son los niveles de radiación que resultan «veneno»?

Extensas investigaciones determinaron que exposiciones a niveles superiores a 10.000 rem (10 millones de mrem) son letales. Matan casi en el acto, o muy rápidamente. 300 rem (300.000 mrem) resultan fatales para casi el 50% de las víctimas. Se obtienen daños por radiación con exposiciones de entre 100 a 300 rems, pero no se han observado efectos adversos con niveles por debajo de los 100 rem (100.000 milirems) (18)

Recuérdese que los niveles promedios de la radiación natural en el ambiente es de unos 350 mrem. De manera empírica, por consiguiente, y basándonos en muchas observaciones, mediciones y experimentos, parece ser que existe un «umbral» para la radiación, por debajo del cual no se producen ni se observan efectos adversos para la salud. Este «umbral» es de 100.000 mrem anuales. Sin embargo, existe todavía bastante discusión con respecto a esto, aceptando muchos científicos del bando ecologista la «hipótesis lineal» que sostiene que algún efecto existe, aunque va disminuyendo hasta cero y que quizás no sea detectable o medible pero que, sin embargo, el daño está allí, aunque oculto.

Dado que la Ciencia se basa en la observación directa de hechos comprobados y repetibles, si algo no es detectable, o medible u observable, no pertenece a la Ciencia sino al campo de las Ciencias Ocultas, la Adivinación, el Tarot o la Astrología. Es como determinar el daño clínico de la radiación por medio del análisis de las tripas del pollo o de la borra del café.

Sin embargo, esta es la hipótesis de los ecologistas, que bombardean con altas dosis de radioactividad a una pobre rata hasta matarla, lo cuantifican y luego, en un gráfico de abscisas y ordenadas, determinan el punto de irradiación máxima letal y trazan una línea recta hasta cero diciendo: «Ven, la radioactividad es nociva en cualquier exposición que se produzca. No hay ningún nivel que sea inofensivo. El gráfico lo dice bien clarito».

Este tema se encuentra muy bien explicado en la siguiente dirección de la web, que recomiendo especialmente leer porque no deja ya ningún lugar a dudas sobre el efecto benéfico de las bajs dosis de radiación: Haga click sobre: Los Significantes Beneficios de la Radiación Nuclear .

Desgraciadamente (para los ecologistas) esta hipótesis no explica para nada la falta de cualquier efecto nocivo detectable a consecuencia de vivir en un mundo altamente radioactivo. Dado que la comunidad científica no se ha puesto todavía de acuerdo en este punto (y jamás lo hará porque los científicos en este mundo jamás se pusieron de acuerdo en nada) lo mejor será analizar con cuidado y sin apuro la evidencia científica.

En los primeros días del proyecto Manhattan en 1943, los científicos estaban preocupados por la toxicidad del uranio y la radioactividad, teniendo en cuenta que María Curie había tenido problemas a causa de ella. Por consiguiente expusieron a una colonia de ratas a una atmósfera sobrecargada con polvo de uranio y a otra colonia respirando aire puro, como control. Aunque los investigadores esperaban que las altas dosis de uranio serían mortales, las ratas del experimento sobrevivieron a las ratas de control y aún vivieron más tiempo del que sería normal para ese tipo de ratas. Más aún, aparecían más saludables y tenían más crías que los controles. No desarrollaron tumores. Sin embargo, muchos científicos ecologistas rechazan las conclusiones y sostienen que el experimento estuvo mal conducido, considerando al resultado como una anomalía.(19)

Pero, resultados similares se siguen acumulando. En 1980, el profesor T.D. Luckey publicó las conclusiones de 1239 estudios distintos de muchos investigadores que comprendían seres vivientes, desde cultivos celulares y bacterias hasta plantas (800 referencias) y animales (200 referencias) de muchas especies diferentes expuestas a cantidades variables de radiación de todo tipo. El Dr. Luckey informa que todos los resultados son consistentes: existe un «umbral» o línea de corte por debajo de la cual la radioactividad resulta totalmente inocua o sino beneficiosa. (20)

Las conclusiones del estudio de Luckey dicen que las radiaciones ionizantes son generalmente estimulantes a bajas dosis; que las dosis bajas proporcionan un desarrollo más acelerado, incrementan las defensas contra las enfermedades infecciosas, aumentan la fertilidad y reproductividad y confieren un lapso de vida más extenso. También afirma que las dosis bajas no producen efectos nocivos proporcionales; que en bajas dosis la radioactividad es menos dañina que lo que se creía comúnmente; y que la irradiación crónica con dosis apenas superiores a la media ambiental son benéficas para los animales y las plantas.

Aún así, numerosos científicos ecologistas se niegan a aceptar que estos resultados se puedan aplicar a los seres humanos. Como los experimentos en humanos están prohibidos, es interesante comparar y analizar los estudios que relacionan al radón con el cáncer de pulmón entre poblaciones que habitan regiones de diferentes cantidades de radón en el ambiente.

  • En Cornwall, Inglaterra: las exposiciones al radón son 100 veces más altas que el promedio inglés, pero no hay una mayor incidencia de cáncer de pulmón.
  • Cumberland County, Pennsylvania, EEUU: tiene nueve veces más radón que el promedio americano de exposición. Sin embargo, tiene una incidencia de cáncer de pulmón muy por debajo del promedio americano.
  • En Finlandia, donde los niveles de radón en los hogares tienen un promedio de 2.5 pCi/ litro (2.5 veces más altos que el promedio mundial) la tasa de cáncer de pulmón entre las mujeres es de sólo el 75% del de otros países industrializados.

En 1987, un grupo de investigadores austríacos presentaron los resultados de un muy cuidadosamente documentado estudio epidemiológico de varios tipos de cáncer en los Estados Unidos, en el IV International Symposium on Natural Radiation Environment(21), donde se llegaba a la conclusión que cuando los niveles de radiación de fondo eran de entre 350 a 500 mrem anuales, se encontraba el menor número de ánceres.

¿Más evidencia científica? El profesor B.L. Cohen, de la Universidad de Pittsburgh analizó 39.000 mediciones de exposiciones al radón y las cotejó contra cánceres de pulmón en 411 condados de los Estados Unidos. Encontró que la correlación era negativa para los valores bajos: a mayor concentración de radón, menos cánceres de pulmón! Sus datos estaban corregidos para tomar en cuenta las diferencias constructivas entre casas de la ciudad y casas rurales, y para los fumadores de cigarrillos.(22) Evidencias adicionales de la Hormesis o del umbral de efectos se encuentran cuando se analizan con cuidado numerosos estudios modernos que no hallan los resultados predichos cuando se extrapola hacia abajo a partir de dosis elevadas de exposición a la radiación. Esto incluye estudios de daños al cromosoma por radiación en glóbulos blancos de la sangre humana; malignidad tumoral debido a radiación en embriones de ratas; incidencias de cáncer en ratas expuestas a diversas dosis de rayos gamma; tasas de leucemia en sobrevivientes de Hiroshima e información sobre los pintores de diales luminosos de relojes, expuestos al radio.

Ya sea que elijamos o no creer que las exposiciones a bajos niveles de radiación puedan ser beneficiosos, podemos decir con toda certeza que asumir la «hipótesis lineal» (en vez de la hipótesis del umbral) se sobrestimará el posible daño ­ y la gente siempre prefiere creer lo peor. Con exposiciones a bajos niveles de radiación ­ por debajo de los 100.000 mrem anuales ­ tenemos una situación donde las creencias pueden anular a las evidencias. Este es un fenómeno mental bien conocido: durante siglos se creyó (aún las personas educadas) que el hombre tenía una costilla menos que la mujer, a causa del relato de la Biblia que narraba que Dios había creado a la mujer a partir de una costilla de Adán. Esta creencia persistió durante siglos, a pesar de disponer la evidencia en contrario: basta con contar las costillas del esqueleto. Hamlet le decía a su amigo, hace muchos siglos: «Nada hay en nuestra filosofía, Horacio, que sea verdadero o falso ­ pero el pensamiento lo hace posible.»

Y eso sucede con la radioactividad. Cuando se han escuchado durante años las mismas escandalosas inexactitudes (piadoso término para no decir: mentiras) la gente termina por desechar las evidencias científicas y acepta la mentira repetida como la verdad revelada. La gota horada a la piedra.

 Los Reactores Atómicos

De todas las aplicaciones pacíficas de la energía nuclear, ninguna ha generado más oposición, histeria y neurosis que la generación de electricidad. En los comienzos de la era de generación eléctrica, a principios de los años 60 y hasta mediados de los 70, las centrales nucleares fueron recibidas y apoyadas con entusiasmo por organizaciones ecologistas como la Audubon Society y el Sierra Club. Esta actitud comenzó a cambiar radicalmente después de una reunión llamada «Masa Crítica» promocionada por Ralph Nader en 1973.

A partir de allí todas las organizaciones ecologistas se unieron al movimiento antinuclear, siguiendo el ejemplo de Nader, quien se hizo famoso y multimillonario explotando con toda habilidad esta nueva neurosis antinuclear y el espléndido filón de la ecología. Debe reconocerse el mérito de Nader: fue el primero que vio el ilimitado potencial económico que brindaba este nuevo mercado de la denuncia ecológica, y supo sacarle buen provecho.

A pesar de todo lo que se ha escrito y gritado contra la generación de electricidad por medios nucleares, la energía nuclear para fines pacíficos es un éxito que no tiene parangón en la historia del mundo. El único fracaso que se le puede achacar a la energía nuclear es su fracaso en las relaciones públicas. La generación de electricidad mediante reactores atómicos es segura, y mucho más que eso. En más de 30 años de uso en el mundo Occidental no se produjeron muertes, no se produjeron liberaciones significativas de radiación al ambiente, y nadie fue expuesto a la radioactividad a niveles mayores de los límites, muy conservadores, que siempre han caracterizado a la industria nuclear.(23) La electricidad de origen nuclear se logra sin emitir a la atmósfera dióxido de carbono, óxidos de azufre y de nitrógeno, humo, partículas nocivas, compuestos orgánicos o cancerígenos ­ que sí son alegremente lanzadas al aire cuando se genera electricidad quemando petróleo y carbón.

Por otra parte, la cantidad de residuos nucleares producida es muchísimo menor que la que se obtiene quemando carbón, y no contiene residuos como el arsénico, plomo, cadmio y mercurio que se mantienen venenosos por toda la eternidad. No existe ninguna central nuclear que produzca electricidad con costos tan altos como las que queman petróleo y sus derivados, y todas son económicamente competitivas con las que queman carbón. Cuando se comparan los costos de toda una vida útil de generación eléctrica ­ digamos, unos 30 años ­ con los de las centrales de petróleo, las plantas nucleares promedian 4.7 centavos por Kilowatt hora (Kw/h), mientras que las mejores quemadoras de petróleo tienen un promedio de 8.2 centavos el Kw/h.(24)

A causa del gran encarecimiento que han sufrido los costos de generación nuclear en los últimos años ­ debido a absurdas e irracionales regulaciones que carecen de base científica ­ las más modernas centrales nucleares (inauguradas a partir de 1984) producen electricidad a 7,6 centavos el Kw/h, aún por debajo del costo de quemar petróleo. De acuerdo a estadísticas de Mayo de 1989, la generación de electricidad por medio de centrales nucleares en el mundo estaba en los siguientes niveles: (25)

 

Francia: 70%; Bélgica: 65.5%; Hungría: 48.9%; Suecia: 46.9%; Corea del Sur: 46,9%; Taiwan: 41%; Suiza: 37,4%; España: 36,1%; Finlandia: 36,2%; Bulgaria: 35,6%; Alemania Occidental: 34%; Japón: 28,3% (hoy casi el 40%); Checoslovaquia: 26,7%; Estados Unidos: 20%; Gran Bretaña: 19,3%; Canadá: 17%; Argentina: 17%; Brasil: 24%; y Rusia: 12,6%.

 

Está muy difundida la creencia, inventada e impulsada por las organizaciones ecologistas, que los países del mundo están abandonando la idea de generar electricidad mediante la energía atómica, y que las centrales nucleares se van cerrando y no se piensan construir ninguna más porque resultan peligrosas. No hay tal cosa. Se trata de una más de las miles de mentiras e inexactitudes cotidianas que propalan las ONGs antinucleares del mundo. Es muy instructivo conocer la información real y comprobable sobre la cantidad de centrales nucleares que funcionan en el mundo, las que están construyéndose y las que se han planeado instalar en el futuro cercano.

Estados Unidos lidera la lista con 112 reactores en funcionamiento, aunque por el momento no tiene planeado instalar ninguno. En segundo lugar venía la ex Unión Soviética con 60 centrales en operación, 33 en construcción y 44 planeadas. Después de la intervención del FMI en la economía rusa, tanto las centrales planeadas como la misma economía del país se ven muy oscuras. Sigue Francia con 53 en operación y 17 más en construcción. Alemania del Este tenía 12 operando, mientras que Corea del Sur opera 6 y construye otras 6 más. Argentina tiene 2 en operación y construye otra, lo mismo que Brasil. Canadá, India, Pakistán, Bulgaria, y muchos países más completan la lista de 41 países que operan un total de 411 centrales nucleares. De la electricidad producida en el mundo, 1/6 corresponde a las plantas atómicas.

La electricidad producida atómicamente en todo el mundo desde Abril de 1986 hasta 1992, fue de más de 3 Billones de Kw/h. Si esta electricidad se hubiere generado mediante combustibles fósiles, se hubiesen requerido 500 millones de toneladas de petróleo o 1.000 millones de toneladas de carbón. Si se hubiere empleado solamente carbón, se habrían lanzado a la atmósfera unas 3.000 millones de toneladas de dioxido de carbono, 20 millones de toneladas de dióxido de azufre y 5 millones de toneladas de óxidos nitrosos.

  La Sinrazón del Terror Nuclear

Viendo y comprobando el positivo récord de operación segura, limpia y económica, ¿por qué existe tanta oposición a las centrales nucleares? Las principales objeciones parecen ser cuatro: (26)

1) Miedo a que se libere radioactividad al ambiente.2) Miedo a las consecuencias de un accidente grave. 3) La creencia de que existen mejores formas alternativas de producir electricidad. 4) Preocupación acerca del manejo y destino de los residuos.  

Cada una de estas objeciones merece ser analizada con cuidado. Con respecto a la emisión de radioactividad al ambiente es preciso saber que las centrales nucleares están estrictamente controladas y reguladas por diversos organismos estatales de cada país y que son inspeccionadas regularmente por la Comisión Reguladora Nuclear Internacional. Las emisiones radioactivas para las centrales no deben exceder los 5 milirems anuales, aunque la gran mayoría no llegan a emitir ni siquiera el 50% de esa cantidad (1 a 3 mrem/año).

Para poner estas liberaciones en la adecuada perspectiva, repasemos lo aprendido más arriba, y recordemos que la exposición a la radiación natural es en promedio de unos 350 mrem/ año; que una radiografía de tórax nos agrega 50 mrem/año; y que los pasajeros que vuelan a Miami reciben 5 mrem, exactamente la misma cantidad que se recibe al fumar un cigarrillo. Si usted fuma un paquete por día recibe 100 mrem diarios, lo que equivale a 35.600 mrem/ año. Las centrales nucleares de Embalse o Atucha le agregarán al ambiente menos de 1 mrem en el mismo período. Sin embargo, la Fundación para la Protección del Ambiente (FUNAM) de Córdoba, Argentina, seguirá aterrando a la población con declaraciones sensacionalistas, sin base científica valedera.

Para evaluar los «peligros apocalípticos» que presentan las centrales nucleares es bueno ir comparando los valores de radiación que existen en las centrales y las que nos afectan todos los días en nuestros hogares, en las oficinas, en la calle o en el campo mismo. La gente que vive en casas herméticas reciben mucha más radioactividad (a causa del radón atrapado, ya lo vimos antes) que las personas que viven cerca de las plantas atómicas y tienen casas normales.

  Un accidente grave

Las posibilidades de que esto ocurra, así como sus consecuencias, han sido exhaustiva-mente analizadas. Como los reactores atómicos no tienen ninguna posibilidad de explotar como una bomba atómica ­ no fueron diseñados para eso ­ lo peor que puede suceder es que se derrita el núcleo, provocando una intensa liberación de calor y radioactividad dentro del edificio del reactor.

Tal accidente ha ocurrido numerosas veces cuando se ha interrumpido, de alguna manera, el suministro de refrigeración al núcleo del reactor. Por esa razón existen varios, superpuestos y redundantes sistemas de seguridad para evitar (o minimizar) tal evento, y existe un sistema totalmente separado llamado Sistema de Emergencia de Refrigeración del Núcleo. Aún así, en algunos accidentes de este tipo se produjo la pérdida y derrame de combustible nuclear.

En estos accidentes se comprobó la importancia fundamental que tiene el llamado Edificio Contenedor. La radioactividad que escapó del reactor mismo fue contenida ­ en todos los casos ­ por las gruesas paredes del Edificio Contenedor. Se puede afirmar con absoluta seguridad que el resultado más importante de estos accidentes fue demostrar que los sistemas de seguridad de las centrales nucleares funcionaron mucho mejor de lo esperado. Ninguna criatura viviente resultó dañada por los accidentes y no se produjo ningún daño al ambiente. Los únicos daños fueron los materiales que sufrió el reactor.

Son accidentes costosos, pero sólo en dinero. Han servido para producir enormes avances tecnológicos en el diseño, operación y la seguridad de las centrales atómicas. ¿Pueden producirse más accidentes como estos en el futuro? Sin lugar a dudas, pero existe la total confianza de que cualquier radioactividad que escape del reactor quedará encerrada dentro del Edificio Contenedor, de donde será extraída y neutralizada.

Numerosos estudios de análisis de riesgos determinan que con la actual tecnología los riesgos de que ocurra un derretimiento de núcleo pueden darse 1 vez cada 20.000 años de operación de reactores. En el escenario comercial llevamos ya un poco más de 1.000 años/ reactor y unos 3.000 años/ reactor de operación de submarinos atómicos. Los estudios siguen estimando que 1 de cada 5.000 derretimientos provocará la liberación de radioacti-vidad al ambiente que causaría la muerte de 1.000 personas.

Poniendo estas cifras en perspectiva, debemos saber que la generación de electricidad por medio de carbón provoca 10.000 muertes anuales. Entonces, para que la energía nuclear fuese tan mortífera como las centrales a carbón, se deberían producir una inmensa cantidad de derretimientos de núcleos cada año. Como no se han producido, ni parece que se puedan producir nunca, ni tampoco han ocurrido muertes relacionadas con los derretimientos de núcleo, la energía nuclear es claramente mucho más segura que quemar carbón.

Por supuesto, es posible imaginar un accidente en el que mueran 50.000 personas, un accidente en el que absolutamente todo funcione mal y lo haga al mismo tiempo (La Ley de Murphy). Las probabilidades de que esto ocurra son de 1 vez en 1.000 millones de años/reactor. El Dr. Bernard Cohen, un físico de la Universidad de Pittsburgh y uno de los más sobresalientes expertos en análisis de riesgos del mundo, dice al respecto«Nadie que esté en su sano juicio se preocupa por eventos tan improbables».(27) Ahora bien, los dirigentes y activistas de Greenpeace están profundamente preocupados por el asunto y nos lo hacen saber de manera periódica cada vez que nos traspasan dos cosas: su paranoia nuclear y su pedido de colaboración en dinero efectivo. De acuerdo al Dr. Cohen no estarían en su sano juicio ­ o quizás ignoren realmente todo lo relacionado con la ciencia y el tema nuclear y sólo se han preocupado del aspecto emocional del asunto. Me inclino a creer que los dirigentes y activistas de Greenpeace no son ningunos ingenuos. No se llegan a recaudar más de 300 millones de dólares anuales, libres de impuestos, sólo con la ingenuidad.

 Fuentes alternativas de energía

De todas las alternativas propuestas, ninguna tiene tanto atractivo como la ener-gía solar. Después de todo, el Sol nos está enviando ­ gratis ­ inmensas cantidades de energía todos los días. ¿Por qué no aprovecharla? Sólo es necesario agacharse para recogerla, como parecen sugerir los ecologistas. Es algo que tiene mucho sentido y se está usando en todas partes del mundo en donde el Sol llega con la fuerza suficiente. Por desgracia ­ siempre existe un «pero» ­ la energía solar no es, hoy por hoy, la panacea que todo el mundo cree.

Primero está el asunto de que la cantidad de energía que cae por metro cuadrado de terreno es fija (se mide en watts/m2), no es uniforme, y no está disponible durante los días nublados ni durante las noches. Luego está el problema del bajo rendimiento de los paneles fotovoltaicos, el costo inicial de instalación, mantenimiento y reposición, etc.(28)

El calor del Sol, o energía termosolar, se usa para calentar agua para usos domésticos, pero un par de días nublados obligará a encender el calefón a gas. Aún con los grandes incentivos fiscales que existen en algunos países, el uso de los termotanques o calefones a gas natural siguen resultando más eficientes, más baratos y suministran agua caliente a toda hora del día, sin importar la cantidad de días nublados que estén ocurriendo. Hasta la fecha, los sistemas de almacenar el calor del Sol son caros e ineficientespor lo que estos sistemas no han conseguido imponerse por sus propios méritos ­ lo que sería algo realmente deseable. Sin embargo, la cruda realidad dice otra cosa.

A pesar de todo, en países tropicales con fuerte irradiación solar y elevadas temperaturas ambientales, estos sistemas se usan con alguna frecuencia y dan buenos resultados. También es posible producir electricidad a partir de Sol si ­ y aquí existe un enorme «si» ­ sólo se requieren unos pocos watts y no kilowatts o megawatts de potencia, y uno está dispuesto a pagar precios exhorbitantes por Kw de potencia instalado. En la vida real existe una relación costo/beneficio de la cual es muy difícil escapar o querer ignorar y la misma naturaleza, en sus infinitos procesos biológicos, químicos y físicos la usa y nos la ha impuesto.

El programa espacial de Rusia y los Estados Unidos son un ejemplo del uso adecuado de la energía solar. Los satélites en órbita tienen enormes paneles solares que les proporcionan la electricidad necesaria (aunque no se usaron para la sonda Galileo y otras que se enviaron a Júptier y más allá. En su lugar se usaron pequeños reactores nucleares). También se usan paneles solares para alimentar de electricidad a sensores, boyas y faros electrónicos, dispo-sitivos de grabación en lugares remotos e inaccesibles. Pero, cuando se requieren grandes cantidades de energía, como para usar en una casa artefactos domésticos como planchas, aspiradoras, hornos microondas, máquinas de lavar, freezers, tostadoras, cortadoras de césped, y luz en abundancia, etc, la energía solar ­ por desgracia ­ no resulta actualmente una alternativa viable.(29)

¿Por qué no? Primero, porque la luz solar es difusa. Para poder usarla como medio de producir electricidad es necesario concentrarla. Dos analogías nos ayudarán a comprender esto. Supongamos que usted quiere hacer hervir un litro de agua en una olla y todo lo que tiene es una caja de fósforos. No importa cuántos millones de fósforos utilice, si emplea el método de encenderlos uno por uno y ponerlos debajo de la olla, jamás logrará su intención. El calor que se aplica de esta manera es muy difuso. Aún si encendemos todos los fósforos de una caja juntos, esto no surtirá efecto porque la cantidad de calor generada en tan poco tiempo no es suficiente. Simplemente, no existe la cantidad de calor suficiente aplicada durante el tiempo adecuado para lograr elevar la temperatura del agua. Para conseguir la temperatura es necesario aplicar la energía de forma concentrada, y para ello es preciso usar combustibles de energía concentrada como el gas, la madera, el petróleo, etc.

La otra analogía es la favorita de muchos físicos y biólogos, porque demuestra de manera dramática la importancia de la energía concentrada. En biología existe el término «biomasa», que se refiere al total de material viviente en cualquier cuerpo o conjunto de cosas vivas. De esta forma, es posible comparar las biomasas equivalentes de especies diferentes. Por ejemplo, existe la misma biomasa en el cuerpo de un elefante que en 100 millones de pulgas.

Entonces, si queremos arrastrar un peso de una tonelada, ¿usaría usted a un elefante, o a 100 millones de pulgas? En el caso de las pulgas necesitaríamos comprar 100 millones de arneses para pulgas (a un costo que resultaría ridículamente desproporcionado) y luego, que todas las pulgas salten al mismo tiempo y en la misma dirección. Aquí, como en el caso de la energía solar, la naturaleza nos aplica el tema del costo/beneficio: la energía solar es demasiado difusa y, como las pulgas, resulta demasiado caro de organizar y concentrar.

Cuando ingresa a las capas superiores de la atmósfera, la energía solar es de unos 1000 watts/m2. Esto varía de una latitud a otra, con las estaciones, de día en día y de la mañana a la noche. No importa cuántos billones de dólares se inviertan en investigación, este hecho científico no cambiará. Está determinado por las leyes de la Física, incluida la energía entregada diariamente por el Sol.

A medida de que los rayos solares atraviesan la atmósfera, gran parte de ella va siendo absorbida y también rechazada de vuelta hacia el espacio exterior. Para cuando los rayos del Sol han llegado al suelo, ha perdido 2/3 partes de su energía, por lo cual sólo se miden unos 300 a 350 watts por metro cuadrado de superficie, a mediodía, en latitudes medias.

No hay manera de que el Sol brille con mayor intensidad, o de recolectar más energía de la que llega a tierra por m2. Por ello son necesarias superficies muy extensas de paneles termosolares o fotovoltaicos porque, para peor, los fotovoltaicos sólo recogen 70 watts por metro cuadrado de panel, es decir, tienen una eficiencia de apenas el 20%. Se trata de energía en forma de corriente continua de bajo voltaje, que requiere de concentradores solares, que pueden construirse usando espejos o lentes, pero que deben instalarse con motores eléctricos de manera que puedan rotarse e inclinarse siguiendo la trayectoria del astro rey. También se deben programar para acompañar al Sol en su trayectoria hacia el Sur y hacia el Norte de acuerdo a las estaciones. Esta es una manera muy tonta (por lo cara) de producir 70 watts de energía por metro cuadrado! Recuerde que esta potencia sólo se consigue a mediodía de un día soleado de verano, por lo que se hacen necesarios los sistemas de «back-up» o almacenamiento de la electricidad para las noches o los días nublados. Esto significan cientos o miles de baterías para almacenar la energía, baterías que tienen una vida limitada. Se gastan y a la basura -o a los caros sitios de reciclado. De modo que la energía solar también produce sus propios desechos, porque además de las baterías hay que reciclar obligadamente a los paneles solares que contienen arsénico bajo la forma de arseniuro de galio. Y no resulta precisamente barato!

Una planta solar gigante fue construida por la compañía de electricidad Southern California Edison, en Barstow, California. (30) Se llama Solar Uno, cubre 3,4 Km2 y cuenta con 92.900 m2 de espejos (11.818 espejos en total), cada uno manejado por computadora para apuntar siempre al Sol y reflejar sus rayos sobre la torre de agua de 100 metros de altura. Con algunos dispositivos de almacenamiento, Solar Uno puede generar 10 Megawatts/hora a un costo de 14.000 dólares por Kw de potencia instalado.

Esto es, más o menos, de 5 a 7 veces más caro que la más cara de las centrales nucleares que se haya construido alguna vez en el mundo. No es una alternativa económicamente viable. En días sin nubes, Solar Uno puede generar a potencia completa durante 8 horas en el verano, y sólo 4 horas diarias en el invierno. Suponiendo que todo vaya bien y que los espejos se mantengan limpios y bruñidos (¿cuánta gente limpiará tantos espejos?), la disponibilidad de energía de Solar Uno está entre el 17 y el 33%. Las centrales nucleares y las convencionales de petróleo y carbón tienen una disponibilidad que varía del 65 al 84%. En otras palabras, Solar Uno produce cerca del 1% de la electricidad de una central nuclear o una de petróleo, en una superficie cinco veces mayor y sólo funciona la cuarta parte del día. ¿Y el costo total? Una verdadera pichincha . . .

Cerca de ocho veces más cara que una central nuclear moderna. Aún sin tener en cuenta el asunto de la disponibilidad, la energía solar no resulta ninguna ganga debido a la prodigiosa cantidad de materiales necesarios para construir una central solar (más de 1.000 veces que para una nuclear de potencia similar), más los elevados costos de mantenimiento (mantener 11.818 motores eléctricos y limpiar 11.818 espejos, sin desalinearlos).

Para construir una planta solar de 1.000 MegaWatts son necesarios los siguientes materiales: 35.000 toneladas de aluminio, 2 Millones de toneladas de hormigón (500 veces más que para una central nuclear!), 7.500 toneladas de cobre, 600.000 toneladas de acero, 75.000 toneladas de vidrio y 1.500 toneladas de cromo y titanio. Al alcance de cualquier municipio de Bolivia . . .

Como la producción de cemento emite una considerable cantidad de CO2 a la atmósfera, la central solar de Barstow contribuyó a ello 500 veces más que si se hubiese construido una central nuclear de la misma potencia. Para peor, uno de los técnicos de la planta Barstow reveló que en base a sus rendimientos anuales, la planta solar era una neta consumidora de electricidad, es decir, la planta no producía ni siquiera la electricidad que necesitaba para funcionar! Por desgracia, este hecho sólo se descubrió después de que la planta ya estaba construida . . .(31)

El 31 de Agosto de 1986 Solar Uno resultó seriamente dañada por una explosión y por el fuego resultante. Los 960.000 litros de aceite mineral de los transformadores eléctricos se incendiaron y quemaron todo.(32) Se usó aceite mineral porque la EPA había prohibido el uso de los PCB, producto sintético que reemplaza con infinitas ventajas al aceite mineral en numerosas aplicaciones industriales, aduciendo que se trata de un producto cancerígeno. La EPA y su legión de seguidores se empecinan en seguir ignorando a las evidencias científicas y los mensajes de la realidad cotidiana.

 La Generación Fotovoltaica

La conversión de luz solar en electricidad puede conseguirse de manera directa por medio de paneles fotovoltaicos ­ los «paneles solares». Cualquiera sea el método de conversión utilizado, calor o fotovoltaico, la superficie necesaria es enorme. Para una planta de 1000 Megawatts son necesarios unos 129,5 Km2. Compárese esta superficie con las 30 a 70 Há necesarias para una central nuclear o una de petróleo o carbón de igual potencia.(33) Supongamos que las 8 millones de personas del Gran Buenos Aires tuviesen que usar electricidad fotovoltaica: para producir los 7.000 Megawatts que serían necesarios, la planta solar tendría que tener 906 Km2una superficie mayor que la ciudad misma!

Aunque los costos de las células fotovoltaicas han bajado desde $ 10 por watt pico a princi-pios de los 80, hasta $ 3 por Watt pico, el costo sigue siendo elevado. El costo de una unidad solar hogareña en oferta por Photocomm, Inc. es de $ 7.377, y proporciona 4 Kw/h. Un generador eléctrico Diesel MWM/Leroy de 43 Kw/h cuesta unos $15.000 o menos. Para una potencia similar a la fotovoltaica, un generador Honda de 5 Kw/h vale $ 650 y tiene la ventaja de funcionar durante todo el día, sin interrupciones.

En resumen, existen aplicaciones adecuadas para la energía solar, pero ninguna de ellas incluye la producción de grandes cantidades de energía. Por otro lado, las células y paneles fotovoltaicos requieren una considerable cantidad de energía para su fabricación, y también requieren de materiales tóxicos, desde cadmio hasta ácido fluorhídrico. Si a esto le agregamos los grandes problemas de mantenimiento que nacen de mantener limpios de polvo y películas grasosas a los espejos, paneles y lentes colectoras, se hace evidente que la energía solar es una de las formas menos seguras de producir electricidad.(34)

En los Estados Unidos ­ país que tiene estadísticas para todo ­ la segunda causa de muerte por accidente son las caídas (20.000 muertes anuales; los accidentes de autos son número uno con 50.000 muertes/año), y dado que la limpieza de los paneles y colectores solares implica subirse a techos y estructuras elevadas, la energía solar es físicamente mucho más peligrosa. Los estudios de análisis de riesgo consideran que las centrales solares de generación eléctrica son más peligrosas que las centrales nucleares o las plantas convencionales de petróleo. (35)

Existen numerosas unidades de energía solar desparramadas por los Estados Unidos. En su mayoría, estas plantas fueron clausuradas por sus dueños porque su costo y mantenimiento representan un verdadero dolor de cabeza –impedir las fugas de las cañerías, o mantener libres de polvo a los colectores (los adorados pájaros de los ecologistas tienen una especial habilidad para ensuciar los espejos y paneles).

Lo cierto es que no tenemos que abrigar esperanzas de que la energía solar nos provea más que pequeñas cantidades de energía para regiones remotas, donde llevar una línea de alta tensión resulta prohibitivo. Muchos de nosotros vemos a la energía solar como vemos a un niño inválido. Podemos amarlo profundamente, pero muy dentro nuestro sabemos que jamás será un Maradona.

  Molinos de Viento Para Ecologistas

Lo mismo que la energía solar, la energía generada por los molinos de viento también proviene, en última instancia, del Sol porque es éste quien pone a la atmósfera en movimiento. Lo mismo que la energía solar, los molinos de viento tienen aplicaciones legítimas e importantes en algunos casos y para ciertos propósitos. Durante siglos se han usado para bombear agua o para moler trigo y cereales; y cuando son ubicadas en regiones de vientos muy persistentes, como las costas Holandesas y el medio oeste norteamericano, sirven muy bien para esos efectos. Pero cuando se pretenden generar grandes cantidades de electricidad se presentan muchos y serios problemas.

En áreas remotas y ventosas, donde resulta impráctico o imposible el tendido de líneas de media y alta tensión, los molinos de viento pueden producir modestas cantidades de corriente si se dan vientos favorables que soplen de manera sostenida a unos 24 Kmph. (36) En el campo argentino se han usado de manera tradicional y extendida los molinetes generadores montados en los techos de las casas. Los vientos de las pampas son ideales para ello. Sin embargo, la corriente obtenida debía almacenarse en una o varias baterías de automóvil o, si se deseaba un amperaje mayor, en una serie de acumuladores en paralelo que elevaba los costos de instalación y mantenimiento de manera considerable.

Los artefactos eléctricos debían ser obligadamente, de corriente continua. Para transformar la corriente continua en alterna debían instalarse costosos conversores de corriente que dejaban afuera a la inmensa mayoría de los usuarios. Por eso, la prioridad de algunos gobiernos progresistas (muy pocos, por desgracia) fue la electrificación del campo mediante el tendido de redes de líneas de alta tensión, haciendo accesible a los agricultores y chacareros el uso de mayores y más baratas cantidades de electricidad.

Durante las últimas décadas, se hicieron en el mundo sustanciales esfuerzos para desarrollar la tecnología de molinos de viento para producir electricidad, llegándose a conseguir hasta Megawatts de corriente. La mayoría de estos esfuerzos fracasaron, lamentablemente, y fueron abandonados. Algunos de los proyectos más representativos en la generación de energía por medio de molinos de viento son los siguientes:

 

1) La Southern California Edison, derrochando u$s 30.000.000 del dinero de los pobres contribuyentes, construyó un molino de 2 MW que tenía hélices con aspas de 30 metros de largo. Casi nunca logró funcionar y en 1983 se vendió como chatarra por u$s 51.000. (37)

2) En Alameda County, California, en el famoso Paso Altamont, se instalaron 7.000 molinos de viento (que son hoy una atracción turística y una pobre fuente de orgullo para los ecologistas). Cuando los molinos funcionan provocan un ruido tan grande y molesto (para peor, grandes niveles de ondas subsónicas, altamente nocivas para la salud) que los operadores del proyecto tuvieron que establecer un fondo para comprar las tierras de los vecinos que demandaban. Uno de los afectados dijo«Se podía oír ese batido rugiente y silbante por poco tiempo antes de volverse uno loco furioso.» Muchos de los 7.000 molinos no funcionan más. Los problemas de mantenimiento se hicieron muy severos.

Hay que considerar que los vientos nunca soplan de manera uniforme y sostenida, sino que lo hacen en rachas de fuerza variable. Esto contribuye a hacer más desagradable todavía al ruido y aplica severas tensiones a las riostras y cables tensores (38). Para empeorar las cosas, un gran número de aves, incluidas las águilas y halcones, mueren al atravesar el campo y ser impactadas por las enormes hélices.

Varias «granjas» de molinos experimentales en Carolina del Norte y Vermont fueron cerradas a causas de las quejas de los vecinos por el ruido excesivo. Sin embargo, a pesar de tanta experiencia descorazonante, la industria privada ha tenido bastante éxito desarrollando pequeños generadores (17 a 60 Kw/h) que son confiables y económicos. Existen en California unos 17.000 de estas turbinas. En el Paso Altamont, donde la compañía U.S. Windpower opera unos 3.400 molinos de 100 Kw/h cada uno.

La energía solar, la eólica, la geotermal, la fotovoltaica, la quema de madera y biomasa proveen menos del 1% de la energía que se consume en los Estados Unidos y demás países industrializados. No parece, por el momento, que estas cifran puedan variar mucho en el futuro. El ejemplo de lo que sucede y sucederá en el país del norte debería ser muy cuidadosamente estudiado por quienes declaman estar preocupados por el ambiente y por el futuro de la Humanidad. El remedio que proponen puede resultar peor que la enfermedad. . .

Los Estados Unidos se enfrentan al hecho que más del 99% de su electricidad proviene de tres fuentes: quema de combustibles fósiles, diques y represas, y centrales nucleares. La energía hídrica es de sólo el 4% al 6% del total, y es muy difícil que pueda aumentarse sustancialmente en el futuro por problemas geográficos y ecológicos. Ello deja a la energía nuclear con aporte del 20% y la quema de combustibles fósiles con un 75%. En este último rubro, la quema de carbón se lleva el 60% y deja 15% al petróleo y al gas natural. Dado que en el mundo entero el carbón y la energía nuclear son los principales productores de electricidad, es instructivo y muy importante comparar las consecuencias ambientales de cada uno. (39)

 ¿Carbón o Nuclear?

Primero, al comparar los efluentes de una planta de carbón de 1000 Megawatts eléctricos (MWe) con los de una central nuclear de igual potencia, se ve que la planta de carbón produce dióxido de carbono (CO2) a una tasa de 250 Kg por segundo, o 7 Millones de toneladas anuales. La central nuclear no produce nada. El carbón produce óxidos de azufre (SOx) a razón de 1 tonelada por minuto, o 120.000 ton/año. La central nuclear, nada. El carbón produce óxidos de nitrógeno (NOx) equivalentes a 200.000 autos: 20.000 ton/año. La central nuclear, una vez más, cero. La planta de carbón produce humo, cuyas partículas más grandes son filtradas (en los Estados Unidos y partes de Europa), pero las pequeñas y más peligrosas son dispersadas alegremente a la atmósfera.

La central nuclear, no produce humo o emisión alguna de partículas. Las plantas de carbón generan más de 40 compuestos orgánicos diferentes que se liberan a la atmósfera sin ningún tipo de control. La central nuclear, otra vez, y esto ya se hace repetitivo, cero. Por último, y dado que el carbón contiene algo de uranio, radio y torio, las plantas de carbón liberan cantidades de radioactividad al ambiente que no se monitorean. El único elemento radioactivo que emiten las centrales nucleares es el Kripton-85, un gas noble inofensivo que se libera bajo el más estricto control técnico y científico.

Vayamos ahora a los residuos sólidos: una planta de carbón produce 500 Kg/minuto, o 750.000 ton/año. La cantidad de combustible atómico quemado de una central nuclear es de sólo 50 ton/año. Las cenizas del carbón, además de ser radioactivas, contienen sustancias tóxicas como arsénico, plomo, cadmio y mercurio, que permanecen venenosas para siempre. Estas sustancias son liberadas a la atmósfera sin ningún control.

La gente no se preocupa ni se asusta por esto porque piensa «son sólo cenizas, como las que quedan en mi parrilla después del asadito». El combustible nuclear quemado queda depositado bajo severísimos controles de seguridad. La cantidad de carbón que requiere una central de este tipo es de 38.000 vagones de ferrocarril por año, o 3 Millones de toneladas.

La central nuclear se abastece con 6 camiones de 50 toneladas. Ese peso incluye a los pesadísimos contenedores de seguridad utilizados para impedir que la radioactividad se libere al ambiente. La ausencia total de efectos ambientales de la energía nuclear reside en que el proceso no involucra reacciones químicas, y opera bajo el principio de guardar cuidadosamente a los residuos, y no de dispersarlos descuidadamente al ambiente.

El calor generado por una central nuclear (conocido como la «descarga térmica») y que se libera al ambiente, es del mismo tipo que generan las centrales de carbón y puede usarse inmediatamente para fines útiles, como ser, para calentar casas e invernaderos. En Suecia, el vapor resultante de los condensadores de vapor se ha usado desde hace mucho para calentar hogares y edificios. En Suiza se ha diseñado un nuevo tipo de reactor pasivo, llamado Geyser,(40) con el objeto de calefaccionar casas de familia y edificios de oficinas.

Se ha propuesto que el reactor canadiense Slowpoke, de 10 Mwe sea usado para calentar a todo el campus de la Universidad de Saskatchewan.(41) Algunas plantas nucleares del mundo descargan su calor sobrante directamente al agua de ríos y lagos, donde el leve aumento de la temperatura ha demostrado resultar beneficioso para los peces y otras formas de vida acuáticas, incluída la microflora bacteriana. En la estación de Turkey Point, en la Florida, el agua entibiada es usada como área de alimentación de los caimanes de la zona, que parecen preferirla a la de zonas más alejadas.

Dado que muchos de los residuos provenientes de las plantas de carbón son aéreos, su destino final tiene lugar en el suelo, el agua y, por supuesto, en nuestros pulmones. Estudios de riesgo comparativos han demostrado que los efectos de la quema de carbón provoca unas 50.000 muertes anuales. La energía nuclear, otra vez, cero

 El Sentido Común

Considerando la claras ventajas económicas y de salubridad de las centrales nucleares, ¿por qué es tan precaria la situación de la energía nuclear en algunos países como Estados Unidos, Suecia y Alemania? (42) Al público se le informa de manera constante que en los Estados Unidos no se ha ordenado ninguna nueva central atómica en la última década. Curiosamente, no se le informa que tampoco se han ordenado nuevas centrales a carbón o petróleo, ni tampoco se han construido nuevos diques. Sólo se han construido muy pocas centrales a gas natural, muy baratas de mantener, aunque un poco más caras de erigir.

También se bombardea al público con la información de las 5 o 6 centrales que han tenido problemas técnicos, pero jamás se le dice nada de los cientos de otras que siguen funcionando de manera segura y eficiente. Como consecuencia de la experiencia ganada a lo largo de los años, se han conseguido adelantos técnicos increíbles que permiten tener hoy una fuerza de tareas excelentemente entrenada y una mejor comprensión de los fenómenos fundamentales, como las fisuras de corrosión por tensiones. Se practican análisis de riesgo y los resultados se usan para corregir los problemas potenciales.

El problema de la energía nuclear, los reactores y sus residuos no reside en sus posibilidades técnicas sino en la tremenda lucha burocrática que hay que vencer en cualquier cosa que se refiera a la energía nuclear para usos pacíficos. El tiempo pasa, los problemas y requerimientos de energía limpia son cada vez más acuciantes . . . y la clase política sigue con su inveterada postura de no dar soluciones al problema.

 
Referencias
  1. Cobb, Charles E., Jr., 1989, «Living With Radiation» National Geographic, Abril 1989, pp. 403-437.
  • Eisenbud, Merrill, 1987, Environmental Radioactivity From Natural Industrial and Military Sources, Academic Press, 1250 Sixth Ave. San Diego, CA 97101
  • Cohen, Bernard L., 1981, «How Dangerous is Radiation?» AECL Ascent, Vol. 2, No. 4, 1981, pp. 8-12
  • Cohen, Bernard L., 1982, «The Genetic Effects of Natural Radiation,» AECL Ascent, Vol. 3, No. 3, 1982, pp. 8-13.
  • Wagner, Henry N., Jr., y Linda E. Ketchum, Living With Radiation – The Risk, The Promise, Johns Hopkins University Press, 701 West 40th St., Baltimore MD 21211
  • Moghissi, A. Alan, editor, 1978, Radioactivity in Consumer Products, USNRC, NUREG/CP-0003
2. Beckmann, Petr, 1986, «Iodine 131 and Chernobyl», The American Spectator, Julio 1986 3. Marshall, Walter (Lord Marshall of Goring), 1986, «Nuclear Power: Energy of Today and Tomorrow,»ENC International conference, Junio 2, 1986. 4. Young, Alvin L., y George P. Dix, 1988, «The Federal Approach to Radiation Issues Environmental Science and Technology, Vol. 22, No. 7, pp. 733-739.
  • Grant, r. W., 1988, «Radiation Exposure by Source, » en Trashing Nuclear Power, p. 33ff, Quandry House, Box 773, Manhattan Beach, CA 90266
5. Luckey T.D., 1980, Hormesis and Ionizing Radiation, p. 16, CRC Press, Inc. 2000 NW 24th St., Boca raton, Fl 33431
  • Eisenbud, Merrill, 1987, op. cit., p. 160
  • Lapp, Ralph E., 1979, The Radiation Controversy, Reddy Communications, Inc. 537 Steamboat Road, Greenwich, CT 06830
  • Cohen, Bernard L., 1983, Before It’s Too Late, ver especialmente el capítulo 2: How Dangerous Is Radiation?,» Plenum Press, New York y Londres.
  • Beckmann, Petr, 1990, «Death From Outer Space,» Access to Energy, Vol. 17, No. 8, 1990.
6. Cohen, Bernard L., Before It’s Too Late, 1983, op. cit.
  • Luckey, T.D. 1980, op. cit.
7. Beckmann, Petr, 1982, Access to Energy, Vol. 9, No. 5, Box. 2298, Boulder, CO 80306 8. . Eisenbud, Merrill, 1987, op. cit.
  • Beckmann, Petr, 1985, The Health Hazards of NOT Going Nuclear, Golem Press, Box 1342, Boulder, CO 80306
  • Cohen, Bernard, L., 1988, Health Effects of Low Level Radiation, informe del American Council on Science and Health, 47 Maple St., Summit, NJ 07901
9. Eisenbud, Merrill, 1987, op. cit. 10. Ibid. 11. Cohen, Bernard, L., 1983, op. cit. 12. Pirchman, A. 1932, «Working Miners and Lung Cancer at Joachinosthal,» American Journal of Cancer, 1932. 13. Ray, D. L., 1986, «Who Is Radon and Why Are His Daughters So Bad?,» World Media Report, Invierno 1986.  
    • Thomas, Ron, 1989, «Radon’s Troublesome Daughters Stir Up Cotroversy,» AECL Ascent, Vol. 8, No. 2, verano 1989.
    • Brookes, Warren T., Radon Terrorism Unleashed by EPA, The Washington Times, 29 Junio 1989
    • Brookes, Warren T., «Radon: Anatomy of Risk-Hype,» The Detroit News, 5 de Marzo, 1990.
14. Nero, A.V. et al.,1986, «Distribution of Radon 222: Concentration in U.S. Homes,» Science, 21 Nov. 1986, pp. 992-997.
 
    • Nero, A.V. 1988, «Controlling Indoor Pollution,» Scientific American, Mayo 1988
    • Lapp, R.E. 1989, Radon Health Effects?, panel del radón, encuentro del Health Physics Society, Albuquerque, NM, 29 Junio 1989
16. Brundage, J.F. et al., 1988, «Building-Associated Risk of Febrile Acute Respiratory Ilness in Army Trainees,» Journal of the American Medical Association, Abril, 8, 1988, pp. 2108-2112.
 
    • Marcus, Amy Dockser, 1989, «In some Workplaces, Ill Winds Blows,» The Wall Street Journal, Octubre 9, 1989.
    • Lawrence, Henry J., 1989, «Is Your Office Out To Kill You?, Seattle Post-Intelligencer, Agosto 14, 1989.
    • Holzman, David, 1989, «Elusive Culprits in Workplace Ills,» Insight, Junio 26, 1989
17. Efron, Edith, 1984, The Apocalyptics, Capítulo 12, «The Case of the Missing Thresholds,» p. 344, Simon & Schuster, Inc., Rockefeller Center, 1230 Ave. of the Americas, NY 11020.
 
    • Luckey, T. D., 1980, Radiation Hormesis, op. cit.
18. Ibid.
 
    • Cohen, Bernard L.,1987, «Tests of the Linear No Threshold Dose Response Relationship for High LET Radiation,» Health Physics, Vol. 52, No. 5, pp. 629-636, Mayo 1989.
    • Sagan, Leonard A., 1987, «What Is Hormesis and Why Haven’t We Heard About It Before?,» Health Physics, editorial, Vol. 52, No. 5, pp. 521-525, Mayo 1987.
    • Fremlin, J., 1989, «Radiation Hormesis,» Atom, Londres, Abril 1989.
    • Luckey, T.D., 1988, «Hormesis and Nurture With Ionizing Radiation,» en Global 2000 Revisited, Hugh Ellsaesser, editor, Paragon House, 1988.
19. Carta de Marshall Brucer a la revista TIME, citada en Access to Energy, Vol. 16, No. 7, Marzo 1989. 20. Luckey, T.D., 1988, op. cit. 21. Fleck, C.M., H. Oberhummer, y W. Hoffmann, 1987, Inference of Chemically and Radiologically Induced Cancer at Environmental Doses, IV International Symposium on the Natural Radiation Environment, Lisboa, Portugal, 7-11 Diciembre 1987 22. Cohen, Bernard L., 1989, «Lung Cancers and Radon: Hormesis at Low Levels of Exposures in American Homes,» Access to Energy, Vol. 16, No. 9, 1989.
 
    • Cohen, Bernard L., 1989, «Expected Indoor Radon-222 Levels in Counties with Very High and Very Low Cancer Rates,» Health Physics, Vol. 57, No. 6, Diciembre.1989, pp. 897-906
23. Beckman, Petr, 1979, The Health Hazards of NOT Going Nuclear, Golem Press, Box 1342, Boulder, CO 80306.
 
    • Cohen, Bernard L., 1983, Before It’s Too Late: A Scientist’s Case FOR Nuclear Power, Plenum Publishing, 233 Spring St. New York 10013.
    • Grant, R. W. 1988, Trashing Nuclear Power, Quandary House, Box 733, Manhattan Beach, CA 90266.
    • McCracken, Samuel, 1982, The War Against the Atom, Basic Books, Inc. New York.
24. Informes del U.S. Council on Energy Awareness, P.O. Box 66103, Dept. P.C. 14, Washington, DC 20035. 25. Bee, Jim, 1988, Editorial «The Battle for Public Acceptance,» AECL Ascent, Vol. 7, No. 3, p. 3.
    • Cohen, Karl, 1984, «Nuclear Power,» Capítulo 14, en The Resourceful Earth, editores Julian L. Simon y Herman Kahn, Basil Blackwell, Inc., 432 Park Ave. South, Suite 1505, New York 10016
26. Wargo, J. R.,1988, «Here They Come Again: A Wretched Win-Loss Record Fails to Daunt the Opposition.» Nuclear Industry, Marzo/Abril 1988, pp. 62-66.
   
      • The Comparative Risks of Different Methods of Generating Electricity, declaración política de la American Nuclear Society, ANS Document PPS-3, Octubre de 19879.
 
    • Energy and the Environment, 1989, estudio sobre la posición general de la American Society of Mechanichal Engieneers, Julio de 1989.
27. Cohen, Bernard L., 1990, The Nuclear Energy Option: The Alternative for the 1990s, Plenum Publishing, 233 Spring Street, New york 10013. 28. McGaw, Jim, 1989, «Energy and the Environment: A Precarious Balance; What Are the Alternatives?,»AECL Ascent, Vol. 8, No. 1, Spring 1989, p. 27. 29. Moore, Taylor, 1989, «Thin Films: Expanding the Solar Marketplace,» EPRI Journal, Marzo 1989, pp. 4-15.
 
      • Beckmann, Petr, 1980, «Solar Electricity and Economics,» Access to Energy, Vol. 7, No. 7, Marzo de 1980.
      • Grant, R. W., 1988, «The Solar Alternative?,» in Trashing Nuclear Power, p. 88, Quandry House, Box 773, Manhattan Beach, CA 90266.
      • Inhaber, Herbert, 1979, «Risk With Energy From Conventional and Non-Conventional Sources,» Science, Vol. 203, 23 Febrero 1979, pp. 718-723.
 
    • «Medical Perspectives of Nuclear Power, « 1989, Informe del Consejo, Journal of the American Medical Association, Vol. 262, Nov. 17, 1989, pp. 718-723.
30. Grant, R.W., op. cit., p. 91.
 
    • Beckmann, Petr, «Solar Electricity: SOLAR ONE,» Access to Energy, Vol. 9, No. 10, Junio 1982.
31. Dr. Fox, Michael, 1989, «The Truth About Solar Energy: It Costs Too Much», 21st Century Science & Technology, July-August 1989, pp.20-23. 32.«Fire in Southern California Edison’s SOLAR ONE,» Access to Energy, Vol. 17, No. 7, Marzo 1990. 33. Grant, R.W., op. cit. p. 90. 34. Cohen, Bernard, L., 1983, «The Solar Dream,» Capítulo 9, en Before It’s Too Late, op. cit. 35. Inhaber Herbert, 1983, Energy Risk Assessment, Gordon & Breach, 1 Park Avenue, New York 10016. 36. MacIntyre, Linden, 1981, «Wind Power, Applications in the Gulf of St. Lawrence,» AECL Ascent, Vol. 3, No. 1, 1981, pp. 8-13.
 
    • Schaefer, John, 1989, «Wind Systems,» EPRI Journal, Julio/Agosto 1989, pp. 49-51.
37. Informado en Access to Energy, Vol. 11, No. 2, Octubre 2, 1983. 38. Access to Energy, Vol. 10, No. 12, Agosto 1983. 39. Ackerman, Bruce A. y W.T. Hassler, 1981, Clean Coal, Dirty Air, Yale University Press, 92-A Yale Station, New Haven, CT 06520.
 
    • Beckmann, Petr, 1979, The Non-Problem of Nuclear Wastes, Golem Press, Box 1342, Boulder, CO 80306.
    • Wilson, R., S.D. Colome, J.D. Spengler, y D.G. Wilson, 1980, Health Effects of Fossil Fuel Burning, Ballinger Publishing, Cambridge, MA.
    • Cohen, Bernard L., 1990, «Hazards of High Level Radioactive Waste­the Great Myth,» Capítulo 11, en The Nuclear Option: The Alternative for the 1990’s», Plenum Publishing, New York.
40. Vecsy, G. y Doroszlai, P.G.K., A Simple New Heating Reactor og High Inherent Safety, informe presentado en la reunión conjunta de la American Nuclear Society, la Swiss Section of Nuclear Society, el Public Forum, Nuclear Energy Today and Tomorrow, en Zurich, Suiza, Agosto 1987. 41. Duffy, John Q., 1981, «Slowpoke: The Little Reactor That Can.» AECL Ascent, Vol. 3, No. 1, pp. 22-26. 42. Warren, Anita, 1989, «That Powerless Feeling,» Nuclear Industry, primer cuatrimestre 1989, pp. 10-17.
 
    • Ray, Dixie Lee, 1988, «Why Doesn’t the Public See It the Way We Do?,» en la International Conference on Enhanced Safety of Nuclear Reactors, School of Engineering and Applied Science, George Washington University, Agosto de 1988.
    • Cherner, Sara, 1988, «Yeoman Service: They Say Good News Is Not News; That’s Why You Don’t Hear Much About Nuclear Plants That Perform Well,» Nuclear Industry, Juio/Agosto 1988, pp. 34-40.

Capítulo 4 - Los residuos nucleares

  • Una Paranoia Desenfrenada  Los Barcos de la Muerte

    Este tema podría catalogarse como el Paradigma de los Eco-Fraudes. No existe ningún otro aspecto de la ciencia nuclear que haya dominado e influenciado la visión negativa de la energía nuclear como lo ha hecho el tema de los residuos nucleares. Esto es realmente irónico, puesto que, en verdad, no existe ningún problema técnico ya sea para manejar a los residuos nucleares, como para su procesamiento o reciclado ­ que es la mejor y más eficiente forma de eliminar la mayor cantidad de radioactividad del combustible quemado. El público «cree» que el problema de los residuos nucleares no ha sido resuelto y ello no tiene nada que ver con la más cruda realidad científica. La visión errónea del asunto es constantemente impulsada por los críticos y opositores a la energía nuclear, abanderados en este momento por la extremista organización ecologista Greenpeace.(1)

    Esta organización dedicada a la exterminación de la energía nuclear y todo lo que se relaciones con ella, lanzó una campaña tan feroz contra los viajes de los barcos Akatsuki Maru y el Pacific Pintail ­ que llevaban una carga de plutonio con destino a Japón ­ que es necesario que se conozcan todos los detalles que rodean al caso, para llevar tranquilidad a la gente común que está aterrorizada, porque lo ignora todo sobre el tema nuclear.

    Greenpeace ha estado durante años conduciendo virulentos ataques contra las centrales nucleares del mundo occidental, siguiendo precisas instrucciones de poderosos intereses geopolíticos que se remontan a la corona británica y a su «alma mater», el World Wide Fund for Nature, el famoso WWF fundado por el príncipe Felipe de Edimburgo, consorte de la reina Isabel II de Inglaterra.(2)

    En las campañas de prensa impulsadas por Greenpeace ha brillado por su ausencia la voz de la ciencia, ya sea en el tema nuclear como en lo relativo a los demás asuntos como el Agujero de Ozono, el Efecto Invernadero, la dioxina, la deforestación de las selvas, los pesticidas y muchas otras importantes cuestiones del ambiente. Dado que Greenpeace hizo escuchar su palabra de manera exagerada, es hora que oigamos a la voz de la ciencia.

      Hechos comprobados

    Cuando se informa sobre algún tema y sólo se muestran aquellas partes que, una vez deformadas sirven para apoyar una teoría y se ocultan aquellas que demuestran que esa teoría es falsa, el informante comete un fraude que, en muchos campos de la actividad humana, está penalmente castigado. Sin embargo, en materia ecología, esta costumbre está tan extendida y sus consecuencias han resultado tan perjudiciales para todas las actividades de la humanidad, que resulta sorprendente, a primera vista, que la justicia no intervenga con mayor frecuencia para castigar a los culpables. Veamos entonces qué es lo que no dice Greenpeace , para saber por qué sus campañas de alerta ecológica no son más que un fraude total.(3)

    Greenpeace dice que, en caso de que los barcos de transporte nuclear se hundan en el mar, el plutonio que lleva «envenenará» durante miles de años los océanos, causando una hecatombe ecológica. No hay tal cosa. Las reglamentaciones internacionales que rigen en la materia de transporte de residuos y materiales radioactivos son extraordinariamente rigurosas, y producto de extensas investigaciones y pruebas científicas que han conseguido eliminar de manera total cualquier riesgo de que los radionucleidos de los productos transportados pueda escapar al exterior de los contenedores.(4)

    Los residuos nucleares, ya sean que provengan de las centrales nucleares o de la actividad médica, han sido clasificados en tres categorías, de acuerdo al nivel de radioactividad que contengan. Estas categorías son: Residuos de Bajo Nivel (RBN), Residuos de Alto Nivel (RAN) y Residuos Transuránicos (RTU). Vamos a considerar a cada una de estas de manera separada, comenzando por los RBN o de bajo nivel. Estos residuos comprenden sólo al 1% de la radioactividad de todos los residuos nucleares del mundo, pero son, sin embargo, el 99% de su volumen. (5)

    Los RBN son aquellos residuos que tienen una actividad por debajo de 0.01 curies/kg. Esto es como 1.000 Millones de veces menos radioactividad que la que tienen los residuos de alto nivel. Los residuos de bajo nivel provienen principalmente de la actividad industrial ­ por ejemplo, ensayos no destructivos que, junto a los residuos de origen médico y de investigaciones académicas y científicas toman cuentan del 46%, en volumen, de todos los residuos nucleares. Los restantes 56% (en volumen) vienen de las centrales nucleares y ello incluye a los nucleidos radioactivos solidificados que se extraen del agua de refrigeración, ropas protectoras y materiales de limpieza.

    Sin importar de donde provengan, todos los RBN son sólidos o deben ser solidificados y adecuadamente empacados antes de ser enviados a su lugar de almacenamiento. Existen en Estados Unidos tres lugares que han estado en uso por muchos años: uno en Carolina del Sur, otro en Nevada y el tercero en el estado de Washington. Estos lugares se llaman «repositorios nucleares» y no «basureros, como a la gente de Greenpeace les gusta llamarles. El término «basurero» está aplicado con la más pura y aberrante mala fe posible, dado que con ello se pretende hacer creer a la gente que los residuos nucleares serán arrojados allí, a cielo abierto, de la misma forma que las municipalidades de muchos pueblos los hacen con la basura domiciliaria, para que se pudra y se convierta en tierra otra vez. La gente cree entonces, que la radioactividad saldrá a chorros de los muy mal llamados «basureros» nucleares. No hay tal cosa, pero Greenpeace jamás se lo dirá al público …mataría a la Gallina de los Huevos de Oro!

    En todos los casos, los contenedores de residuos RBN son rigurosamente inspeccionados, monitorizados y colocados en trincheras o profundos pozos de enterramiento. Se están construyendo nuevos repositorios nucleares en Estados Unidos, en Nebraska, California, Nueva Inglaterra, Illinois y en el Sudoeste, New Mexico y Nevada (Yucca Mountain) bajo leyes que permiten a los estados formar cooperativas para hacerse cargo de sus residuos de bajo nivel y reducir así al mínimo su transporte.

      Más Leyes Tontas

    Como la mayoría de las leyes, las reglamentaciones que rigen a los RBN contienen graciosas (o estúpidas?) anomalías. Algunos productos radioactivos están exceptuados (¿por qué?, usted dígamelo). Los detectores de humo, por ejemplo, no están obligados a enviarse a los repositorios, aunque su operación depende del americio, un elemento bien radioactivo. También están exceptuados de esta reglamentación los diales de relojes luminosos e instrumental de aviones, que por lo general contienen tritio. También se exceptúa a las «camisas» de las lámparas de gas y kerosene de la marca Coleman, aunque se sabe que contienen torio.

    Sin embargo, en el campo de la medicina nuclear, todo es considerado residuo nuclear: jeringas y agujas, tubos, sondas, contenedores de plástico y de vidrio, gasas, guantes, aún los delantales médicos que hayan estado en contacto con algún isótopo. Considérese que, para diagnosticar o tratar a un paciente de tiroides, el 99% del Iodo-131 radioactivo queda dentro del cuerpo del paciente, mientras que el restante 1% queda atrapado en la aguja o sonda y se convierten en residuos radioactivos RBN. El Iodo-131 tiene una vida media de 8 días; no queda para siempre dentro del paciente sino que es expulsado de manera natural: a través de la orina. Sin embargo, a los pacientes no se les obliga a «vaciarse» en algún recipiente especial hasta que todo el Iodo-131 haya desaparecido, sino que a nadie le importa que vaya a parar al sistema público de cloacas o pozos ciegos. ¿Es peligroso esto? font face=»Verdana» size=»2″ color=»#ff0000″Para nada, simplemente porque se diluye de tal manera que no causa ningún trastorno. Si eso pasa con el 99% del Iodo-131, entonces ¿por qué preocuparse del 1% contenido en los «residuos» médicos? Las reglamentaciones provienen, muchas veces, del recóndito terreno de la estupidez … allí donde viven los burócratas y los políticos que declaran alguna región o ciudad «zona no nuclear».

    Más todavía, el cuerpo humano mismo contiene radioactividad, más o menos 0.1 microcuries de Potasio-40 y 0.1 microcuries de Carbono-14. De acuerdo a las leyes que gobier-nan al manejo de residuos RBN, esas cantidades significan que el cuerpo humano no puede ser enterrado, cremado o arrojado a la basura. Pero, por supuesto, las leyes no se aplican a los seres humanos, sino sólo a los animales de laboratorio y cualquier material que los seres humanos hayan colocado insignificantes e inofensivas cantidades de radioactividad.(6)

    Por último, algunos residuos que contienen pequeñas cantidades de radioactividad quedan fuera de las leyes que gobiernan a los RBN, simplemente porque provienen de actividades que no son consideradas «nucleares». La quema de carbón es un ejemplo ­ y recuérdese que existen cinco millones de toneladas de cenizas de carbón por cada tonelada de residuo nuclear. Walter Marshall, presidente delPanel de Generación Central de Electricidad de Gran Bretaña (PGCEGB) dijo en 1988, para asombro y consternación de algunos espíritus sensibles:(7)

     

    «A principio de este año, Combustibles Nucleares de Inglaterra arrojó al Mar de Irlanda unos 400 kilos de uranio, con el total conocimiento de los reguladores. Esto atrajo una considerable atención, y creo que unas 14 interpelaciones parlamentarias.» «Debo informar que ayer el PGCEGB liberó unos 300 kilos de uranio radiactivo al ambiente, junto con todos sus subproductos de descomposición radiactivos.

    Más aún, el día anterior hemos liberado unos 300 kilos más, hoy vamos a liberar una cantidad similar y planeamos hacer lo mismo mañana. De hecho, lo hacemos todos los días de todos los años al quemar carbón en nuestras usinas de generación eléctrica. Y nosotros no lo llamamos «residuo nuclear». Simplemente lo llamamos «cenizas».

     

    Lo mismo pasa en todas partes del mundo. La única industria que ha tomado la responsabilidad de manejar adecuadamente sus residuos desde un principio ha sido la industria nuclear. Y, sin embargo, ironía del destino, ya que en el Hemisferio occidental nunca, pero nunca jamás nadie fue herido o contaminado por el proceso, es la industria más criticada por sus prácticas de manejo de residuos.

     Los Materiales Transuránicos

    Las reglamentaciones actuales definen a los Materiales Trans Uránicos (MTU), como aquellos contaminados con radionucleidos que emiten radiación alfa de número atómico mayor que 92 y vida media mayor que 20 años (por ejemplo el plutonio) en concentraciones mayores a 100 nanocuries por gramo (nCi/g) – y deben ser destinados a repositorios geológicos subterráneos. Se descomponen principalmente a través de la emisión de partículas alfa, que tienen poco alcance, generan poco calor, y son fácilmente bloqueadas. Los residuos radioactivos con menos de 100 nCi/g de MTU se consideran RBN (residuos de bajo nivel) y se depositan en repositorios poco profundos, de manera apropiada. Por su parte, los MTU deben cumplir con un muy riguroso criterio de aceptación (y de procesamiento) antes de que esté listo para ser transportado a sus correspondientes repositorios.

    Los materiales transuránicos no se dan de manera natural en el ambiente; estos residuos provienen principalmente de las actividades nucleares militares. Se obtienen del reprocesa-miento del combustible quemado de los reactores de los submarinos nucleares y durante el reprocesamiento para obtener plutonio para la fabricación de armas atómicas. En los Estados Unidos, la mayoría de los MTU se separan y se almacenan en el Idaho National Laboratory, cerca de Idaho Falls, y en la Reserva Hanford, en el estado de Washington. Las reglamentaciones vigentes establecen que los MTU deben ser envasados en recipientes de vidrio borosilicato de alta resistencia, encapsulados luego en cilindros de acero inoxidable de tres metros de largo, treinta centímetros de diámetro y 500 kg de peso. Estos envases han sido sometidos a todo tipo de pruebas destructivas para comprobar si hay alguna posibilidad de que la radioactividad de su contenido pueda escapar al exterior.

    Estas pruebas incluyen el lanzamiento desde aviones que vuelan a gran altura, o el impacto directo de una locomotora diesel de 200 toneladas lanzada a 120 kph. Como después de repetidos ensayos de este tipo, los envases no han mostrado ningún tipo de deterioro, las autoridades que tienen a su cargo el control internacional del transporte de residuos y materiales radioactivos, han autorizado y recomendado su uso para lo que estuvieron haciendo el Akatsuki Maru y el Pacific Pintail en sus viajes al Japón: transporte ultra seguro de material radiactivo especialmente acondicionado ­sin ninguna liberación de radioactividad al ambiente.

     Los Repositorios, ¿Sí o No?

    Como sucede con todas las formas de residuos, ya se ha acumulado una gran cantidad de investigación sobre cuál es la mejor forma de manejar y guardar a los residuos transuránicos. Para los enterramientos geológicos profundos, se excavó en Nueva Méjico, cerca de Carlsbad, una inmensa caverna en un lecho salino a 800 metros por debajo de la superficie. El programa se llamó Waste Isolation Pilot Program (WIPP) o Programa Piloto de Aislamiento de Residuos, y luego de completarse todo el trabajo preparatorio fue imposible usarlo debido a la oposición presentada por grupos ecologistas. A causa de que algunas gotas de agua (provenientes de la cristalización de la sal bajo grandes presiones) caían del cielorraso de algunas de las galerías de 1600 metros de largo, los activistas antinucleares alarmaron a la gente aduciendo que los residuos podrían ser disueltos por el agua, filtrarse hasta las napas profundas y, de alguna manera, llegar a la superficie y contaminar a la cadena alimentaria.

    Los activistas no pudieron, sin embargo, proporcionar ninguna explicación científica sobre cómo podría la humedad llegar a corroer a los contenedores de acero inoxidable y luego disolver a los envases de vidrio borosilicato que encierran a los residuos nucleares. Tampoco se le explicó a la gente que si toda el agua que se encuentra actualmente fluyendo en esa parte de Nueva Méjico fuese desviada hasta la formación salina, le llevaría más de un millón de años lavar la sal del repositorio.

    Aunque toda la evidencia científica disponible en el mundo apoya la tesis de la seguridad a largo plazo (muchos siglos) de enterramiento profundo en nuestro mundo radioactivo, la oposición continúa. Sin embargo, si todos los residuos radioactivos que tienen los Estados Unidos se pusieran en la radioactividad que existe en los primeros 600 metros del suelo de ese país, se incrementaría solamente en una parte en 10 Millones. A pesar de todo, esta puede no ser la mejor manera de guardar o manejar a los residuos nucleares MTU. De hecho, existen dos alternativas mucho mejores:

    Primero, los científicos del Argonne National Laboratory han sintetizado una substancia totalmente nueva llamada CMPO (por octyl [phenil]-NN-diisobutyl-car-bamyl-methyl-phos-phine oxide), que es capaz de aislar selectivamente a los transuránicos del resto de los residuos nucleares.(8) La extracción se lleva a cabo en conjunto con soluciones de ácidos nítrico y clorhídrico. Al extraer a los MTU, el resto de los residuos cae dentro de la definición de RBN o de bajo nivel y por ello son más fáciles y más económicos de manejar. Los MTU extraídos son de 100 a 1.000 menos en volumen y se pueden solidificar y vitrificar. Este procedimiento tiene el potencial de ahorrar miles de millones de dólares en costos de manejo y almacenado.

    Segundo, desde hace mucho tiempo que se conoce que la exposición de átomos radioactivos al intenso bombardeo de neutrones puede provocar la regresión a estados más estables. En otras palabras, los residuos radioactivos se pueden transformar en no-radioactivos si son tratados en un reactor que produzca gran cantidad de neutrones. Tales reactores han sido desarrollados y uno de ellos se llama el Argonne National Laboratory Integral Fast Reactor, que produce una superabundancia de neutrones rápidos.(9)

    El sentido común nos sugiere que este reactor debe ser construido, aunque más no sea para «quemar» residuos nucleares. Es mucho mejor método destruir a la radioactividad que enterrarla. Por desgracia, la experiencia nos indica que las decisiones políticas que se vienen tomando en el campo de la ecología están basadas en la histeria y las presiones políticas, y no en la ciencia o el sentido común. Me doy por satisfecho si este libro sirve para que alguien abra los ojos.

     RAN o Residuos de Alto Nivel

    Los RAN son la mezcla altamente radioactiva de productos de fisión y MTU que resultan del reprocesado del combustible quemado y que requiere aislamiento permanente. Si no es disipado, el calor de la descomposición atómica de tales residuos provoca temperaturas muy elevadas. Los RAN son preocupantes por la presencia simultánea del calor y algunos transuránicos de alta toxicidad y muy larga vida media.(10)

    El calor de la descomposición (o «decay heat«) de los productos de la fisión nuclear disminuyen rápidamente con el tiempo y se disipa con facilidad en la superficie o muy poco por debajo de ella. La profundidad generalmente incrementa la aislación térmica y el aisla-miento a largo plazo. Después de 600 años de descomposición, la generación de calor de los RAN no tiene ninguna consecuencia seria. Como ya se hizo notar, estos residuos de alto nivel comprenden solamente al 1% de todo el volumen de los residuos radioactivos, pero son el 99% de toda la radioactividad de los mismos.

    Los RAN de las centrales nucleares son, por ejemplo, las barras de combustible quemado de 4 metros de largo que se extraen del núcleo durante el recambio de combustible de los reactores.(11) Son residuos intensamente radioactivos y contienen mucho del uranio original, el plutonio que se ha producido, productos de fisión de larga vida y una cantidad de otros radionucleidos y subproductos de la fisión. Normalmente, las barras de combustible quemado son almacenadas en grandes piletas de agua, dentro de las mismas centrales -­ verdaderos repositorios -­ donde se enfrían gradualmente. Después de eso, las actuales políticas nucleares de la mayoría de los países contemplan el enterramiento en profundas capas geológicas.(12)

     Volviendo a los Barcos

    En el remoto, pero no imposible caso, de que el barco que transporta el material reproce-sado se hundiese en el mar, los contenedores de plutonio permanecerían encapsulados millones de años en sus ataúdes de acero inoxidable y vidrio borosilicato, resistentes a cualquier tipo de corrosión, ya sea ácido o agua salada. Los vasos de vidrio de la cultura griega que han permanecido sumergidos más de 2000 años en el mar Egeo han demostrado que, definitivamente, el agua de mar no ataca ni disuelve al vidrio.

    Pero nada de esto lo ha dicho Greenpeace. Le quitaría dramatismo y sentido a su campaña de alerta. Tampoco dice Greenpeace que la mejor manera de solucionar el asunto de los residuos nucleares es su reprocesamiento, tal como lo hacen Francia y Japón. La experiencia demuestra que, tanto el calor residual atómico como la penetrante radiación gamma del combustible usado, son drásticamente reducidas separando el uranio no quemado y retirando al plutonio, al cesio y al estroncio formado en los reactores nucleares. Este es un procedimiento rutinario para el reprocesado del combustible usado en los submarinos atómicos. La remoción de estos cuatro isótopos reducen la carga calórica de los residuos nucleares en un 98%, y en un 96% la emisión de los peligrosos rayos gamma.

    Una vez terminado el proceso, el uranio recobrado se usa nuevamente en los reactores y el plutonio es empleado en los nuevos reactores de regeneración rápida. Esto es lo que se llama reciclado. ¿Por qué los ecologistas apoyan con un fervor casi religioso al reciclado para cualquier cosa, menos para los residuos nucleares? La razón está en que la energía nuclear permite el desarrollo industrial, el progreso de las naciones, el mejoramiento de las condiciones de vida de la sociedad y, con ello, la disminución de enfermedades y condiciones de vida que provocan la mortalidad por hambrunas y epidemias. Como ello lleva al aumento de la población de los países, la filosofía malthusiana del ecologismo ha declarado pecado mortal al reciclado de residuos nucleares.

     ¿La Ciencia o la Paranoia?

    Greenpeace quiere hacerle creer al público que la liberación de radioactividad en el mar tendrá consecuencias catastróficas para el mundo entero. No es verdad, y veamos por qué: Los océanos contienen 1.345 millones de kilómetros cúbicos de agua salada que cubren el 75 por ciento del planeta. Los océanos son profundos ­ miles de kilómetros cuadrados del mar son más profundos que las montañas más altas de la Tierra; el volumen de los océanos es tan grande que el factor de dilución y absorción de calor son casi incalculables; y además el agua de mar no es potable.

    ¿Por qué se insiste entonces en sepultar a los residuos nucleares en la tierra ­ apenas una cuarta parte de la superficie útil habitable ­ y poner así en riesgo al pequeñísimo porcentaje de agua dulce de las que depende nuestra vida? ¿Acaso hay algo sagrado en el mar, como Greenpeace quiere hacer que la gente crea?

    El mar ya contiene 400 mil millones de curies (Ci) de Potasio-40, 100 millones de Ci de radio, y 1000 millones de Ci de Uranio-238. Los dos centímetros superiores del fondo marino contiene muchos millones de curies de uranio. Muchos organismos marinos reciben decenas de Rems (no milirems!) de radiación de Polonio-210 que, como el Plutonio, es un emisor de rayos alfa, y un tipo de langostino ­-que comemos sin ningún temor-­ recibe una dosis anual de 100 rems.

    Todo esto sucede de manera natural. Las altas dosis absorbidas por los organismos marinos han sido descubiertas muy recientemente por los investigadores, y son la prueba evidente de que la ávida absorción de radionucleidos por parte de peces y langostinos no resulta perjudicial, ni para los organismos marinos ni para el consumo humano. La cantidad de radionucleidos que se arroja actualmente al mar es de 100 mil curies. Con los miles de millones que ya existen allí de manera natural, la cifra resulta una gota en el océano.

    Por cierto, estas evidencias científicas inobjetables no apoyan para nada la afirmación paranoica de Greenpeace que el almacenamiento submarino de residuos nucleares «haría al mar tan radioactivo que no permitiría el crecimiento de algas . . . que producen casi la mitad del oxígeno del mundo». La verdad científica es que no existe la suficiente radioactividad disponible en el mundo para amenazar a las algas. Y, en cuanto al oxígeno, existe un equilibrio entre su producción y consumo; no hay torrentes de oxígeno que vayan del mar hacia la tierra.

    Además, ya que el aire por encima de la superficie del mar contiene 7.500 veces más oxígeno que la producida por las algas microscópicas en el agua, en caso de que toda la fotosíntesis marina desaparezca, el oxígeno en la atmósfera disminuiría sólo un 10 por ciento en el curso del próximo millón de años. ¿No muestra Greenpeace un poco de paranoia? ¿O quizás un exceso de ignorancia? Todo reside en el lema de Greenpeace«Negocios son Negocios».

    La radioactividad que es introducida en el mar es rápidamente devorada por procesos naturales, retirada del agua y llevada a los sedimentos profundos donde queda totalmente aislada de la vida marina. Quizás resulten más convincentes los experimentos realizados en la vida real para demostrar la rapidez con que el mar se recupera de la contaminación.

    En las Islas Marshall del Océano Pacífico, está el atolón de Eniwetok, escenario de 46 explosiones atómicas, y que resultara totalmente contaminado con radioactividad. La mayor parte de ella fue a parar al fondo de la laguna en donde la cadena alimentaria marina se vio prontamente libre de radioactividad y pudo ser consumida en cantidad. No sucedió lo mismo con los animales y plantas sobre la superficie.

    Aún hoy, 30 años más tarde, cocos y otras plantas, como también los cangrejos de tierra -­ un plato favorito de los lugareños -­ todavía son demasiado radioactivos a causa del Estroncio­90 y del Cesio­137. En el mar, por otro lado, esos radionucleidos están diluidos por la masiva cantidad de estroncio, calcio, cesio y potasio estables, y no representan ningún peligro para la cadena alimentaria marina, a pesar de su gran potencia en las cadenas de tierra.

     

     La Situación en Argentina

     

    En el número 42 de la excelente revista científica argentina, CIENCIA HOY, apareció publicado un grupo de artículos y opiniones ­ como tema central de la edición ­ relacionados con el tema «Repositorios Nucleares en la Argentina«, firmados por la DraEmma Pérez Ferreira (ex Presidente de CNEA), el SrNorberto R. CialLella, de la Autoridad Reguladora Nuclear, y del biólogo Raúl A. Montenegro, presidente de FUNAM, (Fundación para la Defensa del Ambiente) de la ciudad de Córdoba. Mi opinión es que este grupo de escritos debería ser de enseñanza obligatoria en las escuelas argentinas, tanto del nivel primario como secundario, porque se trata de información esclarecedora, clara, concisa y totalmente comprensible por parte de la población que ignora todo sobre el tema. También debería ser distribuida entre todos los organismos estatales y no gubernamentales (ONGs ecologistas y demás grupos interesados en el ambiente) para que el conocimiento claro y científico penetre en el entendimiento de todos, lo que permitiría llegar a una solución rápida y definitiva sobre el asunto de los residuos radioactivos y las centrales nucleares que los producen.

    Reproducir estos artículos resulta, además de impráctico, imposible por razones de espacio; por lo tanto me limitaré a dar un resumen de sus partes más salientes e importantes. En pocos casos, deberé citar textualmente algunos pasajes dado que no podría yo resumir-los o explicarlos mejor.

    La Dra. Pérez de Ferreira realiza un breve análisis político de la situación nuclear en Argentina que no agrega mucho a lo que se ha venido diciendo aquí y en todas las declaraciones que se hayan escuchado por parte de las autoridades de la Comisión Nacional de Energía Atómica (que siempre fracasaron en explicar a la gente, de manera sencilla y comprensible para todos, los extremadamente bajos riesgos que presenta la energía nuclear para usos pacíficos). Por su parte, el Sr. Ciallella, con su artículo científico «Eliminación de Residuos Radioactivos de Alta Actividad«, nos proporciona el mejor, claro, conciso, comprensible, más científicamente detallado y documentado artículo sobre el tema residuos nucleares que yo haya podido leer en idioma castellano. Por su parte, el Sr. Raúl A. Montenegro nos da su opinión sobre el tema en un escrito titulado: «Cuando la ciencia es reemplazada por cuentos de hadas«, lo que constituye una curiosa incongruencia, dado que lo que nos cuenta, técnica y científicamente considerado, no es otra cosa que un Cuento de Hadas (o de Gaias, Gnomos y Demonios, si así lo prefiere). Pero veamos de que se trata todo esto.

     La Eliminación de Residuos Radioactivos

    Nos dice Ciallella que la CNEA inició en 1980 un extenso y profundo estudio sobre el destino que se daría a los residuos radioactivos, y que se tituló «Repositorio de Residuos de alta Actividad: Estudio de Factibilidad y Anteproyecto de Ingeniería«, que insumió 45 volúmenes y está disponible en numerosas bibliotecas, y también en la CNEA, el Congreso de la Nación, la legislatura de la provincia del Chubut, etc. A despecho de toda la propaganda (cuentos de hadas) del ecologismo, el estudió apuntó de manera exclusiva al reprocesamiento y almacenaje de los residuos generados en Argentina, sin considerar la posibilidad de recibir residuos del exterior. Por otra parte, y para aventar cualquier duda que nos quede, la Constitución Nacional, desde 1994, prohibe en su artículo 41 «el ingreso al territorio nacional de residuos actual o potencialmente peligrosos, y de los radioactivos«. Entonces, basta de seguir echando leña al fuego con el tema de que nos convertiremos en el Basurero Nuclear del Planeta. Ese argumento no funciona más.

    Explica Ciallella las clasificaciones y diferencias de los diversos materiales y residuos radiactivos (cosa que ya hemos visto más arriba). Luego nos informa que la CNEA abandonó en 1992 la idea de construir el repositorio en cuestión, lo que fue ratificado por el directorio de CNEA en Marzo de 1997. A continuación citaré un pasaje:

     

    «Los residuos radioactivos de alta actividad son una consecuencia inevitable de la operación de centrales nucleares. Cuando se forma la decisión de construir y operar una central, se ha tomado también la decisión de generar tales residuos. La mayoría de los países que utilizan esta clase de energía para producir electricidad ha implantado, por ello, programas destinados a eliminarlos de manera segura. Hay amplio acuerdo en la comunidad tecnológica y científica internacional acerca de la forma de encarar dicha eliminación que consiste, esencialmente, en aislar a los residuos del ambiente encerrándolos tras barreras naturales y artificiales.»

     

    Se nos describe luego las diversas clases de suelos y materiales (arcillas, rocas graníticas, basaltos, domos de sal, etc) y las bondades y desventajas de cada uno de estos materiales geológicos, haciéndonos notar que:

     

    «a diferencia de los residuos industriales peligrosos por su naturaleza química, los radioactivos, debido a su menor volumen, pueden ser exitosamente aislados del ambiente». . .»Estudios varios (por ejemplo, los realizados por la empresa sueca creada por los operadores nucleoeléctricos de ese país para hacerse cargo de los residuos de sus plantas) han concluido que la eliminación geológica puede lograr los niveles requeridos de seguridad».

     

     Vitrificación e Impermeabilidad

    El artículo detalla, con lujo de detalles, el proceso de embalaje de los residuos nucleares en cápsulas cerámicas vitrificadas (vidrio borosilicato), con envolturas de plomo y encerrados en contenedores de acero inoxidable, para:

     

    «Impedir toda entrada de agua, por lo menos durante los primeros 1000 años, tiempo suficiente para que los productos de fisión disminuyeran significativamente su radioactividad. El plomo es relativamente abundante en el país, barato y de uso corriente como blindaje contra la radiación pero, sobre todo, tiene una excelente capacidad de soportar la corrosión del agua, cuestión sobre la que existen datos que se refieren a lapsos mayores que los 1000 años tomados como referencia» . . . «Los contenedores de plomo, por otra parte, fueron diseñados de forma que dieran cumplimiento a las normas internacionales para el transporte de material radioactivo, las que, entre otras cosas, determinan que tales recipientes deben ser capaces de resistir, sin que se libere radiación al ambiente, una caída desde una altura de nueve metros sobre un piso rígido, seguido de un incendio que lleve la temperatura a 800oC durante media hora. En virtud de que cumplen tales normas, los radioisótopos o fuentes radioactivas de uso médico o industrial viajan en los aviones, trenes y ómnibus de pasajeros».

     

    Después de informarnos que se descubrieron en el país 198 formaciones geológicas estables, con escasa conductividad hidráulica, situadas en zonas de bajo riesgo sísmico y que permitían el enterramiento a 500 metros de profundidad, se descartaron todas aquellas que no eran ideales, quedando un total de siete zonas «candidatas» a convertirse en repositorio. Por un proceso más profundo de análisis y eliminación, quedó la zona de Gastre como la mejor de todas las ubicaciones posibles dentro de la Argentina, para dar inicio, recién a investigaciones de detalle en un área de 50.000 km2. De acuerdo a Ciallella:

     

    «las investigaciones incluyeron fotointerpretación geológica, hidrología, sondeos geofísicos, geomorfología (con particular atención a los procesos tectónicos del cuaternario o de los últimos dos millones de años), sismología, vulcanismo (incluída la posibilidad de erupciones futuras : en la sierra del Medio no se registra actividad volcánica o ígnea de ningún tipo en los últimos 215 millones de años) análisis de imágenes satelitales y potencial minero del área»

     

    Como se puede apreciar, no se trata de Cuentos de Hadas sino de Ciencia Pura, despojada de todo resabio sentimental o romántico.

    No se realizó un estudio a «ojo de buen cubero como sugieren los ecologistas, sino que las investigaciones geológicas de detalle incluyeron muestreos petrográficos para el estudio de su composición y estructura, inventario de fracturas, estudio químico de aguas superficiales y subterráneas, etc. Se hicieron perforaciones, una hasta profundidades de entre 200 y y 280 metros y otra hasta los 700-800 metros. Y aquí viene una de las demitificaciones más importantes sobre el tema:

     

    «Para tener una mejor noción de lo que está en juego en materia de posibles consecuencias de radiaciones sobre la salud humana o impacto radiológico, conviene recordar que los radionucleidos de vida larga podrían sobrevivir al contenedor y al vidrio en que se los encierra. En tal caso, su transporte por el agua subterránea sería el camino más probable de regreso al ambiente, y el agua potable, así como el consumo de pescado, las vías por las que se afectaría a las personas. Pero tal trans-porte de substancias radioactivas es un proceso muy lento ya que, al interactuar física y químicamente con su entrono, los radionucleidos se mueven mucho más lentamente que el agua, lo que retarda entre cien mil y un millón de años su camino a la biósfera». . . «Si el retardo ocasionado por la barrera geológica fuese de cien mil años ­ y se realizara la recuperación del plutonio 239 ­, la dosis colectiva recibida por la población mundial, debida a un repositorio que tuviese residuos de alta actividad de seis centrales nucleares argentinas, sería igual a la que llega a dicha población por estar expuesta a la radiación natural durante treinta minutos, valor que disminuye a diez minutos en caso de que el retardo ascienda a un millón de años».

     

    Recordemos que vivimos en un mundo bastante radioactivo, y que la radioactividad de bajo nivel se ha demostrado como potenciador del sistema inmunológico y reproductivo.

    Aborda luego Ciallella el tema de las dudas de la población con respecto a las predicciones de seguridad de los repositorios que abarquen un plazo muy largo. Nos dice que parece imposible conjeturar acerca de las dosis de radiación que podría recibir la gente dentro de 10.000 años, pues mirando la historia se advierte que ningún país de Europa pudo mantener las fronteras que tenía hace apenas cien años. Peor aún sería predecir la distribución de la población del planeta en el siglo 250, es decir, dentro de 23.000 años. Sin embargo, nos dice, los elementos radioactivos tienen en la naturaleza comportamientos mucho más predecibles en el largo plazo que la evolución y distribución del hombre sobre el planeta. El uranio y el torio, dos elementos naturales, están presentes en la corteza terrestre desde el origen de la Tierra, El movimiento de estos elementos, como el de sus descendientes ­ por ejemplo, el radio ­ se puede apreciar hoy después de los millones de años transcurridos.

    A continuación nos cuenta del «reactor natural» de Gabón, el mismo que les mencioné en el capítulo «Energía Nuclear y Radioactividad«, diciendo que la Comisión de energía Atómica de Francia (que explotaba la mina de uranio de Oklo) había determinado que la reacción nuclear ocurrida hace 2000 millones de años duró alrededor de 500.000 años, afectó a unas 500 toneladas de uranio y liberó cerca de 100 millones de MWh de energía, con temperatu-ras de 300 a 450oC y presiones en torno a los 1000 bar. Los residuos radioactivos producidos por este gigantesco reactor natural fueron del mismo tipo que los de los reactores nucleares modernos y su cantidad equivalente a las que producirían los reactores de Embalse y Atucha juntas durante toda su vida útil.

    El estudio del sitio indicó que la mayoría de los productos de fisión y prácticamente todos los otros elementos (incluido el plutonio) se desplazaron menos de 1,80 metros del lugar donde se formaron hace veinte millones de siglos! Afirma Ciallella que las condiciones del «reactor fósil» de Oklo, sin embargo, fueron sustancialmente diferentes a las de un repositorio geológico especialmente construido para eliminar residuos actuales de alta actividad, pues la temperatura de estos no superaría los 100°C; su presión no excedería los 50 a 100 bar y la porosidad, así como la conductividad hidráulica de los suelos sedimentarios y arcillosos de Oklo, son muy superiores a las de las formaciones geológicas hoy conside-radas para la construcción de un repositorio.

    Por último, en Oklo, los residuos estaban sumergidos en agua, mientras que en un repositorio moderno están incluidos en material vítreo, rodeados de metal de considerable espesor y excelente resistencia a la corrosión, incluidos en un contenedor inoxidable, colocados en una perforación hecha en la roca y aislados de ésta por material de relleno. En resumen: si los residuos radioactivos de Oklo, que estaban al «aire libre», sólo produjeron un transporte de radioactividad de 1,80 metros, ¿cuántos micrones de desplazamiento permitirán los contenedores a prueba de casi cualquier cosa en este mundo?

      La Eventualidad Catastrófica

    El científico de la Autoridad Reguladora Nuclear se explaya a continuación sobre el tema los posibles sismos que podrían afectar a la zona de Gastre, demoliendo cualquier objeción que han presentado las ONGs antinucleares hasta la fecha. Para ello analiza la teoría tectónica con preguntas (y sus respuestas) tales como: ¿Puede ocurrir un terremoto de magnitud en la sierra del Medio? Y si ocurriera ¿qué pasaría con los residuos? Después de un exhaustivo análisis, termina concluyendo que:

     

    » … si bien no es imposible que ocurra un sismo de gran magnitud en Sierra del Medio o en Buenos Aires, es sumamente improbable que el fenómeno se produzca».

     

    En ciencia, decir «sumamente improbable» quiere decir que las probabilidades en contra son cercanas a infinito.

    Después analiza brevemente ­ porque no merece otra cosa ­ la objeción ambientalista de que es posible que Sudamérica se divida en dos debido a la denominada Megafractura de Gastre, y nos explica que fenómenos de este tipo se relacionan con movimientos de placas tectónicas que requieren millones de años. Como la mencionada megafractura se produjo durante el Triásico superior hace más de 100 millones de años, el eventual quiebre del continente no se podría producir dentro de los 1000 años de duración de las barreras de ingeniería, ni de los 10.000 a 100.000 años necesarios para que la eventual llegada a la biosfera de pequeñas cantidades de productos radioactivos no tuviese sobre la vida de ese momento efectos radiológicos mayores que los producidos por la radiación natural. En el caso específico de Gastre, dice Ciallella que no hay indicio alguno que puedan ocurrir cambios significativos en los próximos 30 a 40 millones de años. Con lo que nos quita un peso de encima.

    Fig. 6: Riesgo medio anual de muerte debido a eventos naturales, hábitos humanos y accidente antropogénicos

     

    CAUSA

     

    PROBABILIDAD DE MUERTE

     

    Fumar 20 cigarrillos diarios

     

    1/200

     

    Gripe

     

    1/5000

     

    Viajar en transporte público

     

    1/10.000

     

    Concurrir a un estadio de fútbol

     

    1/25.000

     

    Practicar alpinismo

     

    1/25.000

     

    Tomar píldora anticonceptiva

     

    1/50.000

     

    Terremoto (California)

     

    1/600.000

     

    Transporte aéreo

     

    1/10.000.000

     

    Central Nuclear

     

    1/10.000.000

     

    Repositorio de residuos de alta actividad

     

    1/100.000.000.000.000

     

    Fuente: Journal of the American Medical Association (244, II: 1126-1128) y CNEA

     

    .

     

    Por último, el artículo habla de los riesgos y la percepción y la actitud que la gente tiene ante los mismos.

     

    «La actitud de las personas ante un riesgo determinado varía de una a otra y lo mismo entre grupos sociales o naciones. Muchos factores influyen en la evaluación de los riesgos, así como lo hacen en la evaluación de los beneficios por cuya obtención se puede aceptar correr tales riesgos. Algunos dependen del individuo, entre otros sus antecedentes, conocimientos y emociones; otros son menos subjetivos, como el grado de control ejercido sobre el peligro y los efectos de éste sobre la calidad de vida. El riesgo que percibe determinada persona depende de sus características individuales y de su posición social, así como de su evaluación de la probabilidad de que ocurra un acontecimiento adverso, y de las consecuencias probables de éste. Muchas veces, en los debates sobre riesgos están en juego intereses económicos o políticos más amplios, y las percepciones del riesgo se usan como un argumento poderoso en la discusión». . . «El estar expuesto a riesgos no es, necesariamente, algo por evitar a toda costa. Los logros de la vida moderna implican la exposición a varias fuentes de riesgo; el progreso de la humanidad no hubiese sido posible sin los riesgos incurridos por nuestros antepasados.»

     

    Cosa que el 99% de la población del mundo les agradece . . .

     CONCLUSIONES DEL ARTICULO
                                             
  • Los elementos combustibles de las centrales nucleares de Atucha y Embalse, una vez agotada su capacidad energética en el reactor y convertidos en residuos, pueden mantenerse almacenados en piletas por períodos no mayores de medio siglo. Luego hay que darles un destino definitivo.
  • El almacenamiento de esos residuos ­ acondicionados en forma sólida en formaciones geológicas profundas de características adecuadas, no ocasiona ni ocasionará en el futuro riesgos mayores que los aceptados normalmente en la vida diaria. El estado actual del conocimiento resulta suficiente para demostrar que pueden ser eliminados de forma segura.
  • Las investigaciones realizadas en la sierra del Medio fueron alentadoras y permiten inferir que el lugar es apto para la instalación de un repositorio de residuos radioactivos de alta actividad, porque:
  • La sierra del medio se aloja en una faja de la corteza terrestre que fue inestable durante el jurásico y cretásico, entre 65 y 195 millones de años atrás. Desde entonces, se ha comportado como un bloque rígido.
  • En su interior no se ha registrado actividad volcánica o ígnea desde hace 215 millones de años;
  • Estudios de riesgo sísmico en el área de Gastre demostraron que la probabilidad de que ocurra un sismo con consecuencias significativas para el repositorio es sumamente baja: para un terremoto de grado 7 de la escala de Mercalli, una en 100.000; para uno de grado 8 no alcanza a una en 1.000.000.
  • Seleccionando materiales adecuados, un contenedor puede mantener aislados los resi-duos durante 1.000 años y garantizar los requerimientos de protección radiológica durante su transporte y almacenamiento final.
  • Para la inclusión de residuos en vidrio del tipo borosilicato se dispone de una tecnología bien conocida, de la que se tienen suficientes datos experimentales como para asegurar que el material no será disuelto en el agua en, por lo menos, 10.000 años.
  • Las hipótesis más pesimistas sobre el comportamiento de las barreras geológicas permi-ten asegurar que impedirán la llegada de los residuos a la biosfera, por lo menos, por 100.000 años. La consecuencia radiológica de que al cabo de ese lapso se disemine la radioactividad del combustible agotado de las centrales mencionadas serán equivalentes a la radiación natural que recibe la población del mundo en treinta minutos.
  • Desde hace más de veinte años se estudia la forma de reducir los volúmenes de los residuos de alta actividad. En el estado actual de la tecnología, si bien se puede disminuir la cantidad de elementos radioactivos de larga vida, no es posible destruirlos por completo, por lo que de todas maneras, continúa siendo necesario eliminarlos en repositorios geológicos.
  •  Cuando la Ciencia es Reemplazada por Cuentos de Hadas

    (Una visión ecologista de los repositorios nucleares)

    El biólogo Raúl A. Montenegro preside FUNAM, una fundación cuya intención declarada es la protección del ambiente, aunque sería más loable que fuese la protección de los Seres Humanos. Pero, la discrepancia de opiniones es la que va allanando los obstáculos y forjando el futuro de la humanidad.

    Los editores de la revista CIENCIA HOY han publicado el trabajo de Ciallella como «artículo científico» porque: «. . . se trata de un trabajo que, por su índole, puede ser sometido a los controles normales del material que sale en CIENCIA HOY, es decir, revisado por árbitros reconocidos entre sus pares, con el fin de que determinen si su tratamiento y contenido son científicamente correctos.» En otras palabras, un trabajo es científico si es validado por otros científicos que comprueban que lo expuesto se ajusta a la Verdad Científica Comprobada. Es lo que se conoce como «replicación» «validación«.

    Por otro lado, el escrito de Montenegro ha sido presentado así: «La tercera y última nota, en cambio, se publica con la carátula de «opinión». Es un ejemplo del modo de argumentar de las corrientes ecologistas, de las que Raúl Montenegro es un distinguido representante. No se presenta como artículo porque no podía ser sometida a arbitraje ni calificada en términos científicos: queda en manos del lector juzgar el peso de sus razones».

    El contenido de la «opinión» no difiere en nada del estilo ecologista que viene usando desde hace muchos años. Usar datos científicos ­ fuera de contexto o sin cuantificación ni comparación con valores normales ­ para sugerir que lo que se expresa tiene carácter científico absoluto, con el objeto de intentar probar teorías que carecen, precisamente, de toda base científica seria. Los argumentos usados son esencialmente emocionales que, para los que conocen con amplitud el tema, provocan primero una sonrisa, y luego un poco de indignación. Pero, como ya dije antes, todo es materia opinable, y Montenegro tiene todo el derecho del mundo a opinar, aunque su opinión no pueda ser catalogada (como prudentemente abren el paraguas los editores de CIENCIA HOY) de científica. Pero lo analizaremos brevemente, porque no hay mucho para decir al respecto.

    Dice Montenegro sobre las centrales nucleares argentinas: «Los radioimpactos rutinarios son producidos por descargas supuestamente controladas de radioisótopos al agua y al aire. Cotidianamente, la central nuclear Embalse vuelca tritio 3, gadolinio 153, . . .[nombra 17 radioisótopos] y cobalto 60, entre otros al lago artificial creado por el embalse del río Tercero.»

    Sin embargo, no menciona que la emisión o vuelco de tales efluentes es cosa normal en cualquier central del mundo y que, en Argentina, son estrictamente controlados por la Autoridad Reguladora Nuclear, como lo son en Canadá, país originario del diseño Candú. Ahora bien, las emisiones que se hacen están muy por debajo de lo permitido por las autoridades reguladoras. Dicho matemáticamente, las emisiones de radioisótopos al ambiente ni siquiera llegan al 1% del límite permitido (o «target«) por las estrictísimas normas internacionales. En palabras más comprensibles, las emisiones no alcanzan a ser ni la centésima parte de lo que se podría emitir sin perjudicar a la salud humana, animal, o estuariana.

    Nos dice después que al término de la vida útil de las centrales argentinas «habrán 134.000 barras de combustible agotado» … «Cada barra de combustible agotado contiene centenares de isótopos radioactivos de distintas vidas medias. De allí que su horizonte absoluto de riesgo sea 100.000 años o, lo que es igual, 1000 siglos». Con lo que pretende meterle miedo al que no sabe nada del tema. Y aunque muchos lectores de CIENCIA HOY son científicos, no sé cuántos saben realmente algo del tema radioactividad.

    Sin embargo, no nos ha dicho nada que no habíamos leído ya en el artículo de Ciallella. Y la enorme diferencia reside en que mientras Ciallella nos propone soluciones técnicas basadas en la más pura ciencia, Montenegro no nos propone otra cosa que clausurar inmediatamente las centrales nucleares … y con los residuos, ¿que debemos hacer? ¿Cuál es la propuesta ecologista? No hay ninguna. No saben qué hacer con ellos!

    Enumera más adelante una serie de riesgos que, si hubiese tenido oportunidad de leer antes el artículo de Ciallella hubiese evitado mencionar, dado que Ciallella explica acabadamente ­ y lo demuestra científicamente ­ que tales riesgos son tan extremadamente bajos como para ser considerados inexistentes. Habla de riesgos como que el plutonio proveniente del reprocesado de los residuos harían de Ezeiza un blanco del terrorismo y de presiones internacionales, ya que Argentina tendría un stock bruto de 15 toneladas de plutonio. Sabemos que el plutonio es un material valiosísimo para ser usado por las centrales nucleares de Regeneración Rápida, (como algunos de Japón, Francia y EEUU) que lo consumen hasta casi hacerlo desaparecer. ¿Qué mejor destino para un residuo que quemarlo hasta hacerlo desaparecer . . . y de paso generamos energía eléctrica para uso de la gente?

    Insiste luego con que el riesgo del transporte de los residuos desde Buenos Aires o Córdoba hasta Gastre serían razones suficientes para hacer inviable el proyecto del repositorio cosa que absolutamente no es ciertoPero no olvidemos nunca que lo que expresa Montenegro es sólo una opinión que no ha sido considerada – ni lo puede ser jamás – científica . . .

    Casi al final, sostiene que «Lamentablemente, cuando CNEA seleccionó la sierra del Medio no realizó una evaluación de impacto ambiental mediante un estudio que considerara variables múltiples. Los vacíos e incertidumbres que contenían y todavía contienen sus documentos técnicos resultan inexplicables». Entonces, ¿de que están llenos los 45 volúmenes de estudios e investigaciones científicas profundas que analizaron hasta el más ínfimo detalle del proyecto? Dado que la inmensa mayoría de nosotros no ha tenido tiempo de leer a fondo todo el informe, nos quedará la duda de si lo que dice es verdad o sólo una «opinión». Después de la consabida retahíla de argumentos emocionales, termina la opinión sosteniendo que el proyecto «carece de toda base científica» y propone «la indispensable consulta pública para proyectos de esta naturaleza». Ahora bien, ¿hay que consultar a millones de sinceros, ingenuos y desinformados ignorantes sobre si vale la pena construir un repositorio nuclear que es absolutamente indispensable hacerlo, y lo más pronto posible? Si tenemos que operarnos de cáncer, ¿le pedimos su opinión a un equipo de oncólogos, o a un equipo de fútbol?

    Y el remate de la «opinión» no tiene desperdicio: «Tanto la creciente investigación sobre los efectos biológicos de bajas dosis de radiación, como la indispensable consulta pública para proyectos de esta naturaleza ­ crónicamente ignorada por la CNEA ­ llevan a concluir que iniciativas de este tipo no son viables y aconsejan considerar alternativas más sencillas y menos onerosas».

    ¿Como cuáles? Hasta el día de hoy, no conozco organización ecologista que haya hecho conocer alternativa alguna acerca de qué hacer con los residuos radioactivos, ni han propuesto jamás ninguna solución técnica o del tipo que sea, para eliminar, reprocesar, o guardar los residuos radioactivos. Ello es bastante comprensible, ya que ni tienen los conocimientos necesarios sobre el tema, ni tampoco sugerirían una solución para el asunto que es su «gallinita de los huevos de oro». El asunto ya se está volviendo repetitivo, pero ¿hasta cuándo la ciencia pura seguirá siendo reemplazada por cuentos de Hadas, Gaias y Pachamamas?

     De ignorantes a granel

    De todos los funcionarios que han hecho declaraciones públicas oponiéndose a la energía nuclear, no hay uno solo que tenga los conocimientos necesarios para opinar. Si no fuese así, la prudencia le habría ganado a la ignorancia y las declaraciones hubiesen contenido un mensaje tranquilizador para la población. Para poder hablar sobre cualquier tema, es de mucho valor conocerlo y saber de lo que se está hablando. De otra forma, se corre el riesgo de ingresar a la legión de bobos ignorantes que repiten los partes de prensa con que las ONGs ecologistas basan sus campañas de desinformación hábilmente planeadas.

    Los funcionarios, sean elegidos por el pueblo o por el dedo gubernamental, tienen una enorme responsabilidad para con la sociedad ­ de la cual forman parte y de la cual se surten económicamente con tanta prodigalidad. Su primer deber, antes de opinar, es informarse por medio del mejor de los sistemas conocidos: estudiar. Para ello es necesario escuchar todas las campanas que suenan en la procesión, sin desechar ni una sola. Luego se hace imprescindible ordenar y analizar los hechos, en este caso los hechos científicos comprobados y, usando al menos común de los sentidos ­el sentido común­ arribar a una conclusión científica que les permita opinar con cierta responsabilidad.

    Pero no sólo los funcionarios de gobierno han demostrado su total ignorancia de los hechos científicos (y no es porque no tengan a quien recurrir en busca de los datos correctos), sino que a la legión de ignorantes se ha sumado con entusiasmo toda clase de personajes de la farándula, de la prensa escrita, conductores de programas de radio, horoscoperas y taroteras, y en fin, todos aquellos que, por haber opinado con soltura sobre la relación de pareja del playboy y la vedette de turno, se sienten capacitados para condenar con total desparpajo al viaje del Pacific Pintail o del Akatsuki Maru, o la intención de algún gobierno de instalar repositorios nucleares, vaticinando el próximo fin del mundo. ¿Creerán que esa actitud los mostrará a los ojos de la gente como personas delicadas, sensibles y preocupadas? ¿No estarán demostrando la total vigencia del viejo adagio: «Si el sabio desaprueba, ya es malo; pero si el necio aplaude, entonces es espantoso!»

    Se atribuye a Friederich Nietzsche haber dicho una de las frases más inteligentes que se hayan pronunciado en la historia de la humanidad: «No existe nada peor que la ignorancia en acción». Cosa que, si repasamos la historia con espíritu crítico, comprobamos que, desde el garrotazo de Caín para acá, tiene una validez aterradora.

     Conclusión

    Con los desechos nucleares es cuestión de hacer lo que es correcto y lo que es mejor, científica, técnica, ecológicamente correcto y apropiado. Es tiempo de actuar con coraje para hacer lo que es mejor para la humanidad. Y entre las muchas cosas que es necesario hacer resalta con luz propia el desenmascarar a los que falsifican y parcializan los hechos presentándolos bajo aspectos sórdidos y truculentos, con la principal intención de lograr objetivos geopolíticos que buscan la continuación del status colonial de los países del Tercer Mundo y diferenciarlos de los que, como nosotros, intentamos vanamente desa-rrollar nuestra industria y mejorar las economías nacionales.

    Aunque el entierro de residuos nucleares es perfectamente seguro, no representa una práctica que tenga mucho sentido, viendo las ventajas de enterrar los residuos nucleares en el mar. La Dra. Dixie Lee Ray, ex gobernadora del estado de Washington y ex Presidenta de la Comisión de Energía Atómica de los EEUU dijo en 1990:

     

    «Hablando como bióloga marina, me uno a la gran mayoría de científicos oceánicos que sostienen que el océano, el profundo océano ­ el fondo del profundo océano ­ es el lugar adecuado para enterrar los residuos, ya sean nucleares o químicos.»

     

    Por supuesto, el reciclado de residuos nucleares y su enterramiento marino puede hacerse, pero algunos respetados y famosos científicos dirán que no es posible. También algunos famosos y respetados científicos del pasado dijeron cosas respetables como estas. Juzgue usted:

    «No parece que el hombre pueda jamás dominar al poder del átomo»

    Robert Milliken, Premio Nobel, 1923

    La energía producida por la ruptura del átomo es una cosa muy pobre. Cualquiera que espere obtener energía de la retransformación de estos átomos está hablando cosas sin sentido.»

    Ernest Rutheford, Premio Nobel 1908

    Se ha hablado mucho acerca del cohete de 3.000 millas. En mi opinión, tal cosa es imposible . . . podemos dejarla fuera de nuestra imaginación.

    Vannevar Bush, físico del MIT, Premio Nobel 1945

    No hay esperanza alguna para la fantasiosa idea de alcanzar la Luna, a causa de la barrera insuperable de la gravedad terrestre.

    Dr. F.R. Moulton, astrónomo, Universidad de Chicago, 1932

    Aunque teórica y técnicamente la televisión sea posible, considero que es una imposibilidad comercial y financiera. Es un desarrollo en el que no debemos perder tiempo soñando con él.

    Lee de Forest, pionero de la radio de EEUU, 1926

    ¿Qué me dice, señor? Hará usted navegar a un barco en contra del viento y la corriente poniendo una caldera con fuego bajo la cubierta? Le ruego que me excuse, pero no tengo tiempo para escuchar tales tonterías.

    Napoleón Bonaparte, a Robert Fulton, inventor del barco a vapor.

     ¡ULTIMO MOMENTO!

    Como comprobación de la veracidad de lo que se ha expuesto hasta aquí, aparece una noticia, perdida en las páginas interiores del diario La Voz del Interior, de la ciudad de Córdoba, edición del 22 de Mayo de 1997, que reproduzco textualmente:

    Científicos Encuentran Forma de Eliminar Desperdicios Nucleares  «Científicos europeos diseñaron un reactor nuclear que puede disponer sin problemas de los desperdicios radioactivos, en un avance que podría dar comienzo a una energía atómica «segura», informó el diario británico The Observer.Agregaron que experimentos llevados a cabo en Cern, el laboratorio europeo nuclear de Ginebra, habían demostrado la viabilidad de construir plantas económicas y seguras, que consumirían plutonio y otros materiales altamente radioactivos. El diario agregó que los reactores propuestos son idea del profesor Carlo Rubbia, Ganador del Premio Nobel de Física y ex director general del Cern.» . . . «En los últimos años, Rubbia ha estado dirigiendo experimentos para demostrar sus ideas, que presentará el mes próximo en una reunión del pleno de la Junta Directiva de Cern, agregó The Observer » . . . «Tomamos todo tipo de desperdicio de otros reactores y los pusimos en una de nuestras máquinas» dijo Rubbia al diario. «Todo se convirtió en desperdicios no peligrosos y de bajo nivel radioactivo». Agregó que estaba preparándose para ayudar a ingenieros a construir un reactor tipo, que tomaría por lo menos cinco años. Un consorcio internacional se creó a principios de este año para considerar construir un prototipo, que ha sido identificado como de máxima prioridad para el financiamiento del organismo central europeo de la industria atómica, el Euratom, dijo el diario.» «De ser exitoso, los reactores de Rubbia podrían hacerse cargo de los centenares de miles de toneladas de desperdicios nucleares altamente radioactivos, incluyendo el plutonio, creados por las plantas nucleares, agregó. Este material es tan peligroso que sólo se puede almacenar en profundos silos subterráneos por miles de años, pero ahora se acepta como que existe una nueva forma de manipularlos. «Por el contrario, los nuevos reactores, si son exitosos, podrían erradicar los desperdicios en forma instantánea y permanente», manifestó el periódico.»  

    Importante observación: el físico Carlo Rubbia hace muchos años que viene experimentando con el tema del «reciclado» de desperdicios nucleares, lo mismo que los científicos norteamericanos del Argonne National Laboratory, tal como se ha podido leer más arriba. Por lo tanto no son noticias nuevas ni nada que se le parezca ­ aunque para los editores de diarios sensacionalistas sea un sorprendente descubrimiento. Aún así, a pesar de que esta noticia (ya cosa vieja) representa una solución extraordinaria y definitiva para un problema que aterra al mundo, los editores de diarios, en lugar de publicarla con grandes titulares prefieren ocultarla en una oscura sección a la que pocos lectores sienten la necesidad de acceder: la Sección Artes y Espectáculos!

     LOS REALES RIESGOS DE LA RADIOACTIVIDAD:

    SIMPLIFICANDO EL CONCEPTO DE RIESGO

    Hemos vista ya cómo el fundamentalismo ecológico ha sobrepasado los límites de lo ridículo con sus regulaciones para las bajas dosis de radiación y descargas cero al ambiente. Hay gente inteligente que ha desarrollado el principio conocido como ALARA (siglas del inglés «As Low As Reasonably Achievable«, o: Tan bajo Como Sea Razonablemente ), y que se refiere a las descargas de radiación ionizante al ambiente. Sería un grave error dejar la aplicación de este principio en manos de cualquiera que no sepa bien de qué se trata el asunto. Por supuesto, no en manos de políticos ignorantes influenciados por ecologistas inescrupulosos. La «R» de ALARA es un resquicio por el que se han filtrado fanáticos extremistas cuyos razonamientos siguen resultando, de manera deliberada o no, sumamente primitivos y perjudiciales para el bienestar general de la población. Porque de «razonablemente» se ha pasado ya a «ridículamente«.

    Todo el mundo que entiende algo del asunto sabe que, en el campo de las mediciones, un valor cero no tiene ningún sentido. Sin embargo, persiste una elevada y noble aura adherida a la búsqueda de tan absurda y absoluta pureza. Cualquiera sea la dosis de emisión de radioactividad liberada al ambiente, el veredicto es siempre el mismo: culpable. Es muy difícil convencer a la gente (aunque sea muy fácil de demostrar) que, por debajo de ciertos niveles, las muy bajas dosis de exposición a las radiaciones no son peligrosas. Por el contrario, resultan beneficiosas.

    El principal (y gigantesco) problema es que a la gente común le resulta muy difícil relacionar hechos científicos y medidas de dosis de radiación con los riesgos reales para la salud. Si no se es un experto, pero muy experto en radioactividad, la mención de las unidades de radiación no le dice absolutamente nada a nadie . . . la mención de 5 Rad, 3 mrem, 40 Becquerels, 10 Sieverts, deja a la gente impávida, fría y desinteresada del tema porque no tiene ninguna otra cosa con qué compararla en la vida real. La mayoría de nosotros sabemos que 220 voltios son peligrosos para la salud, pero que 12 voltios son inofensivos porque las baterías de los autos tienen 12 voltios y nada nos pasa cuando tocamos los bornes. Tenemos una referencia natural, de todos los días, a nuestro alcance. Por ello resulta muy interesante –fundamental, diría yo- la propuesta de Jacques Pradel, ex presidente de la Sociedad Francesa de Protección Radiológica, y ex funcionario de protección radiológica de la Comisión de Energía Atómica de Francia. La propuesta de Pradel consiste en que se deben usar otras unidades para medir y evaluar los riesgos de las radiaciones ionizantes. Para comunicarse exitosamente con el público, se deben dar explicaciones simples aunque esto pueda chocar a los especialistas. Permítaseme citar a Pradel:

     

    «En un excelente artículo aparecido en la edición Marzo-Abril de 1998 de la Revue Générale Nucléaire, el científico Sueco Gunnar Walinder muestra cómo, gracias a juiciosos ejemplos, se pueden minimizar a los exagerados miedos nucleares. Por lo tanto propongo adoptar el uso de dos ejemplos de referencia para las simples unidades de evaluación de los efectos de las bajas dosis de radiación.»

    «El primero usa la variación de la dosis causada por las radiaciones cósmicas, de acuerdo a la altitud, y adopta, para la unidad de intensidad de dosis, el «metro de altitud adicional.»

     

    Todo el mundo sabe que existe una cosa llamada «radiación cósmica«, y aunque no tiene idea sobre los efectos que puede tener sobre la salud, no la considera peligrosa por el simple hecho de que no la ve ni se siente afectada por ella. Sus efectos no son notorios. La gente también sabe que esta «radiación» aumenta con la altura y que, lo mismo que sucede con la otra radiación que conoce –la ultravioleta– los habitantes de las montañas reciben más radiación que los de las pampas. Y, muy importante, reconocen que este aumento no influye sobre la salud, si exceptuamos el hecho que los montañeses parecen ser más saludables que la gente de las llanuras.

     

    «Por consiguiente, la medida de radiación de 1 microSievert por año (1 mSv/año) es reemplazado por 4 metros adicionales de altitud. –donde cada metro de altitud se define como el equivalente en altura a un piso de un edificio.

     

    La gente sabe perfectamente que sus vecinos que viven el piso 10 de un departamento no tienen más cánceres ni más leucemias, ni más cataratas, ni más alteraciones genéticas ni deformidades que los que viven en Planta Baja. Para ellos, la altura no cuenta.

     

    «Esto nos da una valiosa referencia para evaluar los estudios realizados por esos cráneos que están cómodamente sentados en sus sillones contemplando al mundo, y que llegan a la conclusión que una población de algunos cientos de millones de personas serán expuestos, en promedio, a 10-9 Sv/año por el radón emitido por los residuos del procesamiento del mineral de uranio durante los próximos 10.000 años. Más aún, basándose en esto, los eruditos de sillón prevén algunos cientos de cánceres suplementarios agregados a las decenas de millones que se producirán de manera normal.»

    «Me parece mucho más comprensible y aceptable presentar el caso de esta manera: La dosis recibida por esta población (como consecuencia de los residuos del procesamiento del mineral de uranio) corresponde aproximadamente a lo que la población recibiría si la altitud de sus hogares se elevaran 1 centímetro (el equivalente a 2 o 3×10-3 mSv/año). Este tipo de argumento ha sido usado en otros casos más extremos, (tal como el carbono-14) en donde el incremento de la altitud era de 1 diez milésimo de milímetro (1/10.000 mm).

    El segundo punto de referencia que propongo está suministrado por las concentraciones de radón en nuestras casas. La unidad de dosis usada es el tiempo de permanencia en el interior de nuestros hogares.

     

    Todos estamos convencidos de que uno de los lugares más seguros para estar es el hogar. Los peligros quedan afuera. Por ello, la tontería ecologista de hacer que la gente crea que en sus hogares existe un peligro espantoso como el radón, no tiene muchas posibilidades de «prender» en la población. «Si en casa siempre estuvimos bien«- le dirán– «la abuela murió de 97 años gozando de perfecta salud toda su vida . . . era un roble, etc., etc.,» Pero dejemos que Pradel nos siga explicando el asunto:

     

    «Podemos tomar como base para esto a la concentración promedio de 50 becquereles/metro cúbico (Bq/m3), que significa la exposición de más o menos 1 miliSievert por año (1mSv/año). Nótese que la Comisión Internacional de Protección Radiológica recomienda tomar medidas sólo cuando las concentraciones son de cuatro a ocho veces más elevadas que esto. Por lo tanto, la unidad de dosis es la permanencia de un año en el interior de nuestros hogares.

    En el ejemplo del mineral de uranio que vimos recién, la dosis promedio individual de unos 10-9 Sv/año corresponde a una estadía en nuestras casas de 10-6 años, o sea, unos 30 segundos por año. En consecuencia, para anular el efecto de la radiación proveniente de los residuos del mineral de uranio, es suficiente respirar por la ventana durante 30 segundos, una vez al año.

     

    Si la radioactividad que recibiremos por vivir cerca de una planta de procesamiento de uranio natural puede neutralizarse por el estúpido hecho de demorarnos 30 segundos en ingresar a nuestros hogares, una vez al año, entonces comenzamos a sospechar que todo, pero todo aquello que se nos ha venido diciendo sobre los espantosos peligros de la radioactividad es un gigantesco y malicioso dislate. Alguien se está beneficiando –y mucho!- con los miedos que le están metiendo a la población.

    La última cita de Pradel tiene un humor sutil (del que carecen los ecologistas) que vale la pena ser leída. Dado que todo en la Naturaleza es radioactivo, en mayor o menor medida, (las piedras, la tierra, el agua, la comida y nosotros mismos), cuando vamos al baño para hacer nuestras necesidades fisiológicas cotidianas (estreñimientos aparte…) evacuamos o «descargamos» material radioactivo a nuestros sistemas cloacales. Recordemos siempre que los ecologistas dicen que cualquier descarga de radioactividad es nociva, por lo tanto, escuchemos a Pradel:

     

    «En cuanto a la descarga cero, que también se basan en consideraciones relacionadas con las bajas dosis recibidas por las grandes poblaciones, no es para nada razonable. Sólo nos permitimos advertir a sus proponentes que sean muy cuidadosos ya que se exponen ellos mismos a una epidemia de fecalomas y otros bloqueos intestinales y renales, al llevar adelante una política personal de descarga cero«.

     
    Referencias y lecturas recomendadas: 1. Por lejos, la mejor, más completa y más actualizada discusión sobre el tema de los residuos nucleares se encuentra en el Capítulo 11 y 12 del libro de Bernard Cohen, The Nuclear Option: The Alternative for the 1990s, Plenum Publishing, 233 Spring Street, New York 10013. 2. La Caída Venidera de la Casa de Windsor, Informe especial de EIR, Executive Intelligence Report, en su versión española EIR Resumen Ejecutivo, Octubre/Noviembre 1994. EIR News Service, 3331/2 Pennsylavania Ave. S.E. 2nd floor, Washington, DC 20003. 3. Os Podres Verdes, entrevista al periodista Islandés Magnus Gudmunsson en la revista brasileña Veja, 4 de Mayo 1994. 4. Waste Managment Update,» 1988, sección especial en Nuclear News, ANS Publication, Vol. 31, No. 3, Marzo 1988, pp. 42-85.
    • Ray, Dixie Lee, y Anibal L. Taboas, 1983, «Waste Management: The Missing Link», DOE Defense Waste Byproducts Managment Conference, Washington, DC.
    5. Beckmann, Petr, 1979, «The Non-Problem of Nuclear Wastes», Golem Press, Box 1342, Boulder, CO 80306.6. Wagner, Henry N. y Linda E. Ketchum, 1989, «Nuclear Waste Disposal: Not in my Backyard,» ver especialmente la página 129 en «Living With Radiation: The Risk, the Promise», Johns Hopkins University Press, Baltimore. 7Marshall, Walter, Lord Goring, 1988, in Access to Energy, Vol. 16, No. 1 8. Horowitz, E. Philip, 1986, «New Radioactive Waste Treatment Could Save Taxpayers Billions,» Logos, Argonne National Laboratory, Progress Trough Science, Vol. 4, No. 3, Otoño 1986, pp. 6-9. 9. Doncals, R.A., J.E. Schmidt, y R.W. Rathbun, con E. Rodwell, 1988, «Transmutation of Nuclear Waste», Westinghouse Electric Corporation y EPRI Journal, manuscrito tipeado a máquina solamente.
    • Beckmann, Petr, 1988, en Acces to Energy.
    10. Burge, Ray, 1989, «The Environmental Case for Nuclear Power,» AECL Ascent, Vol. 8, No. 1, Primavera 1981, p. 14. 11. Ray, Dixie Lee, 1986, «Nuclear Waste: What Good Is It?,» estudio presentado en el Nuclear Waste Symposium, publicado en Tennesse Law Review, Vol. 53, No. 3, Primavera 1986. 12. Cohen, Bernard L., 1984, «The Hazards of Nuclear Power: High Level Waste,» en The Resourceful Earth, op. cit., p.555.  
  • Gertz, Carl P., 1989, «Yucca Mountain, Nevada: Is It a Safe Place for Isolation of High Level Radioactive Waste?,» Journal of the Institute of Nuclear Materials Managment, Vol. XVII, No. 3, Abril 1989.
  • 13. Ostemberg, Charles L., 1986, «Basic Factors Affecting the Land: Fresh Water vs. the Sea Option for Waste Disposal,» en The Rol of the Ocean as a Waste Disposal Option, G. Kullenberg, editor, D. Reidel Publishing, 1986, pp. 39-53.
    • Ostemberg, Charles, L., 1986, «Old Submarines and Ocean Dumping Policy,» Marine Policy Reports, University of Delaware, College of Marine Sciences, Vol. 8, No. 5, marzo 1986.
      • Ostemberg, Charles, L., 1985, «Waste Disposal: Where Should It Be? Land or Sea?,» Communications, The Siren, No. 28, Mayo 1985.
    14. Informe sobre Enterramiento de Residuos Radioactivos en el Lecho Submarino, Sandia National Laboratory, 1981.
     
      • Miles, Edward L., Kai N. Lee, y Elaine M. Carlin, 1985, «Nuclear Waste Disposal Under the Sea bed: Assessing the Policy Issues», Institute of International Studies, University of California at Berkeley, No. 22, 1985.
    15. Ray, Roger et al., 1987, «The Natural History of Eniwetok Atoll», Vol. 1, The Ecosystem, Environments, Biotas, and Processes, DOE/EV/00703-TI, Vol. 1 (DE87006110) 16. Ciallella, Norberto R., 1997, «Eliminación de Residuos Radioactivos de Alta Actividad», CIENCIA HOY, vol. 7, No. 42, (Sep.-Oct. 1997) pp. 18-27. 17. Montenegro, Raúl A. 1997, «Cuando la Ciencia es Reemplazada por Cuentos de Hadas», CIENCIA HOY, vol. 7, No. 42, (Sep.-Oct. 1997) pp. 29-30.
     

Capítulo 5 - DDT, un mito criminal

  • La Prohibición del DDT, Una Dura Lección

    Como casi toda la argumentación ambientalista, el tema del DDT se caracteriza por una falta absoluta de bases científicas serias, por un fraude continuado desde el principio al fin y de una campaña de los medios de prensa como nunca se había visto en la historia. Cuando se hizo pública la prohibición del DDT en los Estados Unidos, el jefe de la EPA (Agencia de Protección del Ambiente) dijo: «Es una decisión política. No tiene nada que ver con la Ciencia.»

    En 1962, la escritora Rachel Carson publicó su libro «Primavera Silenciosa», que se convirtió rápidamente en la Biblia del ultraecologismo. Fue el primer paso de una gigantesca campaña para prohibir al DDT. Actualmente es reverenciado por el ecologismo como el libro que expuso a la opinión pública los horrores del progreso y el peligro de los compuestos químicos. También es notable entre los científicos como el más crudo ejemplo de tergiversación de datos, manipulación de estadísticas y falsificación de información que se pueda encontrar en al amplio campo de la pseudo-ciencia de la ecología romántica.

    El famoso ambientalista y entomólogo Dr. J. Gordon Edwards, profesor de Entomología de la San José University de California, socio del ecologista Sierra Club, de la Audubon Society, y miembro de la Academia de Ciencias de California, expresa su repudio por el libro, en un artículo titulado: «Las mentiras de Rachel Carson.» publicado en la revista 21st Century, Science & Technology, vol. Summer 1992:

     

    «Cuando hube leído los primeros capítulos me di cuenta de que varias afirmaciones eran falsas. Cuando llegué a la mitad del libro, tuve la sensación que Rachel Carson estaba jugando libremente con los hechos, construyendo las frases de tal manera de sugerir ciertas cosas, sin decirlas de verdad. Ella estaba omitiendo todo aquello que no apoyara su tesis que los pesticidas eran MALOS, que la industria era MALA, y que todos los científicos que no compartieran sus ideas eran MALOS.»

     

    Afirma el Dr. Gordon Edwards que muchas de las referencias citadas por Carson en su libro no apoyaban para nada sus teorías acerca de los daños causados por los pesticidas. Cuando finalmente se convenció de que el libro «Primavera Silenciosa» era un conjunto de inexactitudes, medias verdades, distorsión de estadísticas y directa falsificación de datos, el Dr. Gordon Edwards se unió a la legión de científicos que alzaron su voz para defender al DDT de la prohibición que exigían los ecologistas. A las recomendaciones finales de la Organización Mundial de la Salud (OMS), el Servicio de Salud Pública de los EEUU, la Organización Panamericana de la Salud y muchas otras, que recomendaban NO prohibir al DDT, se unió al dictamen final del Tribunal Examinador de la misma EPA que expresaba textualmente: «El DDT no es cancerígeno, mutagénico o teratogénico para el ser humano, y estos usos del DDT no tienen efectos deletéreos sobre peces, pájaros, vida silvestre u organismos estuarianos.»

    Sin embargo, en Junio de 1972, el jefe de la EPA, Sr. William Ruckelshaus anunció públicamente la prohibición del DDT diciéndole a una atónita audiencia que «la decisión tomada no tiene nada que ver con la ciencia. Se trata de una decisión política.» Se imponía así el tremendo precedente que, en materia ecológica, los hechos científicos carecen de importancia, y que lo único a ser considerado es la presión de las campañas ecologistas. La prohibición del DDT se convirtió entonces, en la «Madre» de todos los fraudes ecologistas por venir, desde la salvación de la «hierba piojera» hasta el insecticida ALAR, el 2,4,5-T, la dioxina, el Efecto Invernadero y El Agujero de la Capa de Ozono.

    El patrón es siempre el mismo: se presenta un escenario catastrófico inminente, la prensa lo promociona como de una urgencia terrorífica, y la campaña llena las arcas de quienes la inventaron. Eventualmente, las campañas terminan dando forma a las políticas ambientales y a prohibiciones irracionales. No importa cuán descabellado pueda ser el escenario presentado: una vez que ha sido repetido la cantidad de veces necesaria, la gente termina por aceptarlo como un hecho real y comprobado. En la década de los 30, el Ministro de Propaganda nazi, Joseph Goebbels recomendaba a sus seguidores: «¡Mentir, mentir y mentir… que algo siempre queda El ecologismo nutre sus raíces en este tipo de fascismo.

    El DDT había eliminado, en poco más de 20 años de uso, a la mayoría de las en-fermedades que antiguamente habían impedido a los habitantes de amplias regiones tropicales realizar un buen día de labor productiva. El DDT permitió, tal como lo asevera el Dr. Albert Schweitzer en su biografía, que la gente ocupara grandes áreas de Africa, Asia y América del Sur (que antes eran inhabitables por las enfermedades producidas por insectos y artrópodos) para poder cultivar y cosechar alimentos. Esto fue particularmente importante, porque la desnutrición provoca en los niños un daño cerebral irreversible, condenando a las víctimas a una vida de mentalidad subnormal y de logros inferiores.

    El DDT fue el principal responsable, en la década del 40, del espectacular incremento de la producción de alimentos cosechados a escala mundial, aumentando la productividad y los rendimientos, bajando los costos y ayudando a mantener bajo el precio de los alimentos. Pero, por sobre todo, el DDT había casi provocado la erradicación de la malaria en todo el mundo, permitiendo así que cientos de millones de seres humanos pudiesen vivir vidas plenas y productivas, sin el flagelo de las recurrentes y postrantes fiebres palúdicas. Lo mismo se puede decir con respecto a la Fiebre Amarilla, la Leishmaniasis, las Encefalitis y Meningitis, el ChagasDengue y muchas infecciones más transportadas y transmitidas por insectos. Por ello, Rachel Carson y los ecologistas que impulsaron la prohibición del DDT comparten por igual la horrible responsabilidad de las 2 millones de personas que mueren anualmente de malaria, y de las 200 millones de personas que contraen las fiebres cada año, con terribles consecuencias para sus sistemas inmunológicos, sus vidas, las economías regionales y el bienestar de sus familias.

     Una Mentira Detrás de Otra

    La primera de las mentiras de Rachel Carson fue la dedicatoria«A Albert Schweitzer que dijo que: ‘El hombre ha perdido la capacidad de prever y prevenir… Terminará por destruir a la Tierra.» Dado que el libro de Carson es antipesticida, el lector puede ser llevado ­ ladinamente ­ a creer que Schweitzer se oponía al uso de pesticidas. Sin embargo, en su autobiografía, (pág. 262) dice claramente«¡Cuánto trabajo y pérdida de tiempo nos causan estos malditos insectos…! Pero un rayo de esperanza, con el uso del DDT, se extiende hacia nosotros!» Al leer su libro, uno se da cuenta que Schweitzer estaba más preocupado por las armas atómicas, que por los peligros del DDT!. Cuando el profesor J. Gordon Edwards daba clases a sus alumnos, solía ingerir delante de ellos una cucharadita de DDT para demostrar la falta de peligrosidad del insecticida! Entonces dejemos que sea el Profesor J. Gordon Edwards quien nos cuente qué fue lo que realmente sucedió con el DDT. Preste mucha atención:

     

    «En 1962, cuando Rachel Carson publicó su libro, Primavera Silenciosa, quedé encantado. Yo pertenecía a diversas organizaciones de tipo ambientalista, no tenía sentimientos con respecto a la industria o los grandes negocios, el Sierra Club había publicado uno de mis libros, y había escrito artículos para el Indiana Waltonian, el Audubon Magazine y otras revistas ecologistas. En ese tiempo, yo había estado ocupado con trabajo de campo en la estación de investigación de la Universidad de Wyoming, en Jackson Hole, durante tres veranos y trabajaba como coordinador para el Servicio Nacional de Parques en el Parque Nacional Glaciar. Leí ávidamente la versión condensada de Primavera Silenciosa en la revista New Yorker, y compré un ejemplar del libro en cuanto estuvo disponible en las librerías. A medida que fui leyendo los primeros capítulos me dí cuenta de que varias afirmaciones eran falsas; sin embargo, uno puede pasar por alto tales cosas cuando provienen de nuestra cohorte, y yo hice sólo eso.»

    «Cuando llegué a la mitad del libro, creció en mi mente el sentimiento que Rachel Carson estaba jugando libremente con los hechos y estaba deliberadamente construyendo las frases de manera de insinuar ciertas cosas, sin llegar a decirlas en realidad. Ella estaba omitiendo cuidadosamente todo aquello que no apoyase su tesis de que los pesticidas eran malos, que la industria era mala, y que todos los científicos que no compartían sus puntos de vista eran malos. Me fijé entonces en su bibliografía, y me di cuenta que estaba llena de referencias de fuentes para nada científicas. Además, cada referencia estaba citada de manera separada cada vez que aparecía en el libro, produciendo el efecto de una lista impresionante de «referencias», aunque no eran muchas las fuentes realmente citadas. Comencé a perder mi confianza en Rachel Carson aunque, como ecologista pensé que debía continuar apoyándola.»

    «A continuación miré algunas de las referencias que Carson citaba y comprobé muy rápido que ellas no apoyaban sus conclusiones acerca del daño provocado por los pesticidas. Cuando importantes científicos comenzaron a publicar duras críticas sobre sus métodos y sus afirmaciones, lentamente fui dándome cuenta que Rachel Carson no estaba interesada en la verdad sobre esos tópicos, y que yo estaba siendo embaucado, junto a millones de otros americanos.»

    «Como consecuencia, volví al principio del libro y lo leí todo otra vez, pero esta vez mis ojos estaban abiertos y no me dejé influir a creer en que sus motivos eran nobles y que sus afirmaciones podían ser apoyadas por la lógica y los hechos científicos. Escribí mis comentarios en borrador, y reuní los artículos científicos que refutaban lo que Carson había afirmado como informado por esos mismos artículos. Fue una experiencia sumamente frustrante.»

    «Pronto me vi forzado a unirme a los detractores de Primavera Silenciosa, y cuando se realizaron las audiencias para determinar la suerte del DDT, en varios estados de esta nación, pagué mi boleto hasta ellas para testificar contra los esfuerzos para prohibir a ese insecticida salvador de vidas. Fue gratificante descubrir que gran número de científicos y funcionarios de salud que yo había tenido siempre en elevada estimación, estaban también testimoniando en esas audiencias en defensa del DDT y contra la creciente ola de propaganda antipesticida de las publicaciones ecologistas y los medios. Cuando testificaba o hablaba en público exponía con frecuencia las engañosas referencias que Rachel Carson había nombrado en su libro, citando las afirmaciones de Primavera Silenciosa y leyendo luego en voz alta declaraciones pertinentes de las mismas referencias. Esto revelaba a la audiencia lo engañosas y falsas que realmente eran las afirmaciones de Primavera Silenciosa.»

     

     Es Necesario Revertir la Prohibición

    DDT, el nombre cortito para el 1,1,1-Tricloro-2,2-bis (p-clorofenil) etano (también cono-cido como Difenil-Dicloro-Tricloroetano) fué sintetizado por primera vez en 1937 y patentado como insecticida por el químico suizo Dr. Paul Müller. En 1942 se demostró que mataba los piojos sin tener efectos adversos para los seres humanos (1)

    La malaria o paludismo transmitida por el mosquito Anofeles ha sido desde siempre la peor de las enfermedades, a juzgar el número de sus víctimas. Hasta la llegada del DDT, unas 200 millones de personas eran atacadas anualmente por la malaria, y de ellas todos los años morían 2 millones.[2] A comienzos de 1946, un programa de rociado a gran escala, dirigido contra el mosquito portador de la malaria produjo una inmediata y dramática reducción de estas cifras. Es importante enfatizar que este rociado no era indiscriminado, ni estaba hecho en pleno ambiente natural. Se realizaba en el interior de las casas, en las paredes interiores. El singular comportamiento del mosquito Anofeles se alimenta por las noches de las víctimas durmientes, y luego vuela hasta la estructura vertical más cercana para descansar y digerir su comida ­ hizo que esta fuera la manera ideal de cazar al mayor número de insectos adultos.

    Las estadísticas de Salud Pública de Sri Lanka (ex-Ceylan) dan testimonio de la efectividad del programa de rociado. En 1948, antes del uso del DDT, se registraban anualmente 2.8 millones de casos de malaria. Para 1963 solamente se registraron 17. Bajos niveles de infestación se continuaron registrando hasta fines de los 60, cuando los ataques ecologistas contra el DDT en los Estados Unidos convencieron a las autoridades de suspender los rociados. En realidad no lo hicieron voluntariamente convencidos sino que «obedecieron sugerencias» (léanse presiones políticas) del gobierno de Estados Unidos.

    En 1968 los casos de malaria subieron a 1 millón. En 1969 los casos ya estaban en 2.5 millones, de regreso a los niveles pre-DDT (3) Sin embargo, para 1972, los insubstanciados cargos contra el DDT en los Estados Unidos habían tenido un efecto mundial (Las embajadas de dicho país se encargaron de que así fuese).

    En 1969, de las 2.000 millones de personas que vivían en regiones palúdicas, el 79% estaba protegido y la expectativa era que se podría erradicar finalmente a la malaria. Seis años después que los Estados Unidos erradicaron al DDT, se registraron 800 millones de casos de paludismo y 8.2 millones de muertes anuales. Peor aún, a causa de que los programas de rociado fueron suspendidos en un momento crítico, la malaria resistente está actualmente extendida en todo el mundo y cualquier viajero puede traerla a casa. La malaria, la fiebre amarilla y otras enfermedades de las cuales el mosquito es el vector, eran endémicas en el sur de los Estados Unidos; los mosquitos han tenido recientemente una «explosión poblacional» debido a que sus campos de cría están ahora bajo la «protección» de las leyes federales. Mosquitos protegidos ­ seres humanos expuestos a la muerte . . .

    En 1948, cuando aún la corrupción no había ingresado al área del Premio Nobel, se le concedió esta distinción en el rubro Medicina al Dr. Müller ­ el inventor del DDT ­ debido a su reconocida importancia médica. El Dr. Samuel Simmons, jefe de la división tecnológica del Centro de Enfermedades Transmisibles, del Servicio de Salud Pública de los Estados Unidos, dijo en 1959: [4] El valor total del DDT para la Humanidad es inestimable.

    La mayoría de los pueblos del mundo han recibido sus beneficios ya sea directamente por la protección contra las enfermedades infecciosas e insectos transmisores de pestes, o a través de mejor nutrición, alimentos más limpios e incrementada resistencia a las enfermedades. El descubrimiento del DDT permanecerá para siempre como un evento histórico en el campo de la salud pública y la agricultura.

    Después de éxitos iniciales en el control del tifus y el paludismo, el DDT se usó también contra la fiebre amarilla, la enfermedad del sueño, la peste bubónica y la encefalitis ­ todas transmitidas por insectos«Con la introducción del DDT para controlar los vectores de enfermedad ­ escribieron en 1977 Claus y Bolander (5) ­ «parecía que, por primera vez en la historia, el hombre podría ir hacia una vida de dignidad, libre del flagelo las enfermedades invalidantes y del hambre. No es de extrañar, entonces que sus aplicaciones fueran recibidas con un gran y generalizado entusiasmo La perspectiva de que mucha más gente viviese mejor ¿era también anatema para la organizaciones no gubernamentales procontrol de la población y partidarios del Crecimiento Cero? Hay muchas razones para afirmar que sí.

    Lamont Cole, famoso ecologista dice que: «Alimentar a un niño hambriento es exacerbar el problema de la sobrepoblación mundial.»; y Charles Wursta, jefe de científicos del Fondo para la Defensa del Ambiente, (EDF) dice al respecto de la prohibición del DDT«Esta es una buena manera de deshacerse de ellos.» (Cuando Wursta dice «Ellos» se está refiriendo a «todas aquellas pequeñas personas marrones de los países pobres (sic).

    Las pestes de las plantas también sucumbían al DDT. Se mostró efectivo contra el gusano del abeto, la polilla gitana, la polilla lagarta, el gorgojo del pino y el gorgojo del algodón. Tan efectivo resultó el DDT contra tales variedades de insectos que resultó inevitablemente abusado. La actitud de «si un poco es bueno, mucho debe ser mejor» es una común falla humana. Antes de que se tomaran medidas para restringir y controlar al DDT, ya se había hecho ubicuo en el suelo, agua y en el cuerpo de muchos organismos vivientes. Aunque jamás se demostró que el DDT haya producido daño alguno, su extendida presencia en el ambiente fue suficiente para despertar la alarma.

     Algunas Verdades Ignoradas

    Contradiciendo todas las creencias populares, el DDT no es un pesticida persistente en el ambiente. El DDT persistirá en las poco comunes condiciones de un suelo oscuro, seco y libre de todo microorganismos. Bajo condiciones ambientales normales, el DDT pierde su toxicidad para los insectos a los pocos días, normalmente no más de dos semanas. Pero su excesivo uso dio como resultado que su presencia fuese detectada, aunque fuese en pequeñas cantidades, en el suelo, en aguas potables y saladas, en el cuerpo de los peces, pájaros y animales domésticos, y en el hombre también. Esto movilizó la oposición a su uso, oposición que había sido encendida por la lírica histeria del libro de Raquel Carson.[6]

    El creciente coro de los autoproclamados ambientalistas que demandaban que el DDT fuese totalmente prohibido condujo a audiencias públicas en 1971. Debe hacerse notar que la EPA, la Agencia para la Protección del Ambiente, que era la responsable de regular los pesticidas y de tomar las decisiones finales sobre su uso, tomó parte en las audiencias testificando en contra del DDT, junto al EDF (Fondo para la Defensa del Ambiente) y otros grupos activistas. Un caso flagrante de Juez y Parte.

    El ataque contra el DDT descansaba en tres argumentos principales: que el DDT era tan estable que jamás podría ser eliminado del ambiente; que el DDT causaba la muerte de muchos pájaros y podría conducir a la extinción de muchas especies y que el DDT podría causar cáncer en los humanos. Ninguno de estos cargos pudo ser ­ hasta la fecha ­ substanciado por medio de ninguna evidencia científica aceptable. Se argumentaba que el DDT era tóxico para los pájaros que lo ingerían a través de los insectos que comían, los gusanos de la tierra, o de las semillas de las áreas rociadas. También se acusó que dosis sub-letales de DDT en el cuerpo de los pájaros provocaban que pusieran huevos con cáscaras muy finas, resultando en una insuficiente protección y causando la muerte de muchos polluelos. Estos cargos han sido repetidos tantas veces ­ hasta el infinito ­ que han terminado por ser creídos, aunque son falsos en su más amplia mayoría.

    Los conteos de pájaros realizados todos los años por la Audubon Society para las Navidades, demostraron que en realidad muchas poblaciones de pájaros estaban aumentando durante los años de mayores rociados de DDT. [7] Por ejemplo, entre 1947 y 1971 se registró un aumento del 12% en petirrojos (robin), 21 veces más garrapateros (cowbirds), 8 veces más mirlos (blackbird) y 131 veces más grajos (grakle). También aumentaron las gaviotas, especialmente a lo largo de la costa Este.

    TABLA 1

    INFORMACION DEL CONTEO NAVIDEñO DE PAJAROS DE LA SOCIEDAD AUDUBON 1941 (2.331 observadores) comparados con 1960 (8.928 observadores)

     

    Cuenta por Observador

     

    Relación por Observador

    Diferencia por Observador

     

    ESPECIES

     

    1941 ——————— 1960

     

    1941 ————— 1960

     

    1960/1041

      Águilas  

    197

     

    891

     

    0.08

     

    0.10

     

    1.25

      Gaviota  

    124.470

     

    635.642

     

    53.407

     

    2.00

     

    1.33

      Raven  

    667

     

    2.699

     

    29.00

     

    0.30

     

    1.03

      Cuervo  

    185.519

     

    250.307

     

    79.59

     

    28.04

     

    0.35

      Perdiz  

    2.060

     

    10.276

     

    0.88

     

    1.15

     

    1.31

      Faisán  

    6.839

     

    19.731

     

    2.93

     

    2.21

     

    0.75

      Paloma  

    7.411

     

    72.958

     

    3.18

     

    8.17

     

    2.57

      Golondrina  

    14.347

     

    242.303

     

    6.15

     

    27.14

     

    4.41

      Colimbo  

    2.501

     

    27.826

     

    1.07

     

    3.12

     

    2.92

      Pelícano  

    4.450

     

    10.562

     

    1.91

     

    1.18

     

    0.62

      Cormorán  

    3.246

     

    27.162

     

    1.39

     

    3.04

     

    2.19

      Garza  

    2.254

     

    16.253

     

    0.97

     

    1.82

     

    1.88

      Airón  

    1.469

     

    16.800

     

    0.63

     

    1.88

     

    2.98

      Cisne  

    18.554

     

    33.994

     

    7.96

     

    3.81

     

    0.48

      Oca  

    182.820

     

    696.777

     

    78.43

     

    78.04

     

    0.99

      Pato  

    2.137.093

     

    2.739.517

     

    916.81

     

    306.85

     

    0.33

      Mirlo  

    137.502

     

    20.552.375

     

    58.99

     

    2.302.01

     

    39.02

      Grajo  

    24.937

     

    12.570. 458

     

    10.70

     

    1.407.98

     

    131.59

      Cowbird  

    40.019

     

    3.286.314

     

    17.17

     

    368.09

     

    21.44

      Chickadee  

    21.330

     

    55.906

     

    9.15

     

    6.26

     

    0.68

      Titmouse  

    5.038

     

    18.268

     

    2.16

     

    2.05

     

    0.95

      Nuthatch  

    4.214

     

    13.439

     

    1.81

     

    1.51

     

    0.83

      Robin  

    19.616

     

    928.639

     

    8.41

     

    104.01

     

    12.37

      Gorrión Inglés  

    53.335

     

    358.796

     

    22.88

     

    40.19

     

    1.76

      Azulejo  

    3.742

     

    6.903

     

    1.60

     

    0.77

     

    0.48

      Estornino  

    211.836

     

    8.673.096

     

    90.88

     

    971.45

     

    10. 69

     

    Las propias cifras de la Audubon Society prueban la falsedad del mito que el rociado de DDT mataba pájaros. El número de pájaros contados por observador, en particular el petirrojo que Carson declaró casi extinguido, aumentó enormemente durante los años de uso del DDT.

     
                                             
     Fuente: «42nd Christmas Bird Count», Audubon Magazine, 1942 y «61st Christmas Bird Count», Audubon Field Notes 15,1961

    Aparte del petirrojo (que algunos histéricos ecologistas afirmaron que estaba condenado a la extinción por el DDT) fueron las aves de rapiña las que captaron en mayor medida la atención anti-DDT, en especial el águila americana y el halcón peregrino. En el Hawk Mountain Sanctuary (Santuario de la Montaña del Halcón), en Pennsylvania, los recuentos anuales mostraron 191 águilas en 1946 contra 660 en 1970. Todos los años se registraron incrementos de las poblaciones.

    Para el halcón peregrino, el número de ejemplares fluctuó desde un mínimo de 14 en 1965 hasta un máximo de 32 en 1969. El Dr. Joseph Hickney declaró en las audiencias del DDT que el número de ejemplares del halcón peregrino no había estado en declinación desde 1890. Su destino está más relacionado con la disponibilidad de presas y lugar para anidar que con los pesticidas.

    En la Tabla 2 de la página 89, se puede ver la información relativa al famoso Halcón Peregrino que, de acuerdo a los ecologistas, estaba en vías de extinción. Analicemos la información. Para todos los halcones, los recuentos anuales mostraron un aumento desde 9.291 en 1957 a 20.196 en 1967. Dado que está protegida por su designación de especie en peligro de extinción, el Aguila Calva americana se ha incrementado de manera significativa. Aunque los ecologistas sostienen que esto se debe a la prohibición del DDT, todas las evidencias científicas apuntan a lo contrario.

    TABLA 2

     

    MIGRACION DE HALCONES EN HAWK MOUNTAIN,

     

    PENNSYLVANIA (1946-1968)

     

    AñO

     

    TOTAL

     

    AñO

     

    TOTAL

     

    AñO

     

    TOTAL

     

    AñO

     

    TOTAL

     

    1946

     

    9.291

     

    1952

     

    20.639

     

    1958

     

    15.264

     

    1964

     

    15.530

     

    1947

     

    12.654

     

    1953

     

    14.111

     

    1959

     

    11.779

     

    1965

     

    17.986

     

    1948

     

    21.173

     

    1954

     

    12.780

     

    1960

     

    18.893

     

    1966

     

    17.817

     

    1949

     

    17.147

     

    1955

     

    20.191

     

    1961

     

    14.818

     

    1967

     

    20.196

     

    1950

     

    14.916

     

    1956

     

    13.616

     

    1962

     

    14.862

     

    1968

     

    29.765

     

    1951

     

    18.105

     

    1957

     

    15.996

     

    1963

     

    16.163

     

    ***

     

    ***

    Carson aseguró que el número de aves rapaces migratorios estaba disminuyendo en Hawk Mountain hasta el punto que la nación debería buscar otro símbolo nacional porque el águila se extinguiría. Sin embargo, como lo demuestran estas cifras oficiales del Hawk Mountain Sanctuary, no existe ninguna tendencia hacia la extinción en los actuales conteos de aves, sólo algunas variaciones de uno a otro año en el número contado. Las especies contadas en el Hawk Moutain Sancturay comprenden a 14 especies diferentes de aves de rapiña, entre las que se cuentan buitres, águilas, merlines, y muchas especies de halcones.

     Las cáscaras delgadas

    El caso de la disminución del espesor de las cáscaras, se trata de un fenómeno que se remonta a épocas anteriores al DDT. Esto se ha conocido por décadas. Existen muchas causas: dietas bajas en calcio o vitamina D, miedo, altas temperaturas nocturnas, varias substancias tóxicas y enfermedades como el Mal de Newcastle. Los experimentos que intentaron demostrar algún efecto tóxico por la ingestión de DDT fallaron, aún cuando los experimentadores alimentaron a sus aves (faisanes y codornices) con dosis 6.000 a 20.000 veces mayores que las 0.3 partes por millón (ppmv) halladas como residuo del DDT en los alimentos. Las codornices alimentadas con 200 partes por millón en todas sus comidas, a través de su entero período reproductivo, empollaron el 80% de sus crías, comparado con el 83.9% del grupo de control. No se informó de ningún adelgazamiento de las cáscaras.

    Con los faisanes tratados de la misma forma, las aves alimentadas con DDT tuvieron éxito en su empollado en el 80,6% de los casos . . . mientras que el grupo de control sólo consiguió el 57,4% de éxito. (8)

    TABLA 3

     

    EFECTOS DEL DDT EN LA REPRODUCCION DE PERDICES Y FAISANES

     
     

    NIVEL DE LA DIETA

       

    % supervivencia después de

    En invierno

    (ppm)

     

    Durante la reproducción (ppm)

     

    Cantidad de Aves

     

    Mortalidad (%)

     

    Huevos/ Ave (prom)

     

    Incubación (%)

    2 semanas

    6 semanas

    PERDICES

    0% (control)

    0 (control)

    32

    6.25

    52

    83.9

    88.0

    83.3

     

    100

     

    0

     

    8

     

    0

     

    61

     

    75.1

     

    86.2

     

    64.3

     

    100

     

    100

     

    12

     

    25.0

     

    65

     

    75.3

     

    67.7

     

    7.1

     

    0

     

    200

     

    12

     

    25.0

     

    55

     

    80.0

     

    32.3

     

    12.9

    FAISANES

    0 (Control)

    0 (control)

    28

    0

    48

    57.4

    94.8

    89.7

      0    

    50

     

    10

     

    0

     

    31

     

    56.6

     

    100

     

    86.0

      50    

    50

     

    10

     

    0

     

    18

     

    80.6

     

    100

     

    93.3

      0    

    100

     10

     

    0

     19

     

    52.0

     100

     

    82.4

     

    FUENTE: James DeWitt, Journal of Agriculture and Food Chemistry, 1956

    Esta es la información publicada y de la cual Rachel Carson falsamente afirmó que la perdiz y el faisán «…habían incubado muy pocos huevos.» El dosaje suministrado al faisán fue 100 partes por millón de DDT en todas sus comidas todos los días – casi 3.000 veces más que La ingesta diaria de los seres humanos durante los años de intenso uso del DDT.

    El DDT se degrada en el ambiente natural, rápidamente y sin perjuicios. Pero cuando el DDT estaba en amplio uso en 1969, era detectable un pequeño residuo en los alimentos. ¿Era esto peligroso? la respuesta es NO. La ingesta diaria de los seres humanos podía llegar a los 0.065 miligramos (mg). Para estudiar su efecto, grupos de voluntarios fueron alimentados con 35 mg diarios de DDT, durante períodos de 21 a 27 meses, sin observarse efectos nocivos, ni entonces ni después de casi 30 años.(9) El DDT se metaboliza en subproductos que son excretados en la orina, y no existe una significante «magnificación biológica» hacia arriba de la cadena alimentaria, como se había teorizado en un principio.

    Durante los años de mayor uso del DDT, el ciudadano promedio de los Estados Unidos estaba ingiriendo menos de 13 mg por año; el DDT era tan seguro que a la comida envasada para bebés se le permitía contener hasta 5 ppm. Esta es una concentración sumamente pequeña; 5ppm es el equivalente a 5 monedas en una pila que contiene 10.000 dólares en monedas de 1 centavo. El Dr. Bruce Ames, el bioquímico mundialmente famoso por haber desarrollado la prueba que determina el potencial cancerígeno de cualquier substancia, nos dice que cada día ingerimos cientos o miles de partes por millón de cancerígenos naturales (no fabricados por el hombre) que están contenidos en cualquier dieta normal.

    Bruce Ames afirma también que no tenemos nada que temer por la ingestión de cantidades infinitesimales de productos químicos sintéticos o naturales. Que si la gente está muy preocupada por las pequeñísimas cantidades de pesticidas que existen en las verduras, debería saber que una taza de café contiene 10,000 veces más cancerígenos.

      ¿Previene el DDT al Cáncer?

    Los trabajadores de la fábrica Montrose Chemical Company, que producía al DDT, no usaban ropas especiales, ni guantes ni máscaras de ningún tipo, y estaban inhalando polvillo de DDT el día entero. El Dr. Laws y el Servicio de Salud Pública de los EEUU revisaron a los obreros y sus historias clínicas sin encontrar efectos adversos en su salud. También encontraron que habían absorbido en sus tejidos grasos una cantidad de DDT y sus isómeros que variaba de 38 a 647 ppm. En ese tiempo, los niveles de DDT en los tejidos grasos del ciudadano promedio de estados Unidos era de apenas 6 partes por millón. En una publicación de la American Medical Association, el Dr. Laws afirmó: «Es realmente notable que (después de 10 o 20 años de exposición al DDT) no se haya registrado ningún tipo de cáncer entre este grupo de individuos, en una estadística de exposición de 1.300 años/hombre, lo que constituye un evento estadísticamente imposible.»[10]

    Como es sabido, el cáncer ataca al 25% de la población mundial (de manera aproximada) independientemente de color, raza, lugar, grupo social, niveles económicos o sectores ocupacionales. De cualquier grupo que se elija en el mundo, con muy ligeras variaciones, el 25% desarrollará cáncer, de los cuales, el 50% se curará definitivamente. Por lo tanto, ubicar un grupo humano (en este caso ocupacional) que no presenta ni un solo caso de cáncer, resulta un evento estadístico sin antecedentes en el mundo; como lo define el Dr. Laws, «es estadísticamente imposible.» Posteriormente Laws realizó experimentos con roedores, alimentándolos con dosis proporcionalmente 10.000 veces más altas que las ingeridas por los seres humanos y luego transplantó tumores malignos directamente al cerebro. Sin DDT en la comida, la mortalidad fue del 100%. Pero el cáncer desapareció de 22 de las 60 ratas ensayadas que habían ingerido DDT durante 6 meses. Un 30% de curación es algo que merecería seguirse estudiando. Otros científicos informaron de resultados similares: los Dres. Charles Silinskas y Allan E. Okey descubrieron que el DDT en la dieta inhibía los cánceres mamarios y leucemias inducidos químicamente en las ratas. Declararon que «Si las estimaciones resultan correctas ­ de que el 80 o 90% de todos los cánceres humanos son causados por substancias químicas (como sugieren muchos expertos) los propuestos mecanismos de efectos protectores del DDT en las ratas podrían muy bien aplicarse al hombre.» (11)

    En aquella época no se sospechaba que el origen del cáncer podía ser de origen genético, como la gran mayoría de los científicos parecen estar hoy de acuerdo. Sin embargo, ambas teorías pueden conciliarse perfectamente si se descubre que las substancias químicas sólo «gatillan» la generación de un cáncer en las personas genéticamente predispuestas a ello. Futuras investigaciones nos deberían dar la respuesta a este interrogante.

    Escribiendo en el British Medical Bulletin en 1969, el Dr. A.E. McLean, un prominente patólogo, y sus coautores citaron el incremento de la inducción de enzimas por los hígados de los animales que habían ingerido DDT. Describieron en su trabajo que la aguda toxicidad de la aflatoxina (un poderoso agente cancerígeno producido por el moho común de los granos y otras semillas) estaba fuertemente aumentada en las ratas con deficiencia en proteínas, pero «el efecto se revertía si las ratas habían ingerido previamente moderadas cantidades de DDT. . .» La conclusión de los autores«Parecería que la aflatoxina B1 y quizás otras aflatoxinas, que están entre las substancias más cancerígenas conocidas, son convertidos en metabolitos no-tóxicos en el hígado por medio del sistema de hidroxilación.» (12)

    Por consiguiente, el DDT en el organismo de los residentes pobres del Africa tropical, deficientes en proteínas, bien podría haber inhibido el desarrollo de tumores y cánceres. También, la explosión de la población de pájaros comedores de semillas durante los años de rociado de DDT, puede deberse a la ingestión del DDT contenido en las semillas.

    El National Cancer Institute de los Estados Unidos revisó todos los estudios disponibles sobre el tema ­ los pro y los contra ­ y en 1978 declaró que el DDT no es cancerígeno. Es muy sugestivo notar que durante los años de gran uso del DDT (de 1944 a 1972) en los Estados Unidos el cáncer de hígado disminuyó un 30% .(15)

    Millones de personas estuvieron expuestas al DDT durante los años del programa de rociado contra la malaria y los 130.000 hombres que tomaron parte del trabajo ­ expuestos a altas concentraciones ­ jamás experimentaron efectos adversos. Las «evidencias» en contrario no pasan de ser casos anecdóticos que, cuando se lo investiga a fondo, carecen de fuentes de comprobación o documentación. Son «rumores».

    Sin embargo, aunque la evidencia científica es abrumadora en cuanto a la inocuidad del DDT, los ecologistas no se dan por vencidos y continúan inventando nuevas y terroríficas teorías en contra del DDT. ¡Para ellos es necesario que el DDT no pueda regresar jamás!

      Más de lo mismo

    La última historia de horror sobre el DDT ­ de que provoca emasculación ­ es ridícula y carece de base científica. La emasculación, para quienes lo ignoran, es la falta de desarrollo del pene en animales o en los seres humanos. En 1959, S.W. Simmons hizo notar que «Los cambios sociológicos que produjo el DDT recién comienzan a hacerse aparentes. En algunos países ­ Madagascar, por ejemplo ­ la población se duplicó desde 1947, aunque se había mantenido prácticamente estacionaria durante muchos años previamente. Una campaña antimalárica se inició en 1949 y es ampliamente responsable del incremento poblacional. Este no es un fenómeno aislado». (16)

    En la población de Pulikhanuri, en Afganistán, donde la población había sido 5000 almas, el mejoramiento de las condiciones de salud dio como resultado un incremento de la población a 20.000 habitantes.(17) Los registros demuestran que país tras país, la mortalidad disminuyó enormemente cuando el DDT era usado para el control de la malaria, y no se encuentra informe alguno que dé cuenta de casos de emasculación como resultado del uso del DDT. Sin embargo, se nos dice ahora que el DDT, a través de su metabolito DDE puede ser un agente emasculante(18, 19) y que «su ubicuidad en los tejidos grasos humanos puede ser responsable de la disminución en los conteos de esperma y otras anormalidades en la reproducción masculina». También se menciona al cáncer testicular como posiblemente asociado con el DDE. Nuestro vieja amiga, «la punta del iceberg», es nuevamente invocada.

    El Servicio de Salud Pública de los EEUU informó sobre el efecto de elevados niveles de DDT en los seres humanos. (20, 21) Ya vimos que Laws et al. encontraron que los trabajadores de una fábrica de DDT tenían en 1965 una ingesta diaria 440 veces mayor que la población en general. Los descubrimientos clínicos realizados «no diferían significativamente de los que era dable encontrar en un grupo de edad y status económico similar sin exposición al DDT.» Los trabajadores masculinos casados tenían un promedio de 4 hijos por familia. Las familias más grandes llegaban a 13 hijos y el supervisor tenía 8.

    Los habitantes de Trian, Alabama, ingirieron pescado que tenían niveles de DDT y DDE de hasta 627.000 ppm, porque había residuos de DDT presentes en el río local. El principal efecto medido fue un incremento de la transpeptidasa gamma glutamil (GT) en la sangre. El informe del Servicio de Salud Pública de los EEUU dijo que «El efecto sobre la GT es pequeño y probablemente no afecta al bienestar».(22, 23)

    R. Pal informó que el término medio de vida en la India era de 47 años, y lo comparó con los 32 años de promedio que existía en la India antes del inicio de las campañas de erradicación de la malaria ­ donde se usaron 147 millones de libras de DDT.(24) Ottoboni et al. descubrieron que el DDT mejoraba los rendimientos reproductivos en estudios multigeneracionales con ratas y perros (25, 26). El DDT usado por Ottoboni contenía un 2% de DDE. La doctora comentó que la performance reproductiva de ratas de 52 semanas de edad indicaba que «el DDT puede también ejercer un efecto protector contra la disminución de la performance reproductiva producida por la edad»(24). Las ratas recibieron en su dieta hasta 200 ppm de DDT, incluyendo 4 ppm de DDE. Sus estudios con perros Beagle se extendieron por tres generaciones, con una producción de 650 cachorros.(25) «No hubo efecto del DDT (1 a 10 mg/kg corporal/día) en la morbilidad, mortalidad, resultados gruesos o histológicos en ninguno de los perros.»(25)

     La Irracional (o Criminal?) Prohibición

    Toda esta información (y muchísima más) fue presentada en las audiencias de 1971 y, después de haberse considerados más de 300 documentos técnicos y el testimonio de 150 científicos, se emitieron las recomendaciones que, basadas en la evidencia científica disponible, la prohibición total del DDT no era deseable. «Existe una necesidad actual para el uso continuado del DDT para las aplicaciones definidas en este caso.» (13)

    Eso fue en Abril de 1972. A pesar de ello, dos meses más tarde, el 14 de Junio de 1972 ­ fecha funesta para la Humanidad ­ William Ruckelshaus, el administrador de la EPA, prohibió al DDT para todos los usos, menos para algún uso público esencial que pudiese ser probado. (Y la malaria, ¿no es un uso público esencial que no necesita ser probado?) Cuando Ruckelshaus abandonó su cargo en la EPA firmó una solicitud de admisión al Fondo de Defensa del Ambiente (EDF), la organización que lideró la lucha contra el DDT. Años después, Ruckelshaus admitió que «las decisiones del gobierno que involucran el uso de substancias tóxicas son políticas . . . [y] la decisión final sigue siendo política. [En] el caso de los pesticidas, el poder de tomar estas decisiones ha sido expresamente delegado en el Administrador de la EPA.» (14)

    La prohibición del DDT no puede ser justificada en terrenos científicos ­ la regulación, sí, el control, también ­ pero la prohibición total no. La más importante (y la peor) de las consecuencias de la decisión de Ruckelshaus es que le dio credibilidad a la pseudociencia; creó una atmósfera donde la evidencia científica puede ser echada a un lado por la emoción, la histeria y las presiones políticas. Ha producido un daño incalculable para la Humanidad. La técnica de presentar acusaciones sin sustento científico, repetido hasta el infinito, ha sido usado con todo éxito desde entonces contra el asbestos, los PCBs, la dioxina, los CFCs, y por supuesto el Alar.

    El DDT y otros muchos insecticidas, herbicidas, fungicidas y rodenticidas han tenido un efecto tremendo sobre la agricultura. Lo mismo han hecho otros productos químicos y fertilizantes: han mejorado variedades de cosechas y han proporcionado una mejor comprensión del tratamiento de tierras y manejo de cultivos. Todo esto dentro de un informado e integrado programa de manejo de plagas ha conducido a una abundancia de producción de alimentos como no se podía ni soñar hace algunas décadas. Nunca jamás podría volver a repetirse un desastre como la hambruna de 1840 en Irlanda, provocada por un hongo, el fusarium, la peste de la papa tardía. Esa catástrofe condujo a la muerte por hambre del 30% de la población irlandesa, otro tercio emigró, y el tercio restante se dedicó a luchar contra los ingleses, a quienes consideraba ­ y aún consideran hoy ­ los culpables de todos sus males. ¿Cuánto de la tragedia se podía haber evitado en la Verde Erín si hubiese existido un buen fungicida como el Captan?

     ¿Por Qué Este Crimen?

    El 21 de Junio de 1992 se reunió en Washington, D.C., un grupo de eminentes científicos para analizar los efectos que la prohibición del DDT había tenido sobre la Humanidad, y en una conferencia de prensa dada en el National Press Club calificaron a la prohibición con una sola palabra: genocidio. Este evento marcaba el 20o aniversario de la prohibición del insecticida que había salvado más vidas humanas que cualquier otro compuesto fabricado por el hombre, incluida la penicilina.

    Como todos los fraudes ecológicos que dieron forma y razón de ser a la Cumbre Ecológica de Río 92, el control de la población es el motivo que se esconde detrás de todos las profecías y escenarios catastróficos del ecologismo de denuncia. Alexan-der King, el malthusiano que dirige al infame Club de Roma, lo hizo muy claro en una entrevista que apareció en el libro de 1990, The Discipline of Curiosity. King, que era un químico en tiempos de la Segunda Guerra en Inglaterra, describe su rol como introductor del uso del DDT en las tropas y menciona «el enorme número de vidas que salvó». Luego sigue diciendo: «Mis propias dudas surgieron cuando se introdujo al DDT para uso civil. En Guyana, después de dos años había prácticamente eliminado a la malaria, pero al mismo tiempo la tasa de nacimientos se había duplicado. De modo que, en el fondo, mi principal pelea con el DDT es que había ayudado enormemente al problema de la sobrepoblación.» (15)

    En la conferencia de prensa estaban nuestro ya conocido J. Gordon Edwards, William Hazeltine, un entomólogo dedicado a la salud pública, Edward Remmers, vicepresidente del American Council on Science and Health, y Thomas Jukes, profesor de biofísica de la Universidad de California en Berkeley (entre muchos otros científicos de renombre) que eran veteranos en la lucha en defensa del DDT. El Dr. Ed Remmers comenzó su participación en la conferencia de prensa, leyendo las declaraciones de Academia Nacional de Ciencias y de la Organización Mundial de la Salud (OMS) apoyando al impresionante record de vidas salvadas que mostraba el DDT. Después de rever la documentación científica existente sobre la seguridad e inocuidad del DDT y las estadísticas de la malaria antes y después del DDT, el Dr. Remmers dijo: «Tenemos la sensación de que el DDT se ha convertido en uno de los «Doce Sucios» que los ecologistas de la Nueva Era han elegido.» «El DDT fue elegido principalmente en base a mitos que hablaban de cáncer en los seres humanos y la delgadez de las cáscaras de huevos en las aves . . . En verdad, las millones de personas que han muerto innecesariamente de malaria, tifus y otras enfermedades que pueden controlarse perfectamente con el DDT, esta gente realmente enfrenta una Primavera Silenciosa.»

     

    «Cuando nos fijamos en los oponentes al DDT, ¿quiénes son ellos?» preguntó Remmers ­ «Es el grupo antipoblación en su casi totalidad, la gente que está promoviendo el crecimiento cero de población, o la gente que le gustaría reducir a la población del mundo a sólo 1.000 millones de almas . . . Existen estos grupos que llevan adelante esta política de verdadero genocidio.» Estos grupos de Crecimiento Cero ­ Zero Growth ­ tanto sea de población como de producción agrícola e industrial, forman parte de una gigantesca red de organizaciones que trabajan generando geopolíticas que tienden al mantenimiento y a la consolidación del status colonial o dependencia económica de los países en vías de desarrollo, los llamados Países del Tercer Mundo, los países pobres, los países en vías de extinción como entes soberanos. Pero más de esto, está profundamente analizado y demostrado en el capítulo Análisis Político del Ecologismo.


    REFERENCIAS:   1. Jukes Thomas H., 1974. «Insecticides in Health, Agriculture and the Environment», Naturwissen-schafften, Vol. 66, 1974
    • Jones, Pamela, 1989, «Pesticides and Food Safety», American Council on Food and Safety, American Council on Science and Health, 1995 Broadway, 16th floor, NY 10023
    2. Claus, George y Karen Bolander, 1977. Ecological Sanity, David McKay, pp. 289-291
    • Jukes, T.H., 1988. «How to Survive When Everybody’s Scared», 21st Century Science & Technology, September/October 1988

    3. Claus, George y K. Bolander, op. cit., p. 294

    • Edwards, J. Gordon, «Saving Lives With Pesticides», National Council for Environmental Balance, 4169 Westport Rd. Louisville, KY 40207
    • De Gregori, Thomas R. «Out of Africa»Priorities, publicación del American Council on Science & Health, Verano 1989.
    • Goldstein, Robert y Olson, Betty, «Applying Genetic Ecology to Environmental Management.» Journal of Environmental Science and Technology, vol. 22, No. 4, 1988, pp. 370-372

    4. Whelan, Elizabeth, 1985. «Toxic Terror», Jameson Boks, Inc. 722 Columbus St, Ottawa, IL 61350

    5. Claus y Bolander, op. cit, 1977

    6. Whelan, Elizabeth, op. cit., 1985

    • Isaac, Rael J. y Eric Isaac, 1985,. «The Coercive Utopians», p. 70. Discipleship Books, Regnery Gateway, Inc. 1130 17th St.,Washington D.C. 20036
    • Efron, Edith, 1984, «The Apocalyptics», Simon & Schuster, NY, pp. 31-33 y pp. 124-134
    7. Edwards, J. Gordon, 1981. «Silent Spring-Broken Spring», National Council for Environmental Balance, Louisville, KY 40207 8. DeWitt, James, 1958, «Effects of DDT on Reproduction of Quails and Pheasant»Journal of Agricultural and Food Chemistry. 9. Hayes, Wayland J. 1956. «Effects of Known Repeated Oral Doses of DDT in Man«, Journal of the American Medical Association, Vol. 162, pp. 890-897
    • Edward R. Laws, Jr. et al., Archives of Environmental Health, Vol. 15 pp. 766-775 (1967) y Vol. 23, pp.181-184, (1971)
    9. E.R. Laws, A. Curley y F.J. Biros, op. cit., (1967-1971) 10. Charles Silinskas y Allan E. Okey, 1975. «Inhibition of Leukemia by DDT»Journal of the National Cancer Institute, Vol. 55 (Sept), pp. 653-657 11. A.E.M. McLean y E.K. McLean, 1969. «Diet and Toxicity»British Med. Bulletin, Vol. 25, pp. 278 281. 12. Keith Barrons C., 1981, «Are Pesticides Really Necessary?» Regnery Gateway, Inc. 1130 17th St. Washington D.C. 20036

    14 Whelan, E. «Toxic Terror», op. cit., p. 85

    15. Mazel Hecht, Marjorie, «Scientists Score DDT Ban», 21st Century Science & Technology, Summer 1992, pp. 48-49

    16. A. King, «The Discipline of Curiosity», Amsterdam, Elsevier, 1990 17. S.W. Simmons, «DDT, The Insecticide Dichloro diphenyl Trichloroethane and Its Significance,» en Vol 2, Human and Veterinary Medicine, ed. Paul Mueller (Basel: Birkhauser Verlag, 1959) 18. Editorial, Nature, Vol. 375, p. 522, 1995 19. R.M. Sharpe, Nature, Vol. 375, p. 538-9, 1995 (Nótese que es el tifus y no la fiebre tifoidea el que es transmitido por el piojo). 20. E.R. Laws, A. Curley y F.J. Biros, Environmental Health, Vol. 15, pp. 766-775, 1967. 21. Editorial, Agricultural Age, Dic. 1983. 22. K. Kreiss et al., Journal of the American Medical Association, Vol. 245, pp 1926-30, 1981 23. R. Pal, «World Review of Pest Control», Vol. 1, p.6, 1962 24. A. Ottoboni, Toxicology and Applied Pharmacology, Vol. 14, pp. 74-81, 1969. 25. A. Ottoboni, et al., Archives of Environ. Contamination and Toxicology, Vol. 6, pp.83-101, 1977 26. R.M. Sharpe, «Another DDT Connection»Nature, Vol.375, pp. 538-539, 1995 27. W.R. Kelce, et al., Nature, Vol. 375, pp. 581-85, 1995 28. M.S. Wolff, et al., Journal of the National Cancer Institute, Vol. 85, Abril 1993.

Capítulo 6 - El Asbestos y otros mitos

 

PCB’s – Dioxina – Riesgo Cero

Lluvia Acida – El Fraude del Jefe Seattle

 


  ASBESTOS: OTRA GRAN MENTIRA

  La actual y extendida suposición de que cualquier exposición al asbestos (o amianto) puede provocar cáncer sólo prueba un vez nuestra conocida máxima: Repita una mentira las veces suficientes y la gente terminará por creerlo. La verdad es, sin embargo, que cualquier daño por asbestos o por cualquier otra substancia química, natural o sintética, depende de la cantidad a la que uno esté expuesto. No existe ­ escuche bien ­ ningún peligro documentado para los seres humanos que viven o trabajan en edificios en donde el asbestos ha sido usado para aislación contra fuego, revestimientos de cañerías de vapor y calderas, aislación acústica, refuerzos de paredes y otros usos.

Respirar las fibras de asbestos puede llegar a provocar cáncer. Esto no lo niega absolutamente nadie que sepa algo del asunto. Pero creer en ello sin tener en cuenta la importancia de cuál de asbestos, qué cantidad, y durante cuánto tiempo ha sido inhalado, ha conducido a la innecesaria, costosa y posiblemente trágica prohibición del uso de cualquier tipo de asbestos. Las regulaciones que impuso la EPA en 1989, ­ tan religiosamente seguidas por muchos países cuyos funcionarios carecen de los conocimientos científicos necesarios (son apenas políticos) exigen la remoción de todo tipo de asbestos que se haya utilizado en la construcción de viviendas, fábricas, barcos y cualquier tipo de vehículo ­ pero cuyos costos estarán a cargo del usuario.

Lo realmente malo de todo esto, es que el asunto de retirar todo el asbestos de las paredes y aislaciones, inyecta al ambiente muchísimo más asbestos como residuo, que si se lo dejase tranquilo donde está. Para comprender bien este mito (o este fraude científico/ periodístico) tenemos que tomarnos el trabajo de analizar los estudios científicos e informarnos de la verdad. Es un trabajo engorroso, pero siempre ha sido engorroso y difícil el camino a la Verdad. Veamos a los hechos que rodean al asbestos y a la salud.

Aunque geológicamente se conocen seis tipos diferentes de asbestos, en el comercio, la industria y la construcción se han usado de manera muy extendida sólo tres: el asbestos crisotilo (o asbestos blanco), el asbestos marrón (o amosita) y el asbestos crocidolita (o asbestos azul).[1]

El tipo de asbestos que se da en América es del tipo «crisotilo» que toma cuenta del 95% del asbestos usado en los Estados Unidos. Tiene largas fibras retorcidas y, a menos de que se encuentre en concentraciones atmosféricas sumamente grandes, no penetran a los alvéolos pulmonares y son fácilmente expulsadas de los pulmones. Los otros dos tipos, el crocidolita y el amosita son muy peligrosos y pertenecen a la variedad anfíbol, que se obtiene únicamente en Africa. Sus fibras son realmente mortíferas: su pequeñez hace que penetren en los alvéolos y, una vez allí, son casi imposibles de eliminar.

Durante la Segunda Guerra Mundial, y gracias a su elevadísima resistencia a la corrosión, se importó a los Estados Unidos para usarse como aislante y protector contra el fuego en las cañerías de los barcos de guerra de esa época. Dadas las condiciones en que se construían los barcos durante la guerra, la protección de los obreros no era la adecuada y son esos trabajadores los que están sufriendo ahora las consecuencias de tal exposición al más peligroso de los asbestos. El asbestos anfíbol se usó también, hasta 1956, en los filtros de los cigarrillos Kent. [2]

Los estudios epidemiológicos realizados entre los trabajadores fuertemente expuestos al asbestos muestran que los tres tipos tienen la tendencia a desarrollar cáncer de pulmón ­ especialmente en los fumadores ­ y también provoca asbestosis, una enfermedad no maligna caracterizada por el endurecimiento de los tejidos pulmonares que conduce a severos problemas respiratorios o al enfisema. Tanto la asbestosis como el mesotelioma son producidas por respirar las fibras del crocidolita, de la variedad anfíbol. El mesotelioma es un cáncer del revestimiento del pecho y de la cavidad abdominal. Esta enfermedad se ve asociada a la exposición severa a la crocidolita (o asbestos azul), mucho menos frecuente a la amosita (o asbestos marrón), y casi inexistente en trabajadores expuestos al asbestos blanco o crisotilo.

Esto está ampliamente corroborado por la falta de asbestosis o cáncer pulmonar entre los mineros de asbestos en Canadá y sus familias. De manera similar, cerca de San Francisco, en California, existen unos 40 km2 de roca desnuda que contiene el 50% de asbestos crisotilo. Aunque los pobladores de la región han estado bebiendo agua rica en crisotilo y respirando durante generaciones enteras un aire que debería ­ en teoría ­ estar prohibido por la EPA, no existe ninguna incidencia mayor de cáncer de pulmón ni mucho menos ninguna epidemia de cáncer en la región.

¿Por qué se exige, entonces, la remoción del asbestos crisotilo de los edificios escolares en los Estados Unidos? Respirar cualquier tipo de polvo ­ harina, sílice, carbón, tierra ­ en exceso conducirá inevitablemente a problemas respiratorios. Pero el asbestos crisotilo, por sí mismo, no es muy peligroso.

Los estudios epidemiológicos realizados sobre poblaciones expuestas al asbestos en situaciones no-ocupacionales; por ejemplo, el estudio de mujeres que viven en las ciudades mineras de crisotilo de Quebec, en Canadá. Estas mujeres, que no trabajan en la industria del asbestos, pero que están expuestas a altos niveles de asbestos originarios de las minas y los molinos cercanos, no demuestran tener un exceso de enfermedades relacionadas con el asbestos. Sin embargo, algunos de los residentes de las ciudades de la Provincia del Cabo, Sudáfrica, y en Wittenoom, Australia (donde se produce el asbestos azul) han muerto de mesotelioma aún cuando no trabajaban en la industria del asbestos.

La mayoría del asbestos instalado en las escuelas de los Estados Unidos es del tipo menos dañino, el crisotilo; mientras que el asbestos azul es muy difícil de hallar. Las repetidas mediciones de los niveles de fibras de asbestos en el aire dentro de las escuelas que contienen materiales con asbestos muestran, con rarísimas excepciones, niveles que son inferiores a 0,00009 fibra por centímetro cúbico. Estos niveles, con frecuencia, no son mayores a los medidos en las calles de la ciudad y muy inferiores a los experimentados por las mujeres que viven en los pueblos mineros de Quebec.

Las mediciones efectuadas en las aulas, antes de la remoción del asbestos crisotilo, reveló que el aire contenía normalmente unas 0,00009 fibras por centímetro cúbico. Después de practicar la remoción del asbestos, las mediciones subieron de 20 a 40 fibras/cm3, lo que representa un aumento de 40.000 veces el valor anterior, y se mantiene en esos elevadísimos niveles durante varios años. El remedio resultó peor que la enfermedad.

Perturbar al asbestos colocado provoca de manera inevitable que las fibras se desparramen por el aire y se mantengan allí en niveles alarmantes. Sería mucho más sensato, entonces, asegurarse de que todas las fibras de asbestos se mantuviesen para siempre en su lugar por medio de una buena y prolija capa de pintura. Pero eso es demasiado sencillo y demasiado barato comparado con los complicados y carísimos métodos para la extracción del asbestos, estimados en más de 50 mil millones de dólares. Que los pagan los tontos, por supuesto. ¿Quiénes? La gente común, la gente que no se informa y cree todo lo que le dicen los ecologistas y la EPA.[3] Es decir, todos nosotros. En resumen, no existe evidencia científica ninguna de que el asbestos que existe en las aulas y escuelas cause enfermedades a los estudiantes o a los profesores.

 La EPA Miente

La creencia popular de que cualquier forma de asbestos y en cualquier nivel de exposición provoca cáncer es una falsedad legitimada por la EPA, Agencia de Protección del Ambiente de Estados Unidos, que mintió cuando afirmó que la prohibición emitida en 1989 para todos los asbestos fue motivada por la comprometedora evidencia de riesgo informada por la comunidad médica. Lo que la EPA hizo en realidad fue distorsionar una suposición estadísticamente válida en referencia a altos niveles de exposición a tres tipos de asbestos, y a una incrementada incidencia de cáncer de pulmón, mesotelioma, y asbestosis (sin men-cionar en el informe el importante asunto de ser fumador, como otro de los co-factores).

La perfectamente cultivada imagen que se formó la EPA como bienhechora y militante protector de la salud pública la ha protegido de un análisis más crítico. Mientras tanto, la prohibición del asbestos fue revocada por la Corte del 5º Circuito de Apelaciones de Nueva Orleans el 21 de octubre de 1991. Entiéndase bien esto: la prohibición del asbestos es ilegal en los Estados Unidos.

Aún así, parece ser que el poder de una mentira repetida con la frecuencia suficiente es de tal magnitud, que no hay cantidad ninguna de razonamiento o discurso racional que pueda penetrar el velo de histeria provocado por la mentira. Tanto en los Estados Unidos como el resto del mundo, la mentira se ha convertido en verdad, y la verdad se transformó en mentira. La EPA, que hizo tanto para legitimar la falsedad, se burla del hecho de que los Estados Unidos son todavía una nación que se gobierna por medio de leyes. Hasta el día de hoy, la EPA está ignorando con toda impunidad la orden de la Corte para levantar la prohibición del asbestos.

De verdad, la EPA parece hacer alarde de su indiferencia ante el gran riesgo que se impone a la vida humana al prohibir al asbestos, de manera especial si se consideran las últimas estadísticas que demuestran que el gran aumento de los accidentes de autos y camiones son atribuibles a fallas de los frenos, como consecuencia de que el asbestos no se usa más para pastillas y cintas de freno. El costo de cumplir con las regulaciones impuestas por la EPA sobre el asbestos en escuelas y edificios públicos ha sido descomunal: entre 50 mil y 100 mil millones de dólares para fines de 1992! En muchos estados, este dinero se ha derrochado en extraer el asbestos de los edificios, mientras que al mismo tiempo se han impuesto enormes recortes en los salarios de maestros y personal de las escuelas, como pasó en California.

  ¿Riesgo Innecesario?

Mientras tanto, los funcionarios de las escuelas y de la ciudad han seguido ignorando la creciente evidencia científica que refuta totalmente las afirmaciones de los ecologistas y de la EPA sobre los «riesgos innecesarios» asociados con las bajas exposiciones al razonablemente inocuo asbestos crisotilo. En esta era de irracionalidad y abandono intelectual, no resulta políticamente fácil apoyar a la verdad, admitir los errores propios e invertir el derrotero de nuestro camino, si eso es lo que debiere hacerse.

El 23 de Septiembre de 1992 apareció una carta publicada en el New York Times, enviada por 17 famosos científicos de Estados Unidos e Inglaterra, que criticaban acerbamente a los funcionarios municipales de New York y a la EPA por crear un clima de terror alrededor del peligro del asbestos en las escuelas de la ciudad. Esta carta, enviada al diario por la organización Science & Environmental Policy Project (Proyecto de Políticas Científicas y Ambientales), con sede en Washington, D.C., afirma en una parte:

 

«Los funcionarios de la ciudad de New York están sometiendo a los padres y a los niños a miedos injustificables y a posibles riesgos futuros por un retiro descontrolado del asbestos. No existe virtualmente ningún riesgo para los niños causado por el asbestos de las escuelas públicas ­ a menos que el asbestos sea removido de manera inadecuada».

 

«Como científicos y médicos, incluyendo a toxicólogos, cirujanos, especialistas clínicos de pulmón, analistas de fibras, patólogos, epidemiólogos, mineralogistas, y geólogos, hemos estudiado extensamente los datos e información relevante sobre las enfermedades relacionadas con el asbestos y del tipo de cantidad de fibras necesarias para producir enfermedad… Llegamos a la conclusión de que las dosis de fibras de asbestos que pueden haber causado cáncer en los lugares de extracción y fabricación de asbestos exceden enormemente los niveles a los cuales serían expuestos los niños de las escuelas que contienen asbestos.» 

. . .»Los miedos del público pueden ser substancialmente reducidos a través de la educación. Deberían escucharse a las voces racionales. Se deberían hacer transmisiones públicas de TV de entrevistas a personas que han sido pioneras en este campo de investigación . . . para poder comprender las condiciones en las cuales los cánceres relacionados con el asbestos aparecieron históricamente. Si se hiciere esto, el público podría apreciar que esas condiciones del pasado jamás podrían volver a ocurrir en nuestras escuelas de hoy. . . La Ciencia, y no la emoción irracional debería guiar la respuesta pública y la administrativa.»  

 Los Horribles PCB

Se trata de un grupo de más de 200 compuestos químicos cuya principal característica es no ser inflamables. Su nombre es Bifeniles Policlorinados (o PolyChlorinated Bipheyls, en inglés, de donde proviene la sigla PCB). Son productos oleosos (algunos muy livianos, y otros sumamente pesados y grasosos) que son muy estables a lo largo de un amplio rango de temperaturas y condiciones físicas. Su principal aplicación en la vida real fue el de aislantes, refrigerantes y lubricantes en grandes transformadores y otros equipos eléctricos.

Como no se dan de manera natural, fueron sintetizados por primera vez hace más de 100 años, aunque su aplicación comercial comenzó recién a partir de 1929. Como son materiales que disminuyen de manera notable los riesgos de fuego, se usaron ampliamente como aislantes en edificios de oficina, escuelas, hospitales y fábricas. Pero su principal y más notable uso fue el de reemplazar a los aceites minerales ­ que son inflamables ­ en los grandes transformadores eléctricos y capacitores. Este reemplazo fue tan exitoso, que los códigos de construcción de muchos países exigieron el uso de los PCB y prohibieron a los transformadores eléctricos que contenían aceite mineral.

Durante los primeros años de su empleo, se permitió que los PCB fuesen arrojados a ríos y cursos de agua, donde los peces lo absorbieron y, eventualmente, impregnó a la cadena alimentaria. Aunque jamás se produjo daño alguno a consecuencia de esta impregnación de PCB, su aspecto y su diseminación en el ambiente, fue suficiente para despertar la preocupación y la alarma entre los grupos ambientalistas. Entonces, ocurrió un suceso que provocó la oposición masiva a los tan útiles PCBs.

En 1969, unas 1300 personas enfermaron en Yusho, Japón, después de haber comido arroz contaminado con PCBs.[4] En lugar de averiguar cómo se había contaminado el arroz y tomado medidas para evitar que ocurriese otra vez, los activistas comenzaron a exigir la prohibición total. Los enfermos de Yusho desarrollaron una erupción cutánea, muchos se quejaron de fatiga, náuseas, hinchazón de las extremidades y desórdenes hepáticos. Sin embargo, durante los años posteriores quedó demostrado que el PCB no fue el causante de las reacciones adversas para la salud.

Se descubrió que el PCB en cuestión era apenas el 50% del contenido del líquido que contaminó al arroz, y había estado en uso durante mucho tiempo en equipos de acondicionamiento de aire e intercambiadores de calor. Las altas temperaturas involucradas produjeron la conversión de la mitad del material en cuarterfeniles o dibenzofuranos policlorinados, los que sí son muy tóxicos. Pero fueron los PCBs quienes cargaron con toda la culpa y este único incidente fue extrapolado y abusivamente empleado como propaganda en los Estados Unidos, de donde finalmente salió la prohibición de los PCBs que afecta y perjudica a todos los pobladores del mundo.

El resultado es que las compañías de electricidad fueron obligadas a cambiar todo su equipamiento, a costos multimillonarios, y retornar al uso, anteriormente prohibido, de los peligrosos aceites minerales y otras substancias aislantes. Por supuesto, como siempre sucede, los costos son afrontados por los usuarios y regularmente se producen explosiones e incendios de transformadores.

Por último, es sabido que los PCBs no permanecen inalterables en el ambiente: existen por lo menos unas diez variedades de bacterias aeróbicas y anaeróbicas que degradan a los PCBs a substancias simples e inofensivas.(5) Estas bacterias consiguen reducir las concentraciones de PCBs en agua y suelo en un 60 al 65% cada 20 días. Y esta es la historia de los tan tóxicos y cancerígenos PCB. Otro de los muchos mitos que abundan en la Ecología.

  Y La Dioxina, ¿Es Tóxica?

No es una pregunta fácil de responder con sí o no. La dioxina constituye uno de los asuntos más emocionales (hasta el histerismo) que existen en el campo de la ecología y su toxicidad ha sido severamente exagerada y abusivamente utilizada por la propaganda anti-herbicida de los ambientalistas.[6] La dioxina es en realidad un gru-po de 75 compuestos diferentes de variada toxicidad, de los cuales el 2,3,7,8­Tetra-clorodibenzo-p-dioxina (también conocido como TCDD) es el más peligroso. En algunos herbicidas y otros compuestos clorinados se encuentran trazas de esta dioxina.

Es bueno saber que se detectan muchas dioxinas en concentraciones pequeñas cada vez que se queman materiales orgánicos, de manera especial, si la combustión es incompleta. De tal manera, la dioxina se produce naturalmente en los incendios forestales, en el escape de los autos, y aún en los materiales emitidos por los volcanes. La peligrosidad de estas emisiones siguen siendo todavía tema de controversia entre los científicos y el público en general.[7]

Cuando se reveló que el Agente Naranja ­ un defoliante usado durante la guerra de Vietnam ­ contenía dioxina, el asunto pasó del campo de la Ciencia al campo de la Emoción. Se realizaron extensos estudios e investigaciones sobre los veteranos de guerra que estuvieron en contacto con el Agente Naranja (también se filmaron muchas películas que narraban como los veteranos de guerra morían como moscas después de regresar a sus hogares) sin que se pudiese descubrir ninguna diferencia con aquellos que no lo tuvieron, o con los ciudadanos comunes de cualquier ciudad de los Estados Unidos. Aunque no se pudo descubrir ningún daño para la salud humana, tampoco se pudo descubrir una respuesta exacta para la pregunta: ¿Cuán tóxica es la Dioxina?.

La dioxina también estuvo implicada en los problemas del muy famoso Love Canal y del exagerado Times Beach, dos pequeños poblados donde se encontraron restos de dioxina en el ambiente y el gobierno debió expropiar las casas y compensar a los vecinos. Después de muchos años, funcionarios de la EPA reconocieron que la dioxina es más de 1000 veces menos tóxica de lo que se creía . . . (o que se quería hacer creer?).

Los estudios sobre animales tampoco han resuelto el problema de la toxicidad: los cobayos o «guinea pigs« son extremadamente sensibles a la dioxina, que les da un alto nivel de tumores, desórdenes cutáneos, lesiones pulmonares, daños hepáticos, problemas en la sangre, pérdida de peso y muerte, después de exposiciones a dosis muy reducidas. Por el otro lado, los hamsters requieren una dosis 5.000 veces más potente para comenzar a provocar reacciones adversas.

Pero la gente no son ni cobayos ni hamsters, y la información científica sobre efectos en los seres humanos ­ aunque abundante ­ no ha resuelto aún el enigma. Veamos entonces los hechos comprobados sobre las consecuencias de exponerse a la dioxina:

  • La Dioxina es muy tóxica para algunos animales; de muy poca toxicidad para otros.
  • La dioxina puede ser un potente cancerígeno en los cobayos.
  • No hay evidencia de que la dioxina provoque cáncer en los seres humanos, ni tampoco de que cause abortos espontáneos o defectos de nacimiento.
  • No se ha registrado ­ en los Estados Unidos ­ ninguna persona que haya enfermado crónicamente o que haya muerto a consecuencia de alguna exposición a la dioxina.
  • La única reacción probada que ocurre en los seres humanos como consecuencia de la dioxina es el cloroacné ­ una forma severa de erupción cutánea, rápidamente curable ­ y, posiblemente, una disfunción nerviosa de corta duración.
  • La población más fuertemente expuesta ­ 37.000 personas en Seveso, Italia, cuando la planta química ICMESA sufrió una explosión ­ que fueron rociadas con una cantidad de dioxina que varía de medio a dos kilos, sufrió cloroacné y algunos desórdenes físicos, pero no se observaron efectos adversos de largo plazo ni se registraron cánceres.
  • Los estudios a largo plazo (más de 30 años) sobre los trabajadores de Monsanto que estuvieron expuestos en 1949 a fuertes concentraciones de dioxina, no mostraron efectos adversos de ninguna clase.

A pesar de todos estos hechos comprobados, a la dioxina se la sigue llamando «la substancia más tóxica conocida por el hombre«. La gente cree que es extremadamente peligrosa y esta creencia errónea contribuyó para que explotara la histeria en Love Canal y en Times Beach, cuando se detectó dioxina en la zona. La doctora Elizabeth Whelan escribe en su magnífico libro «Toxic Terror«(4) lo sucedido en esos pueblitos de los Estados Unidos:

 

«No existe un significativo número de científicos y funcionarios públicos que crean que la dioxina y los herbicidas que la contienen sean responsables de los crímenes de los que son acusados. Sin embargo, para los noticieros de televisión el consenso de la comunidad científica es ofrecida por un selecto grupo de los mismos «expertos», una y otra vez.»

«Muy raramente podemos ver una cobertura sobre expertos que encuentran, por ejemplo, que la dioxina en los suelos no impone amenaza alguna para los seres hu-manos del área. Lo que podemos ver en televisión son programas con los pocos y mismos científicos que recitan historias de horror y profecías apocalípticas.»

 

La periodista Joan Beck, del The Chicago Tribune escribió en su columna del 30 de Junio de 1983; 

  «Los editores de diarios y productores de televisión, que ayudan a formar la opinión pública por medio de lo que eligen informar, han exagerado el peligro de la dioxina, lo hicieron más dramático por medio de su elección de historias de interés humano, ignoraron mucha evidencia científica y emplearon citas de científicos cuyas conclusiones no estaban justificadas por sus .»

Por último, la presencia de ínfimas trazas de dioxina (partes en mil millones o aún en billones) provocó que muchos repositorios de desperdicios hayan sido marcados para limpieza bajo las normas del «Super Fund». De los 1000 sitios escogidos para limpieza, sólo se habían limpiado hasta 1992 apenas una docena, a un costo de 9 mil millones de dólares. Se calcula que el costo promedio de limpieza para cada sitio está entre 12 y 15 millones de dólares, con algunos trabajos que requieren hasta 100 millones. Una estimación razonable para la limpieza total de los repositorios varían de uno a 10 billones de dólares.

¿Tan en peligro está la salud pública en el país del Norte? Por desgracia, la gente no está, ni allí ni aquí, al tanto de estos y otros costos que las regulaciones ecologistas imponen a la sociedad, como tampoco se dan cuenta de las implicancias que estos gastos desmesurados tienen para las economías de los países que caen en la trampa de las «alertas ecológicas». No olvide que estos costos los termina pagando el pueblo, la gente, usted y yo. ¿No hay plata para Hospitales, Escuelas, Jubilados, Educación y Asistencia Pública? No, la mayor parte se fue en gastos absurdos y regulaciones estúpidas. [8]

 LLUVIA ACIDA

Durante más de una década se ha venido debatiendo el asunto de la lluvia ácida. Esto se origina desde que se publicó en los estados Unidos un informe que concluía diciendo que «el Noroeste de los Estados Unidos tiene un extenso y severo problema de precipitaciones ácidas». ¿Es cierto? Probablemente. ¿Realmente daña la lluvia ácida a los bosques, lagos y ríos, peces, edificios y monumentos? Sí, en algunos casos, pero no como la causa principal.

¿Podrían mitigarse los adversos efectos ambientales, atribuidos a la lluvia ácida, mediante la reducción de las emisiones de dióxido de azufre producidas por la industria? NO. La evidencia que existe hasta la fecha demuestra que no habría ninguna diferencia. Lo que se conoce y se comprende acerca de las lluvias ácidas, ¿es suficiente para gastar miles de millones de dólares de fondos públicos en supuestas medidas correctivas? Ciertamente, NO.

Aún la misma EPA está de acuerdo con esta aseveración: el ex-administrador de la EPA, Lee M. Thomas dijo en 1986: «La actual información científica sugiere que el actual daño ambiental no empeoraría materialmente si las emisiones ácidas continuasen por 10 o 20 años más a su nivel actual. La lluvia ácida es un problema serio, pero no es una emergencia.«[9]

Que la lluvia es ácida, es algo que se conoce desde hace muchísimo tiempo. Entre los primeros registros se encuentra en Suecia una referencia a la lluvia ácida en 1848 y una discusión en 1877 sobre la lluvia ácida en Inglaterra. En 1867, en Alemania se propuso al dióxido de azufre como una posible causa del daño a los árboles y otras plantas. Y la alarma ­ muy repetida ­ de que la lluvia se ha venido haciendo cada vez más ácida en los últimos 25 años, basa su credibilidad en artículos publicados en 1970 por G. E. Likens y sus colegas.[10]

Una muy cuidadosa evaluación de estos trabajos fue llevada a cabo por la Environmental Research & Technology, Inc., y revela que la investigación de Likens sufre serios problemas en la recolección de datos y su análisis, errores de cálculo, cuestionable promediación de algunos datos, selección de resultados para apoyar las conclusiones deseadas, y fracaso en considerar toda la información científica disponible en ese momento. En una crítica más reciente se llegó a las mismas conclusiones.

Además de analizar los métodos usados por Likens para determinar la acidez de la lluvia, Vaclav Smil [11] examinó los mapas de la distribución de precipitaciones ácidas en el Este de los Estados Unidos entre mediados de los 50 a mediados de los 60, que había sido preparado por Likens et al. y publicitados como una «incuestionable prueba» del incremento de la acidez. La conclusión de Smil: «En realidad, los errores de medición, incompatibilidad de recolección y procedimientos analíticos, extrapolaciones inadecuadas, efectos del clima, e interferencias locales hacen que los mapas resulten sumamente dudosos».

¿Cómo es posible, entonces, que tan imperfecta investigación pueda ser aceptada? Como Smil acota, acertadamente: «La historia de la Ciencia está repleta de episodios donde casos de muy dudosa veracidad fueron publicados como verdades irreprochables . . . Puede ser irracional, pero aún en la ciencia, aquellos que hacen el primer ­ y a menudo sensacional ­ anuncio, reciben mucha más atención y se les acredita mayor credibilidad que aquellos que vienen más tarde con los hechos calmos y científicos».

Creer lo peor es una desgraciada característica humana, especialmente en lo relativo a temas ecológicos. Entonces, cuando surge una alarma, ya sea que se trate de pesticidas, bio-ingeniería, residuos tóxicos, energía nuclear, capa de ozono, o cualquier otro tema, miles de voceros de las organizaciones ecologistas repiten la alarma una y otra vez hasta conseguir alienar a la población. Lo mismo sucede con la lluvia ácida. Para poder hacer una evaluación objetiva del asunto, debemos comenzar con una breve y superficial mirada al agua y a la lluvia.

  Acerca del Agua

Es curioso que, siendo el agua una substancia tan necesaria y sobre todo común, sea tan poco comprendida y apreciada. Todo el mundo sabe que el agua es esencial para la vida; todos dan por supuesto que sea barata, pura y abundante. Muy pocos saben, en realidad, que de todos los planetas del Sistema Solar, sólo la Tierra la tiene en grandes cantidades en sus tres estados naturales: vapor, líquido y hielo.

También son muy pocos los que saben que el agua «no se gasta». Existe actualmente tanta agua ­ ni más ni menos ­ que la que existía cuando se formó durante la Creación, hace 4.500 de millones de años. Esto se debe a que el agua transcurre en un ciclo continuo de evaporación, condensación en nubes y lluvia: 10 milímetros de agua de lluvia por hectárea hizo necesario que primero se evaporaran 100 toneladas de agua de los mares, la vegetación y los seres vivientes y fuesen elevadas a 5000 metros de altura. El promedio anual de las precipitaciones del mundo es de 750 milímetros, lo que equivale a unos 400 billones de toneladas de agua. Por supuesto, la lluvia no cae de manera uniforme. Por ello, en algunas regiones y en ciertas épocas, las lluvias exceden a la evaporación y lo contrario es cierto para otras regiones. Inundaciones y sequías. Esto es normal o «natural».

Estos patrones de sequías y excesos de lluvia se deben a la circulación de los océanos y la atmósfera, de manera que las precipitaciones se mantienen más o menos las mismas a lo ancho del mundo. Los niveles de los mares no varían mayormente, mientras que los patrones de inundaciones y sequías son recurrentes.

La lluvia se forma cuando las moléculas de vapor de agua se condensan sobre cristales de hielo o de sal en la atmósfera, o sobre minúsculas partículas de polvo en las nubes, para formar gotitas de agua que responden a la gravedad terrestre y caen formando lluvia. A medida de que la lluvia cae atravesando la atmósfera, puede «ir levantando» o «lavar» elementos y productos químicos y otros contaminantes presentes. Como el agua es un excelente solvente, la lluvia disuelve algo del dióxido de carbono (CO2) presente en la atmósfera y forma «ácido carbónico» ­ el mismo que se encuentra en la soda. Por esta razón, la lluvia siempre es ácida o, si lo prefiere, la lluvia ácida es normal. No existe tal cosa como «agua de lluvia naturalmente neutra»

¿Cuál es el acidez del agua pura? Como la estructura atómica de la molécula de agua es algo asimétrica (H2O), las moléculas tienen la tendencia a agruparse o disociarse de acuerdo a fuerzas intermoleculares. La disociación conduce a que algunos iones tengan carga positiva (+) , lo que produce la acidez, y otros iones hidroxilo (OH) tengan carga negativa (­), lo que provoca la alcalinidad.

Para una mayor facilidad en la medición de acidez y alcalinidad, se ha creado un método conocido como «pH«, que es la medida de acidez o alcalinidad relativa de una solución. El pH del agua destilada (o «pura») es 7 y esta cifra representa la «neutralidad«. Toda medida de pH por debajo de 7 es ácida y toda aquella por encima de 7 es alcalina. Como esta escala es logarítmica, un cambio de unidad (de 5 a 6, por ej.), indica un aumento x10. De 7 a 5, una disminución x100.

El agua de la atmósfera contiene normalmente ácido carbónico proveniente de la disolución del dióxido de carbono, y el pH de la lluvia limpia (aún en las regiones más prístinas) es de un pH 5.0 a 5.5. Para hacerlo más claro: el pH del agua de lluvia se compara con el de las zanahorias, que es pH 5.0, y está entre la acidez de la espinaca y de la banana, que son pH 5.4 y pH 4.6, respectivamente. Para dar un último ejemplo, el agua de lluvia es muchísimo menos ácida que nuestro popular «mate» en bombilla (pH 3.8) o las gaseosas (pH 2.8). Se cree que cualquier pH por debajo de 5.0 resulta perjudicial para el ambiente. Los lagos, arroyos, ríos, lagunas reciben materiales disueltos, ya sean ácidos o alcalinos, provenientes del escurrimiento de los suelos o de los terrenos donde están esos cuerpos de agua. Los lagos ácidos y los alcalinos son una ocurrencia natural, y existen sin ninguna intervención humana.

 La Medición del pH

Obtener una correcta medición del pH de una muestra de lluvia es algo más complicado de lo que parece a simple vista. Los procedimientos adecuados requieren de cuidadosos análisis de laboratorio. Por ejemplo, los trabajos antiguos ­ es decir, antes de 1968 ­ usaban por lo general envases de vidrio blando. Se sabe ahora que aunque los envases hubiesen sido cuidadosamente limpiados y cuando los análisis eran hechos muy poco tiempo después de que las muestras habían sido obtenidas, el vidrio blando contribuía a la alcalinidad de la muestra. Y esto aumentaba con el tiempo de almacenaje. Por cierto, el rango de error atribuible al uso de vidrio blando es suficiente como para que se le culpe por la diferencia de pH en las mediciones realizadas entre 1955-56 a 1965-66 y reportadas por Coghill y Likens.

El examen de los hielos de Groenlandia para los últimos 7.000 años rindió valores de acidez de pH 4.4.[12] En algunos casos, el período de extrema acidez duró un año o más. La industria que echaba azufre por sus chimeneas no pudo ser la culpable, de modo alguno, pero estos períodos de extrema acidez de las lluvias se corresponden con tiempos de grandes erupciones volcánicas. También resulta notable, por el otro lado, el período de muy baja acidez que duró desde 1920 hasta 1960, cuando no hubo gran actividad volcánica, aunque la contaminación industrial iba incrementándose a grandes pasos.

Hay regiones del mundo famosas por la limpidez de su atmósfera ­ Monte Mauna Loa, Samoa, el norte de Australia, sur de Venezuela, Alaska Central, el Océano Indico ­ y donde curiosamente la acidez de las lluvias es elevada. Por otro lado, en regiones donde se debería esperar una alta acidez de las lluvias, se obtuvieron elevados pH como en 12 lugares de Méjico, con pH de 6.2 a 6.8, 9 lugares de la India con pH promedio de 7.5. En China, donde el 70% de la energía eléctrica se obtiene por medio del carbón y las emisiones sulfurosas son muy elevadas, se obtuvieron pH altísimos como en Pekín (ph 7.0) debido a la gran suspensión de polvo proveniente de los desiertos.

Como contraste, en el noreste de los Estados Unidos, el 52% de todos los aniones ácidos no son neutralizados por el polvo y las partículas en suspensión [13] como consecuencia probable de la muy efectiva captura y eliminación de las partículas de polvo que emite la industria. Este aspecto fue extensamente investigado por Smil en 1985. Informó de una gran pérdida de material alcalino volátil entre los años 50 y mediados de los 60 como resultado de la efectiva eliminación de las cenizas del humo, y severos controles en las industrias del hierro, canteras y cementeras.

Otro factor importante para la pérdida de material alcalino ha sido la actual rápida extinción de fuegos forestales. Los fuegos de bosques, cuando se dejan quemar totalmente, dan como resultado la acumulación de cenizas alcalinas que actúan para contrarrestar a la acidez natural de los suelos y reduce el desequilibrio mineral. Existe, además, una creciente cantidad de investigaciones científicas acerca de la química atmosférica, la cual es altamente técnica.[14] También está creciendo la comprensión de estos procesos, pero aún existen muchas áreas de incertidumbre.

 Orígenes Naturales

Los compuestos de azufre y nitrógeno ­ los «ácidos» en la lluvia ácida – son producidos por la descomposición de la materia orgánica en pantanos, humedales, áreas de mareas y aguas poco profundas del océano. La cantidad que se produce de esta manera no es bien conocida, pero es muy considerable. Las estimaciones de la producción natural de los sulfatos y otros compuestos de azufre son del 35 al 85% del total ­ un rango bastante amplio. Y los compuestos de nitrógeno de origen natural se calculan entre el 40 al 60% del total.

Muchos expertos van más allá y calculan que el origen natural de estos compuestos alcanza al 90% del nitrógeno global. Si se considera al azufre adicional emanado de los volcanes, fumarolas, termas, spray de los mares y el nitrógeno fijado por los rayos y relámpagos, la contribución generalmente aceptada de origen natural puede estar sumamente subestimada.[15] La contribución de los relámpagos a la acidez de las lluvias es significante. Dos ocurrencias de relámpagos sobre un kilómetro cuadrado, producen suficiente ácido nítrico para que 20 mm de lluvia tengan un pH 3.5. De hecho, se calcula que solamente los relámpagos mantienen al promedio mundial de lluvias con un pH de 5.0.

Aunque se reconoce que la contribución del dióxido de azufre de los volcanes es considerable, nunca se ha tomado seriamente y se la desprecia como algo trivial. Quizás se deba al hecho que los volcanes son estudiados por los geólogos y volcanólogos y no por los científicos de la atmósfera. O quizás porque las montañas volcánicas están donde no están los meteorólogos. Predecir con certeza la ocurrencia de una erupción es notoriamente difícil, y obtener mediciones directas o muestras de gases y otros productos durante las erupciones es una tarea peligrosa que algunas veces ha resultado fatal.

Durante la erupción del Monte St. Helens el 18 de Mayo de 1980, se eyectaron más de 4.000 millones de toneladas de material. [16] Aunque se liberaron enormes cantidades de gases, incluyendo al dióxido de azufre, no se pudieron hacer mediciones directas de la erupción. Desde el 29 de Marzo hasta el 14 de Mayo, cuatro días antes de la erupción, las mediciones espectroscópicas revelaron emisiones gaseosas de unas 40 toneladas diarias. El 6 de Junio, estas emisiones se elevaron de manera abrupta hasta 1.000 toneladas diarias. Desde fines de Junio hasta Diciembre del 80 las emisiones de gas variaron de las 500 hasta las 3.400 toneladas diarias. El Chichón, un volcán excepcionalmente ácido y sulfuroso de Méjico, hizo erupción a principios de 1982 con una violencia mucho mayor que la del St. Helens. Los materiales y gases eyectados alcanzaron la estratósfera, y han venido afectado a los fenómenos atmosféricos desde entonces. Tampoco se pudieron realizar mediciones directas, pero los científicos calculan que se emitieron más de 20.000 millones de toneladas de dióxido de azufre.

En 1973, los investigadores Stoiber y Jepson [17] informaron de las emisiones de dióxido de azufre de los volcanes de Centroamérica, medidas por sensores remotos y cálculos auxiliares. Llegaron a la conclusión de que estos volcanes han estado emitiendo unas 10.000 toneladas diarias de dióxido de azufre. Extrapolando a escala mundial, calcularon que los volcanes son responsables de emitir anualmente más de 100 millones de toneladas de compuestos sulfurosos.

Por otra parte, la asombrosamente descomunal cantidad de ácido fórmico que producen los miles de billones de hormigas y termitas de las selvas tropicales es algo que, aunque no se ha podido determinar con alguna precisión, es algo que preocupa a los científicos. El ácido fórmico que producen estos insectos se incorpora a la atmósfera y produce una inmensa contribución a las lluvias ácidas ­ precisamente donde se supone que causan más daño: en bosques y selvas. En consecuencia, nuestra Madre Naturaleza es responsable de lanzar a la atmósfera monstruosas cantidades de sulfatos y nitratos que harán muy ácidas las lluvias que luego derramará sobre sus propias selvas y bosques. ¿Un extraño caso de suicidio ambiental?

 Orígenes Humanos

Sin embargo, el hombre también también hace su parte. La actividad industrial, el transporte, y la quema de combustibles fósiles contribuyen con sulfatos, nitratos y otros contaminantes a la atmósfera. Desde 1970, sin embargo, la emisión de los dióxidos de azufre se ha reducido en un 40%, pero la emisión de compuestos nitrogenados siguen aumentando debido a la quema de fuel-oil, diesel y gasolinas.

La sociedad industrial también produce otros contaminantes atmosféricos, incluidos compuestos orgánicos volátiles como el amoníaco y los hidrocarburos. Cualquiera de estos compuestos puede contribuir a la formación de lluvias ácidas, ya sea por sí mismos o en combinación entre ellos. Más aún, algunos contaminantes pueden sufrir la foto-oxidación por la luz solar, produciendo p. ej., trióxido de azufre, un compuesto altamente tóxico.

Otro foto-oxidante, el ozono, es posiblemente el más dañino de todos los contaminantes atmosféricos derivados de la actividad humana. El ozono se acumula en cantidades tóxicas para la vegetación en numerosas regiones industriales del mundo. Es sabido que el ozono puede provocar severos daños y aún la muerte en ciertas especies de árboles. También actúa sinérgicamente con otros contaminantes y provoca daño en los cultivos y cosechas cuando la exposición se da junto a los óxidos de azufre y nitrógeno. Por ello, señalar al dióxido de azufre producido por el hombre como la mayor causa de la lluvia ácida, no sólo es una sobresimplificación del asunto, sino también una muy grave equivocación científica.[18] Después, cuando ya se conocen los hechos científicos, es mentir deliberadamente.

 El Efecto en los Bosques

¿Y qué hay de los bosques moribundos? Los activistas del ecologismo culpan al dióxido de azufre producido por la industria. Como cualquier otra cosa viva en este mundo, los árboles no son inmortales. Ellos también envejecen y mueren. La declinación de un bosque puede ser parte de un lento pero natural proceso de sucesión de las plantas, o puede ser iniciado por cualquiera de muchos factores que provocan «stress». Cada bosque y cada especie de árbol responde de manera diferente a las agresiones ambientales, ya sean estas naturales o humanas. El profesor Paul D. Mannion, de la Universidad del Estado de Nueva York dice lo siguiente: [19]

 

«Si uno reconoce el complejo conjunto de factores que pueden contribuir a la declinación de los árboles, se hace difícil aceptar la hipótesis de que los contaminantes atmosféricos son la causa de la actual declinación de los árboles . . . aunque cuestionar a la popular opinión que existe sobre la causa de los problemas de declinación no es sugerir que los contaminantes no produzcan ningún efecto.»

 

En tiempos en que los contaminantes industriales no han ser los culpables, se han producido grandes mortandades de árboles y bosques. Por ejemplo, la declinación del pino blanco del oeste en los años 30 y del «birch» amarillo en los 40 y 50, fueron provocados por sequías, mientras que la subsecuente invasión de insectos u otras enfermedades es, más a menudo, el golpe de muerte para el árbol. En la actualidad, la declinación de bosques más publicitada es la de los bosques de pinotea roja (red spruce) en el norte de los Montes Apalaches. Muy pocas personas recuerdan o citan la enorme mortandad de la pinotea roja entre 1871 y 1890. La mortandad ocurrió al mismo tiempo en West Virgina, Nueva York, Vermont, New Hampshire, Maine y New Brunswick, y se atribuyó entonces a la invasión del escarabajo de la pinotea, que se agregó a algunos otros factores de stress que afectaron a los árboles, y que no fueron determinados.

Los actuales síntomas de declinación de la pinotea roja son más pronunciados en áreas por encima de los 300 metros de altura: los árboles afectados crecen en una de las regiones más ventosas de los Estados Unidos. Se sabe que el viento puede secar y aún quitar el follaje, especialmente si se ha formado hielo sobre las hojas. También provoca el viento daños a las raíces por excesivo movimiento del árbol. Los análisis de los anillos de los troncos indican una posible relación entre los recientes inviernos de una severidad poco común y la declinación de los árboles.

Los fríos anormales que se extienden mucho en la primavera pueden haber causado que los árboles sean más susceptibles a los efectos adversos de la contaminación. Arthur H. Johnson y Samuel B. MacLaughlin, que han estudiado a los anillos de los árboles y la declinación de la pinotea roja, escribieron lo siguiente en su estudio «Depósitos Acidos: Tendencias a Largo Plazo»:«No existe hoy ningún indicio de que los depósitos ácidos sean una factor importante en la declinación de la pinotea roja . . . El cambio abrupto y sincrónico del ancho de los anillos y los patrones de densidad de la madera a lo largo de un área tan extensa, parecen más relacionados con el clima que con la contaminación atmosférica.»

En Alemania, donde antes se culpaba de la muerte de los bosques a los depósitos de dióxido de azufre y a las concentraciones de nitrógeno, se da énfasis ahora a la posible culpabilidad de los óxidos de nitrógeno, hidrocarburos, foto-oxidantes (ozono) y minerales del suelo como aluminio y magnesio. Las emisiones de dióxido de azufre han disminuido en Alemania desde mediados de los 70, debido principalmente al cambio del carbón por la energía nuclear para la producción de electricidad. Pero esta disminución del azufre no se ha visto acompañada de un mejoramiento de la salud de los bosques, lo que sugiere que existen otros factores que pueden estar influyendo.(20) Se sabe ahora que, sólo en casos excepcionales, el dióxido de azufre causa daño en los bosques alemanes.

El convertidor catalítico se adoptó en los autos para controlar principalmente la emisión de hidrocarburos mal quemados, y reducir la producción fotoquímica de ozono. En este aspecto ha funcionado bien, pero ha conducido también a la formación de formaldehído y mayores cantidades de ácido, especialmente sulfúrico.

 CONVERTIDORES CATALITICOS

Originariamente, se suponía que estos dispositivos eliminarían de la atmósfera a dos de los más «peligrosos» contaminantes conocidos por el hombre, el dióxido de azufre y el dióxido de nitrógeno que, como todos saben, son gases rutinariamente presentes en los escapes de los automóviles. Veamos una lista de estos componentes:

  • monóxido de carbono (CO), de la combustión incompleta del combustible
  • dióxido de carbono (CO2), de la combustión completa del combustible
  • vapor de agua (H2O)
  • óxidos de nitrógeno (NO, N2, N2O, NO2, etc.)
  • óxidos de azufre (SO, SO2, etc.)
  • hidrocarburos varios (HX – CY, etc.) cíclicos y cadenas de todo tipo.

Básicamente, estos gases pasan desde el motor al convertidor catalítico en casi todos los vehículos actualmente en uso. Todo aquello que ingresa al convertidor sale por el otro extremo, átomo por átomo. Nada «desaparece», nada permanece en el convertidor. Todo lo que el convertidor hace es «convertir» una substancia en otra, y lo hace mediante la ionización de los diferentes gases que pasan a través suyo.

De manera breve, cuando el dióxido de carbono pasa por un convertidor, hace contacto con el platino que está en su interior, y es descompuesto en iones de carbono y oxígeno. Cuando el agua es descompuesta, forma iones de hidrógeno y oxígeno. Lo mismo sucede con cualquier otro gas que ingresa al convertidor catalítico.

Sin embargo, ninguno de los iones así formado sale del convertidor bajo la forma de ion. Sólo pueden permanecer en la forma de iones en presencia del platino catalizador. A medida que salen del convertidor y viajan por el caño de escape hacia su salida al exterior, todos los iones negativos se combinan otra vez con cualquier otro ion positivo que se ponga a su alcance, sin ninguna discriminación ni regla fija.

Así es como un ion de azufre libre puede combinarse con uno de hidrógeno, en lugar de hacerlo con uno de oxígeno. De la misma forma, también un ion de nitrógeno puede combinarse con uno de hidrógeno y uno de carbono.

La misma reacción elimina algo del dióxido de azufre del escape al formar sulfito de hidrógeno, que es un gas letal. La otra reacción elimina algo del dióxido de nitrógeno formando cianuro de hidrógeno, un gas tan letal que se usaba para ejecutar criminales en las cámaras de gas de muchos estados de Norteamérica.

Otro problema es que mucho de lo que ingresa al convertidor pasa a través suyo sin ser «convertido» a nada. Esto es porque nada que lo que la humanidad ha diseñado es 100% eficiente. También se debe a que ninguna reacción química puede llegar jamás a completarse totalmente. (El sensor que los inspectores colocan en la salida de los escapes es prueba de esto, porque no se está midiendo si uno contamina o no al aire, sino cuánta es la contaminación que se produce).

De manera que los automovilistas en realidad están cambiando los relativamente inofensivos dióxidos de nitrógeno y azufre por dos de los más peligrosos gases conocidos por el hombre. Todos están familiarizados con el olor a «huevo podrido» que sus autos emiten de vez en cuando: es el olor al sulfito de hidrógeno. También hemos olido a veces un «aroma perfumado» proveniente de los escapes: no sólo es el olor del cianuro sino también de anilinas, nitrilos y otros compuestos producto de la combinación de hidrocarburos y nitrógeno.

Un componente final de la polución de los automóviles puede incluir hidrocarburos, o grandes moléculas de combustible sin quemar. Un buen afinado del motor puede reducir esto a niveles tolerables, aún para los ecologistas más empedernidos. Al mismo tiempo, si el azufre y el nitrógeno fuesen eliminados de la gasolina en las mismas refineríasel uso de los convertidores catalíticos sería totalmente inútil e innecesario. ¿Por qué no se le ha ocurrido antes a nadie?

Sin embargo, existe otra fuente de hidrocarburos atmosféricos que no ha sido controlada: las vacas! Las vacas de Norteamérica «eructan» anualmente unas 50 millones de toneladas de hidrocarburos a la atmósfera. Súmele la producida por el resto de todos los rumiantes del mundo y trate de imaginar el efecto que tiene sobre la atmósfera. No existe ninguna tecnología para controlar estas emisiones y, si contribuyen o no a formación de ozono, es algo que se ignora, pero demuestra la complejidad de la química atmosférica.

 Efectos Sobre Ríos y Lagos [21]

Existen tres clases de lagos naturalmente ácidos: Primero están los asociados a los ácidos inorgánicos en áreas geotermales, como el parque Yellowstone, en los Estados Unidos, y fuentes termales sulfurosas, con un pH de 2.0 a 3.0. Luego están los que se encuentran en tierra bajas, pantanos de cipreses y selvas lluviosas, donde la acidez derivada de la descom-posición del humus y la vegetación muerta lleva el pH a 3.5 ­ 5.0. Por último, están los lagos de regiones graníticas resistentes a la erosión o lechos rocosos, que son los únicos involu-crados en la cuestión de la lluvia ácida.

Los lagos son llamados «sensibles» porque pueden resultar más acidificados, con adversas consecuencias para los organismos acuáticos, principalmente los peces. De hecho, la principal queja por la acidificación de los lagos es por la reducción de la población de peces.

Sin embargo, nuevamente vemos que este no es un fenómeno reciente. Los lagos muertos no son cosa nueva. Un estudio realizado por el Departamento de Conservación Ambiental del estado de New York revela que en los años 20 se intentó la siembra de peces en 12 lagos y se fracasó al hacerlo. Por supuesto que mucha gente pescaba en los años 20 y 30 en lagos donde no hay peces actualmente. Pero el hecho es que durante esos años, muchos lagos del Adirondack eran sembrados anualmente por la Comisión de Caza y Pesca. Los peces no se propagaban, por lo que el programa de siembra fue cancelado hacia 1940.

La declinación de peces ya se notó en algunos lagos de New York en 1918, cuando no se usaban ni pesticidas ni fertilizantes, y la actividad industrial era algo bastante incipiente. En Suecia, los depósitos sedimentarios de hace 800 años del fondo de muchos lagos, son mucho más ácidos que los depósitos que se forman actualmente.

Para afirmar que la declinación en la población de peces se debe a las precipitaciones ácidas, primero es necesario establecer que el lago mantenía una abundante población de peces, que una o más especies de peces que existían entonces se han reducido o desaparecieron, que el lago es más ácido ahora que cuando los peces estaban presentes, que el aumento de la acidez no fue causado por factores locales y que otros factores como los compuestos químicos tóxicos no estén presentes o sean de poca importancia. Tal tipo de información es extremadamente rara. De los estudios realizados en tres lagos de los Adirondack, los lagos Panther, Sagamore y Woods (que están en lugares remotos pero tan cerca entre sí que son afectados por las mismas lluvias) mostraron niveles de acidez radicalmente diferentes, grandes diferencias que sólo pueden deberse a la variación de las formaciones geológicas de los lechos de estos lagos, y los suelos y vegetación circundantes.

 Efectos Sobre las Construcciones

El impacto de los contaminantes atmosféricos y la lluvia ácida sobre los edificios, construcciones y monumentos es un fenómeno predominantemente local. Es algo tan complejo como los efectos que se observan en el ambiente natural. Lo mismo que los lagos y ríos, cada lugar es específico y cada material diferente. No es posible hacer generalizaciones. Los metales se corroen, el mármol y la caliza se gastan, los ladrillos y el cemento se deterioran, la pintura desaparece . . . Pero la condiciones que conducen a esta pérdida de integridad de los materiales varían ampliamente. Quizás las únicas afirmaciones que se puedan hacer es que la humedad parece ser esencial, que el deterioro resulta más a causa de depósitos ácidos que de lluvias ácidas, y que los contaminantes locales son más importantes que los transportados por los vientos desde grandes distancias.

Sin embargo, persiste la creencia que la lluvia ácida de «alguna otra parte» está destruyendo monumentos culturales y edificios. Quizá el más conspicuo ejemplo es el deterioro de la Aguja de Cleopatra, el obelisco de granito que está en el Central Park de Nueva York desde 1881. Se ha dicho que «la atmósfera de la ciudad le hizo más daño que tres y medio milenios en el desierto, y que en una docena de años los jeroglíficos desaparecerán.« Pero un cuidadoso estudio de la historia del monumento permite atribuir el daño a una avanzada descomposición a causa de la sal proveniente de la costumbre de «salar» en invierno las calles heladas de la ciudad, a la elevada humedad de New York y a desafortunados intentos de preservación por parte de las autoridades de la ciudad.

Como ya se ha visto, el SO2 atmosférico ­ al que se culpa, pero no se le ha probado aún, de ser la principal causa de la lluvia ácida ­ se ha reducido más del 15% desde 1973. A pesar de ello, el acidez de la lluvia sigue siendo la misma. Resultados similares se han obtenido con reducciones mayores en Inglaterra (30% desde 1970) y Suecia. La lluvia sigue siendo tan ácida como siempre. Los más notables científicos del mundo están de acuerdo en afirmar que la mitad de todas las emisiones de azufre del mundo son de origen natural, lo que incluye a las erupciones volcánicas. También sabemos que la lluvia es ácida por naturaleza, y que su acidez puede incrementarse por los contaminantes; que la cantidad de depósitos ácidos, que es mucho más importante que el pH de la lluvia ­ y el pH natural de los suelos difieren enormemente a lo largo del mundo; y que las calizas, el encalado de campos y el uso de fertilizantes a base de amoníaco neutralizan la acidez de los depósitos ácidos.

Si los que reclaman severas penas y multas para las estaciones generadoras de electricidad que queman carbón fuesen realmente sinceros, harían vigorosas campañas en favor de la energía nuclear. Las Centrales Atómicas no emiten azufre, ni nitrógeno, ni CO2, ni compuestos orgánicos y apenas una infinitesimal cantidad de radiación ­ menos del 0,1 del nivel natural. ¿Qué se debe hacer? Informarse sobre la verdad de los asuntos ecológicos (que se han convertido en una inagotable fuente de ingresos para las organizaciones ecologistas) para aconsejar y exigir a nuestros políticos que las legislaciones ambientales que se promulguen estén basadas en la más pura ciencia y no en el paranoico e interesado reclamo ecologista. No es tarea fácil, pero algún día hay que comenzar. . .

 El Fraude del Jefe Seattle [21]

Muy querido por muchos corazones verdes es el memorable discurso de 1854, atribuido al Jefe Seattle, de las tribus Suquamish y Duwamish ­ cuyas citas se encuentran a lo ancho y largo del mundo, en artículos y filmes sobre el ambiente, en publicaciones del Sierra Club, en remeras y en carteles de los Parques Nacionales. Algunos de los pasajes más citados pueden resultarle familiar:

  • «La Tierra no pertenece al Hombre; el Hombre pertenece a la Tierra.»
  • «El aire es precioso para el Hombre Rojo, porque todas las cosas comparten el mismo aliento: la bestia, el árbol, el Hombre.»
  • «¿Qué es el Hombre sin las bestias? Si todas las bestias desapareciesen, el Hombre moriría a causa de una enorme soledad del espíritu. Porque todo lo que le ocurre a las bestias, pronto le ocurre al Hombre.»
  • «Soy un salvaje, y no comprendo ninguna cosa de otra manera. He visto mil búfalos pudriéndose en la pradera, dejados por el Hombre Blanco que les había matado desde un tren que pasaba, y no entiendo cómo el humeante caballo de hierro puede ser más importante que el búfalo que nosotros matamos solamente para seguir vivos.»

Todo muy bonito, muy poético. Sólo hay un problema: las citas son una falsificación – tal como lo descubrió la periodista Paula Wissel durante la elaboración de una nota para el 125o aniversario de la muerte del Gran Jefe Seattle. Las palabras no son del Jefe Seattle en 1854, sino las de un libretista de la televisión de 1970, Ted Perryque actualmente enseña cine y teatro en el Middlebury College. Perry escribió el discurso como parte del libreto de una documental sobre el ambiente llamado «Hogar», patrocinado por la Comisión de Radio y Televisión Bautista del Sur, y mostrado en la cadena ABC-TV. Tal como le contó a la periodista Wissel (una reportera para la radio KPLU de Seattle), «Los productores creyeron que sonaría mucho más auténtico» si atribuían lo dicho al Jefe Seatlle, en lugar de Ted Perry. Dijo también que no descubrió el asunto hasta que vio el show por la TV y vió que su nombre no figuraba en los créditos.

El informe de Wissel ­ que comunicaba a los ecologistas la mala nueva acerca del discurso del Jefe Seattle ­ fue puesto en el aire el 8 de Junio de 1991 en la Radio Pública Nacional. Había sido un miembro de la misma tribu Suquamish quien alertó a Wissel sobre la falsedad del asunto, mientras ella realizaba su investigación sobre la vida del Jefe Seattle (o Sealth), en cuyo honor la ciudad lleva su nombre. Ella comprobó la historia con Rick Caldwell, en el Museo de Historia e Industria de Seattle: Caldwell y un investigador alemán, Rudolf Kaiser, habían rastreado el origen del mito hasta encontrar a Ted Perry. Como lo narra Caldwell, Perry estaba buscando algunas citas del siglo 19 para incluir en su libreto ecologista, pero «no pudo encontrar a ningún indio de 1850 que hablase la jerga ecologista de 1970.»

Caldwell dice que pasa gran parte de su tiempo contestando preguntas sobre el mítico discurso, y que algunas personas directamente no quieren creer que el discurso no es verdadero. Una de las principales claves de que las citas son falsas ­ le dijo a Wissel ­ concierne a los búfalos muertos desde el tren: «No se crían búfalos en estos humedales» y «los trenes no llegaron hasta Seattle sino 14 años después de la muerte del Jefe Seattle.«

 El Verdadero Jefe Seattle

Aunque el famoso discurso es un mito, el Jefe Seattle realmente existió y, de acuerdo a muchos registros históricos, era elocuente y sabio. Resulta bastante fácil conseguir un estudio sobre el tema, escrito por Daniel y Patricia Miller, como también un artículo sobre el Jefe Seattle aparecido el 29 de Octubre de 1887 en el Seattle Sunday Star, firmado por el Dr. Henry A. Smith. Si se le solicita, Caldwell suministrará su estudio del otoño de 1983 «El Mito del Manifiesto Ambiental del Jefe Seattle«, más una copia del estudio de Rudolf Kaiser de Mayo de 1984 sobre la recepción europea del mito del Jefe Seattle, subtitulado: «Casi una Historia Detectivesca«. El Museo de Historia e Industria de Seattle ha impreso un folleto que contie-ne la versión del Dr. Smith, dada en 1887, sobre el famoso discurso del Jefe Seattle. (Copias de este folleto se pueden obtener enviando un sobre con franqueo prepago al Museum of History and Industry, 2700 24th Avenue East, Seattle, Wash. 98112, Estados Unidos).

En su artículo de 1887, el Dr. Smith describe a Seattle con gran admiración y da una transcripción de un discurso que le escuchó pronunciar en respuesta a la propuesta del Gobernador Isaac I. Stevens, probablemente en Enero de 1854. Smith :

 

«El viejo Jefe Seattle fue el indio más grande que jamás haya visto y, por lejos, el de aspecto más noble . . . Cuando se erguía para hablar en el Consejo o para dar recomendaciones, todos los ojos se volvían hacia él, y de sus labios surgían sonoras y elocuentes sentencias pronunciadas con voz de tonos profundos . . . Su magnífica estampa era tan noble como la de los más cultivados jefes militares en comando de las fuerzas de un continente. «

 

Además de médico, Smith era un poeta y un filósofo. Tal como lo documenta el estudio de los Miller, antes de la versión mítica de 1970, en el siglo 20 existió otra remodelación de la transcripción realizada por el Dr. Smith del discurso de Seattle, hecha por gente que creyó que el lenguaje de Seattle era demasiado Victoriano y no muy indio. El más conocido de estos trabajos de remodelación es el de William Arrowsmith en 1969 que, de acuerdo a Kaiser, es el que inspiró a Ted Perry, quien, a su vez, dice que se lo escuchó recitar a Arrowsmith en el Día de la Tierra de 1970. Los Miller citan muchas razones por las cuales se cree que la transcripción de Smith de 1887 es la auténtica, y cómo la tradición oratoria india hacía uso de la metáfora. Los Miller describen a Seattle como un aliado de los colonos, a quienes admiraba su tecnología y medicina, haciéndose amigo de un doctor instalado en Olympia, y a quien persuadió de mudarse al área más cerca del hogar de Seattle.

Caldwell cita historias contemporáneas que documentan que Seattle tenía reputación de «maestro de la oratoria« y que «podía ser escuchado desde media milla de distancia cuando se dirigía a su gente, y que parecía controlarles por medio de su poderoso intelecto.» A mediados del siglo 19, la población india estaba siendo agudamente reducida por las enfermedades (viruela y sarampión) y por las guerras intertribales, mientras que la población de colonos blancos iba en aumento. Por consiguiente, el Jefe Seattle aceptó la propuesta del Gobernador del Estado de Washington en 1855, que cedía la mayor parte de la tierra al Estado y le dejaba a los indios tierras específicamente reservadas. El discurso expresaba sus pensamientos sobre la cuestión antes de que el tratado se firmase.

 Lo que Seattle Dijo en Realidad

Como lo transcribe el Dr. Smith, el real discurso de Seattle ­ quitándole todo el roman-ticismo verde de Perry en 1970 ­ es una mirada fascinante sobre cómo un jefe indio veía la invasión de colonos blancos y la lenta disminución de su propio pueblo. En lenguaje elocuente, lleno de metáforas, se sumerge en la cuestión de cómo el hombre blanco y el indio pueden vivir juntos en paz, aunque sus religiones y tradiciones son totalmente diferentes.

Los Miller hacen notar específicamente que las tribus de Seattle no tenían un concepto de «Madre Tierra». Sugieren que la interpretación del Dr. Smith de la religión de Seattle era que el dios del hombre blanco estaba incorporado a su propio mundo de espíritus «como un espíritu mayor, pero uno en el que había perdido la fe al momento de pronunciar su discurso«. Dicen los Miller que existen informes de que Seattle se convirtió posteriormente al catolicismo, pero que no existen registros serios que lo confirmen.

Especialmente impactante en la transcripción del discurso hecha por el Dr. Smith es la visión que Seattle tenía de la injusticia de su situación y cómo esto se relacionaba con el Dios de los blancos. El Jefe Seattle dijo:

 

«Su Dios ama a su gente y odia a la mía; El rodea amorosamente sus fuertes brazos alrededor del hombre blanco y le dirige como un padre haría con sus hijos, pero El ha olvidado a sus hijos rojos; El hace crecer a sus hijos cada día más fuertes, y llenarán muy pronto toda la tierra, mientras que mi pueblo va desvaneciéndose como una marea que se retira con rapidez y que nunca más volverá a fluir. El Dios del blanco no puede amar a sus hijos rojos, sino los protegería. Ellos parecen ser huérfanos y no pueden buscar ayuda en ninguna parte. ¿Cómo podemos convertirnos en hermanos? ¿Cómo puede su padre convertirse en nuestro padre y traernos prosperidad y despertar en nosotros sueños de una retornante grandeza?»

«Nos parece que vuestro Dios es parcial. El vino al Hombre blanco. Nosotros jamás lo vimos; ni jamás hemos escuchado su Voz; El le dio al blanco sus leyes, pero no le habló a sus hijos rojos que por millones llenaba este vasto continente, como las estrellas llenan el firmamento»

«Su religión estaba escrita en tablas de piedra por el dedo de hierro de un Dios enojado, para que no se les olvidara . . . Nuestra religión es la tradición de nuestros antepasados, los sueños de nuestros ancianos, dados a ellos por el Gran Espíritu, y la visión de nuestros sacerdotes, y está escrita en el corazón de nuestra gente.» «Vuestros muertos dejan de amarles a ustedes y a los hogares de su nacimiento tan pronto atraviesan los portales de la tumba. Ellos vagan mucho más allá de las estrellas, son rápidamente olvidados, y jamás regresan. Nuestros muertos jamás olvidan el hermoso mundo que les ha dado el Ser.»  

El Jefe Seattle advierte contra la inutilidad de más violencia, diciendo:

«Cuando nuestros jóvenes se enojan por alguna real o imaginaria mala acción, y desfiguran sus rostros con pintura negra, sus corazones también se desfiguran y se tornan negros. Entonces su crueldad es incansable y no conoce límites, y nuestros ancianos no pueden detenerlos. Pero tengamos la esperanza de que las hostilidades entre el hombre rojo y sus hermanos carapálidas no regresen jamás. Tenemos todo para perder y nada para ganar».

 «Después de Todo, Podemos Ser Hermanos»

El Jefe Seattle termina con una predicción que resultó muy acertada:«La noche del indio promete ser muy oscura». Luego dice: 

  «Pero, ¿por qué amargarnos? ¿Por qué debería yo murmurar por la suerte de mi pueblo? Las tribus están hechas de individuos y no son mejores que ellos. Los hombres van y vienen como las olas del mar. Una lágrima, un ‘tamanawus’, una mueca, y se alejan de nuestros ojos para siempre. Aún el hombre blanco, cuyo Dios caminó y habló con él, de amigo a amigo, no es una excepción al destino común. Después de todo, podemos ser hermanos. Ya lo veremos» .

Luego le recuerda Seattle al gobernador que los espíritus de su antes numeroso pueblo habitan la tierra: «El Hombre blanco nunca estará solo. Sea el blanco justo y trate con bondad a mi pueblo, porque los muertos no están totalmente sin poder».

Rick Caldwell y Rudolf Kaiser documentaron en 1983-84, que la amada versión ecologista del discurso del Jefe Seattle era nada más que un fraude. La Radio Pública Nacional transmitió a nivel nacional la historia de Paula Wissel en 1991. ¿Alguna de las numerosas organizaciones o individuos que usan el discurso ha hecho pública alguna retractación? ¿O es que ellos prefieren el mito y la mentira a la verdad ­ mientras que el mito apoye a su mensaje? ¿Acaso no lo vemos todos los días?

 
Referencias:
  1. Ross, Malcolm, 1992, «Minerals and Health: The Asbestos Problem,» en Rational Readings on Environmental Concerns, Jay H. Lehr, editor, pp. 101-115.
  2. Dunn, James R., 1985, Asbestos:Let’s Get the Facts Straight, National Council on Environmental Balance, Lousiville, KY 40207.
  3. Bennet, M. J., 1989, «Asbestos,» en Priorities, American Councuil on Science and Health, NY 1989.
  4. Whelan, Elizabeth, 1985, «The Yusho Disease Episode» p. 142, en Toxic Terror, Jameson Books, Inc. 722 Columbus St. Ottawa, IL 61350.
  5. Douglas, John, 1988, «Genetic Ecology,» EPRI Journal, Sept. 1988, pp. 15-21.
  6. Douglas, John, «Deadly Dioxin,» Capítulo 8, op. cit.
  7. Letts, Roger W. M., 1986, Dioxin in the Environment: Its Effects on Human Health, informe del American Council on Science and Health, 1986.
  8. Havenger, W.R., 1981, «Science vs. Politics in Regulatory Washington,» The American Spectator, Junio de 1981.
  9. Thomas, Lee M., 1986, «The Next Step: Acid Rain,» EPA Journal, June/July 1986, pp. 2-3.
  10. Likens, G. E. et al, 1979, «Acid Rain,» Scientific American, Vol. 241, No 4, pp. 43- 51, October 1979, y numerosos artículos en revistas profesionales.
  11. Smil, Vaclav, 1985, ‘Acid Rain: A Critical Review of Monitoring Baselines and Analysis.» University of Manitoba, Power Engineering, pp. 59-63, April 1985.
  12. Tiling, R. I., M. Rubin et al., 1984, «Holocene Eruptive Activity of El Chichón Volcano,» Science, 18 May 1984, pp. 747-749.
  • Weiner, Jonathan, 1989, «Glacial Air Bubbles Are Telling Us What Was in Ice Age AirSmith-sonian, Vol. 20, No. 2, May 1989,
13. Acid Deposition in Atmospheric Processes in Eastern North America, Environmental Sciences Board, National Research Council, National Academy Press, 1985. 14. National Acid Precipitation Assessment Program, 1984, Informe Anual al Presidente y al Congreso.
  • Mohnen, Volker A., 1988, «The Challenge of Acid Rain,» Scientific American, Vol. 259, No. 2, August 1988.
  • Boutacoff, David, 1988, «Reality Test for Acid Rain Models,» EPRI Journal, Vol. 13, No. 8, December 1988.

15. Stumm, Werner, Laura Sigg, y Jerald L. Schnoor, 1987, «Aquatic Chemistry of Acid Deposition Environmental Science & Technology, Vol. 22, No. 1 1988.

  • Gaffany, Jeffrey S. et al., 1987, «Beyond Acid Rain,» Los Alamos National Laboratory, Environmental Science & Technology, Vol. 21, No. 6, 1987.
  • Henriksen, Arne, y David F. Brakke, 1988, «Sulfate Deposition to Surface Water,» Environmental Science & Technology, Vol. 22, No. 1, 1988.

16. «The 1980 Eruptions of Mount St. Helens, Washington, 1981″, Washington Geological Survey Profes-sional Paper 1250, Peter W. Lipman y Donald R. Mullineeaux, editores, 1981.

17. Stoiber, R. B., y A. Jepsen, 1973, «SO2 Contributions to the Atmosphere by Volcanoes,» Science, Vol. 182, 1973.

18. Landsberg, H. E., 1984, The Resourceful Earth,
  • Whelan, Elizabeth, 1985, en Toxic Terror, Capítulo 12, «Do the Acid Raindrop Keep Falling?,

19. Manion Paul D., R. J. Bragg, 1982, Effects of Acid Precipitation on Scleroderris Canker Disease of red Pine, pp. 55-56, reunión del Simpsio del Estado de Nueva York en Depósitos Atmosféricas, Center for Environmental Research, Cornell University, Ithaca, N.Y.

  • Manion, Paul D. et al., Air Pollutants Effects on forest Ecosystems, Acid Rain Foundation Symposium report, 1630 Blackhawk Hills, St. Paul, MN 55122.

20. McKetta, John J., Jr. 1985, Acid Rain, What is the Real Story? Effects on Lakes and Fish, Dept. of Chemical Engineering, Univ. of Texas, Austin 78712.

  • Schindler, D. W., 1988, «Effects of Acid Rain on Freshwater Ecosystems,» Science, Vol. 239, January 8, 1988
21. Mazel Hecht, Marjorie, 1991, 21st Century Science & Technology (Edición del Otoño de 1991), pp 85-87.

Capítulo 7 - Pesticidas y cáncer

 
La Dosis es el Veneno
    EL MIEDO A MORIR ANTES DE TIEMPO

Todos ­ o casi todos ­ tenemos miedos naturales o irracionales. Es natural tener miedo a saltar de un avión, con o sin paracaídas, o cruzar la Avenida 9 de Julio con los ojos cerrados. También es muy común tener miedo a la oscuridad, porque no sabemos qué se esconde allí, lejos de la luz. El ecologismo explota este miedo ­ la ignorancia a lo desconocido ­ con una eficacia extraordinaria.

Usando una metáfora, la ignorancia es la oscuridad, la Ciencia es la luz. Los miedos que son impulsados por las organizaciones ecologistas se basan en el instintivo miedo que tiene la gente a lo que desconoce. El público lector de diarios, y revistas divulgación científica para legos, tiene la tendencia de creer en todo lo que está impreso en tinta sobre papel. No sucede tanto entre los lectores de publicaciones especializadas ya que son, por lo general, personas de elevados conocimientos técnicos y/o científicos en la materia.

Pero, en cuanto el tema escapa de su especialidad, es presa de la misma tendencia que el público en general. Así es como un Premio Nobel en Medicina puede llegar a creer que el Efecto Invernadero o el Agujero del Ozono son peligros apocalípticos. Y son capaces de emitir declaraciones a los medios de difusión que contribuyan a la prohibición de los aerosoles o de la limitación del uso de los combustibles fósiles que desprenden Dióxido de Carbono a la atmósfera.

Nunca como en este caso, el refrán «Zapatero, a tus zapatos» se aplica con mayor precisión. Sobre todo los políticos, a quien por esas cosas absurdas de la vida les cabe la responsabilidad de emitir leyes que nos afectan a todos, deberían hacer caso omiso de todas las presiones de orden emocional y sensacionalista que provocan los ecologistas, y remitirse exclusivamente a los científicos, que son los únicos que por lo menos saben un poco sobre el asunto.

Volviendo al miedo a morir antes de tiempo, ¿quien puede decirnos cuál es el tiempo correcto para morirnos¿O quizás ya exista el concepto ecologista del momento políticamente correcto de morirse? ¿Era ayer, o la semana pasada, quizás?, o dentro de algunos años, si nos cuidamos al cruzar la calle o al prender el horno de la cocina.

 Un Poco de Historia

Desde el punto de vista puramente científico, la preocupación que tiene la gente con respecto a los residuos de pesticidas en los alimentos es algo retorcido; es algo así como el interés en la Astrología. El temor a los pesticidas surgió en 1956, cuando el Departamento de Bienestar, Salud y Educación de los Estados Unidos advirtió para las fiestas del Día de Acción de Gracias que se evitase comer arándanos agrios (cranberries) porque contenían residuos de un herbicida que podría provocar cáncerLos arándanos eran tan inofensivas como la leche materna, pero el miedo ya había sido implantado y se hizo permanente porque fue reforzado por otra historia de horror que apareció ­ convenientemente ­ en esa misma época. Me refiero a nuestro conocido libro de terror de Rachel CarsonPrimavera Silenciosa Mucho se ha nombrado a este libro en mi exposición de sus mentiras y fraudes, pero no he citado nada directamente. Es hora de hacerlo y les daré los párrafos iniciales. Prepárense:

«Algún hechizo malévolo se había asentado en la comunidad. Misteriosas enfermedades habían barrido con bandadas de gallinas. El ganado y las ovejas se enfermaban y morían. Por todos lados se extendía la sombra de la muerte. Los granjeros hablaban de muchas enfermedades entre sus familias. Hubieron muchas e inexplicables muertes, no sólo entre los adultos, sino también entre los niños que habían sido atacados súbitamente mientras jugaban y morían a las pocas horas». «Los pocos pájaros que se podían ver en alguna parte estaban moribundos. Temblaban violentamente y no podían volar. Era una Primavera sin voces. En las granjas, las gallinas empollaban pero no nacían pollitos. Los manzanos estaban floreciendo, pero no habían abejas entre las flores, por lo que no existía la polinización». «En los desagües, bajo los aleros de los techos, se podía ver que un blanco polvo granular formaba todavía algunos manchones; algunas semanas antes había caído como nieve sobre los techos y los jardines, los campos y los arroyos».

El polvo blanco, como lo habrán imaginado, era el DDT. Después de leer el poético y truculento sinsentido de Carson, mucha gente se preocupó porque los pesticidas, especialmente el DDT, fueran venenos mortales para los seres humanos. ¿Cómo capearon entonces el temporal asesino de DDT los pobladores del mundo? Durante los años de uso intenso del DDT, la expectativa de vida en los Estados Unidos se incrementó en 11 años. ¿No era que el DDT mataba? La Tabla 1 nos muestra algunos datos interesantes al respecto.

 

GANANCIA EN EXPECTATIVAS DE VIDA

 

(ESTADOS UNIDOS, 1941-1983)

 
 

AÑO

 

Expectativa de vida

 

Ganancia de vida por Década (%)

 

1940

 

63.6

7.4

 

1950

 

68.1

 

7.1

 

1960

 

69.9

 

2.6

 

1970

 

70.8

 

1.3

 

1980

 

73.6

 

4.0

 

1990

 

74.6

 

Tabla 1

Una de las mejores manera de prolongar las expectativas de vida es, por supuesto, librarse de las plagas. El caso de la India demuestra el caso mucho mejor que el de los Estados Unidos. En 1962, R. Pal informó en el World Review of Pest Control, que la malaria se había reducido en la India de 75.000.0000 de casos a menos de 5 millones, desde 1953. Antes del programa de rociado de DDT, la expectativa de vida era de 32 años; después de la campaña de erradicación de la malaria en 1962, había subido hasta 47 años. Durante este período se usaron 147 millones de libras de DDT. El gran asesino de niños era la malaria. Y fue drásticamente reducida. Hoy, una vez prohibido el DDT, ha regresado con más fuerza que nunca. Muchas gracias, Rachel Carson y seguidores . . .

Se ha asegurado que el sentido del furor público, más que los hechos reales y comprobados ­ es la primera razón del éxito de las campañas antipesticidas. Este furor puede fabricarse aún cuando no exista ninguna prueba científica. El Terror del insecticida «Alar» en 1989 demostró esto: El jugo de manzanas fue derramado en los resumideros y las tartas de manzana se arrojaban a los incineradores de las escuelas. El terror fue reforzado cuando la Drug and Food Administration anunció que se había descubierto cianuro en las uvas chilenas; una frenética madre telefoneó a la policía para que a su hijo se le retirase la canasta con el almuerzo del ómnibus escolar.

La cantidad de cianuro en las uvas era menor a la que existe naturalmente en las semillas de lima. En cuanto a las manzanas, se demostró finalmente que eran inofensivas. Al reducir el consumo de frutas, el Terror del Alar demostró ser perjudicial para la salud humana ­ pero sumamente beneficiosos para las arcas del NRDC, el Consejo para la Defensa de los Recursos Naturales, uno de los tanques pesados del ecologismo de los Estados Unidos.

Durante el Terror del Alar, el NRDC reclutó a la famosa actriz Meryl Streep para que patrocinara «Madres y Otros Contra los Residuos de Pesticidas». En contra de tal despliegue de talento actoral en las relaciones públicas, las desmentidas de los más famosos científicos se perdieron en el vacío.

 Residuos, ¿Cuáles Residuos?

En 1993 escribí un artículo para incluir en un folleto titulado: «DDT, Una Historia Sombría» que se distribuyó en el Primer Congreso Interamericano de Legislación Ambiental que se realizó en Buenos a partir del 5 de Noviembre de ese año, extractando las declaraciones, opiniones y trabajos del Dr. Thomas Jukes, profesor de Biofísica en el Departamento de Biología Integrativa de la Universidad de California, en Berkeley y de muchos otros artículos científicos que aparecieron en diversas revistas. Me parece atinado reproducir algunas partes aquí.


 

Los Ecologistas Arman el Fraude Antipesticida

 

Las más estrictas investigaciones estatales demuestran que los residuos de pesticidas son mucho menores que las normas de la EPA, que a su vez están ajustadas muy por encima de los niveles de riesgo. ¿Entonces, por qué el temor?

Nos Informa el Dr. Thomas H. Jukes.

El 28 de Junio de 1993 se publicó un informe del National Research Council (NRC) llamado Niños y Residuos de Pesticidas en la Dieta, junto a un parte de prensa de la National Academy of Sciences, y una declaración de apertura por parte del presidente del comité informador, Dr. Philip J. Landrigan, durante una conferencia de prensa realizada en Washington. La conferencia de prensa estaba originalmente planeada para el 29 de Junio, pero se debió adelantar porque un articulo de Marian Burros acerca del Informe apareció publicado prematuramente en el New York Times el 27 de Junio. Burros escribía antes sobre alimentos para el Washington Post, de la Capital americana.

El parte de prensa y la declaración enfatizaban la vulnerabilidad de los niños. En efecto, el Dr. Landrigan terminó su declaración con la notable predicción que «tomando las medidas especiales que hemos delineado en nuestro informe, el gobierno federal puede avanzar mucho en la dirección de asegurar. . . que el futuro de América sea preservado.» El parte de prensa y el Informe omitieron todas las evaluaciones previas del efecto de los residuos de pesticidas en los alimentos. Algunas de ellas son:

    1. Un vocero del National Cancer Institute, el 27 de Agosto de 1990 expresó no estar «ente-rado de evidencia que sugiera que los residuos regulados y aprobados de pesticidas en alimentos contribuyesen a la tasa de cáncer en los EE.UU.»
    2. El Dr. Bruce Ames de la Universidad de California, en Berkeley, hizo notar que «los americanos comen un estimado de 1,5 miligramos de pesticidas naturales, diariamente y por persona, lo cual es cerca de 10.000 veces más que lo que consumen de residuos de pesticidas sintéticos». Los pesticidas naturales son producidos por las plantas para protegerse contra las plagas. Los pesticidas naturales, en promedio, no son menos tóxicos que los pesticidas sintéticos. La conclusión del Dr. Ames es que los residuos de pesticidas sintéticos son un riesgo despreciable.
    3. En análisis realizados sobre pesticidas en los alimentos, llevados a cabo en 20 estados, 1990 y 1991, con 18.928 muestras, no se detectaron residuos de pesticidas en el 70.2% de las muestras. En el programa de ensayos realizado por la Food and Drug Administration (FDA), se testearon 6.602 muestras que dieron como resultados: Sin residuo alguno: 58%; residuos presentes pero dentro de las normas legales: 41%; en violación: 1%.La FDA ha revisado recientemente su información sobre análisis de alimentos, de seis años a esta parte (1985/1991), entre los que se cuentan 10.000 muestras de manzanas frescas, naranjas, bananas, peras, leche y jugos de fruta. También se encuentran análisis sobre productos de panadería, cereales para bebés, fórmulas infantiles y combinación de «cenas preparadas». Menos del 0.5% de las muestras violaban los límites federalmente permitidos. Los productos frescos tendían a tener mayor cantidad de residuos, pero el lavado, pelado y procesamiento reducen los residuos en hasta el 99%. Esto fue informado en el número de Mayo-Junio 1993 del Journal of Official Analytical Chemists International.

Como el Dr. Landrigan hizo notar, los límites de tolerancia de la EPA para los pesticidas son establecidos dividiendo el nivel de no-efecto por 100, y luego «la EPA divide este número otra vez por 10, si los estudios muestran efectos sobre los fetos en desarrollo.» El Dr. Landrigan dice que «Creemos que la EPA debe usar un factor adicional de 10 cuando existe evidencia de toxicidad postnatal». Esto no sería aplicable a las muestras con residuos indetectables.

  1. Lo más importante de todo, quizás sea que los análisis de riesgo/beneficio han llevado a las autoridades de salud pública a la conclusión que los beneficios para la salud provenientes de las frutas y legumbres, incluyendo posible prevención del cáncer, sobrepasa por mucho cualquier efecto deletéreo de los residuos de pesticidas. Esto fue enfatizado en el caso de los niños, por el Departamento de Salud Pública de California durante el tiempo que duró el terror por el pesticida Alar para las manzanas. Por cierto, el Dr. Landrigan no está en contra de estas conclusiones porque dice que «los padres deberían continuar enfatizando las legumbres y frutas en la dieta de sus hijos ¿Por qué, entonces, reclama un nuevo programa?
  Comentarios

Algunos de los principales puntos de la declaración y el parte de prensa, junto con los comentarios del Dr. Jukes son los siguientes:

Declaración: «El proceso de tomas de decisión del gobierno federal para los pesticidas no presta suficiente atención a la protección de la salud humana, especialmente la salud de bebés y niños. Los niños no son sólo pequeños adultos».

Dr. Jukes: El proceso de toma de decisiones está basado en la protección de la salud humana. Los márgenes de protección son lo suficientemente grandes como para permitir la protección de consumidores de todas las edades.

Declaración:«Recomendamos que el gobierno tenga como su meta más clara el establecimiento de tolerancias que protejan más a la salud humana.»

Dr. Jukes: Esta meta ya ha sido alcanzada. Los residuos de pesticidas en los alimentos no constituyen ningún peligro para la salud humana, tal como lo hace notar el National Cancer Institute de los EEUU.

Declaración:… «tomando las medidas especiales que hemos delineado en nuestro informe, el gobierno federal puede avanzar mucho en la dirección de asegurar… que el futuro de América sea preservado.»

Dr. Jukes: Esta predicción algo pomposa puede compararse con los verdaderos peligros para los niños. Estos incluyen a las enfermedades infecciosas, deficiencias nutricionales, negligencia de los padres y malos tratos, exposición a la propaganda de cigarrillos, violencia y drogas. La falta de inmunización para las enfermedades de la infancia es un gran problema. Esto ha sido enfatizado por los Centros de Control de Enfermedades: la vacunación de los niños tiene una tasa del 60%. Es necesaria la inmunización de los niños para enfermedades como la tos convulsa, sarampión, parotiditis, poliomielitis, difteria, tétanos, rubéola y la influenza hemofílica tipo B. Las vacunas para todas estas enfermedades están disponibles en todos los hospitales públicos. Sin embargo, el acceso a ellas es limitado, y la tasa de inmunización para los niños menores de dos años es baja, especialmente en las ciudades del interior (solamente es de un 10%).

Declaración: «Creemos que la EPA debería considera un factor adicional de 10 cuando haya evidencia de toxicidad postnatal».

Comentario: La EPA usa ya este factor adicional si los estudios han demostrado algún efecto sobre los fetos en desarrollo (p.ej.: toxicidad prenatal). Esta precaución parece ser suficiente para proteger contra la toxicidad post-natal.

Sumario

  1. Los análisis de alimentos demuestran que la mayoría de los casos, los residuos de pesticidas no fueron detectados, y en casi todos los demás casos, los residuos estaban dentro de los límites de tolerancia. Estas evidencias demuestran que el problema es muy pequeño, a despecho de otras circunstancias.
  2. Un vocero del National Cancer Institute expresó el 27 de Agosto de 1990 que «no estaba enterado de evidencia que sugiera que los residuos regulados y aprobados de pesticidas en alimentos contribuyesen a la tasa de cáncer humano en los EEUU.»El Centro Nacional de Estadísticas de Salud de los EEUU, declara que la mortalidad por cáncer, ajustada por edad, entre los niños blancos de edades entre 0 y 14 años, ha disminuido un 35% entre 1973-74 y 1985-86.
  3. Diversas autoridades de la salud pública aseguran que la protección contra el cáncer que confieren las frutas y legumbres, sobrepasa ampliamente cualquier efecto de los residuos de pesticidas.
  4. Los pesticidas matan plagas. Los productos químicos para proteger a las plantas (pesti-cidas) incluyen fungicidas. Estos hacen su contribución para la prevención del cáncer al destruir mohos que producen cancerígenos en los alimentos. Las comidas y alimentos «orgánicos» no están protegidos contra el moho que contiene aflatoxina.
  5. Los mayores problemas para los bebés y niños ­ mucho mayores que los residuos de pesticidas ­ son la inmunización contra las enfermedades de la infancia y la necesidad de una adecuada protección contra heridas traumáticas y deficiencias nutricionales.
  6. Los límites de tolerancia para pesticidas son establecidos con un margen de seguridad de un centésimo del nivel encontrado de no-efecto. Esto es suficientemente amplio para proteger a bebés, niños y adultos.
  7. Los pesticidas naturales se encuentran en los alimentos en niveles aproximadamente 10.000 veces más altos que los pesticidas sintéticos.
  8. Los programas existentes para el análisis de residuos de pesticidas en los alimentos son extensos y adecuados. La preocupación por los pesticidas ha sido inflada de manera desproporcionada.

(Extractado del artículo publicado en Executive Intelligence Review, EIR, Science & Technology. July 30, 1993. pp. 14-16.)


Los Tests de Riesgos Para la Salud en los EE.UU. ‘No Tienen Valor’


Los problemas legales y de salud emergentes de las regulaciones gubernamentales fueron el foco de la conferencia titulada «Riesgoso Para su Salud: Tóxicos, Sinrazones y , auspiciada en Junio 8-9 en Washington, D.C. por el Independent Institute. La conferencia destacó las políticas gubernamentales que los participantes afirman que «son seriamente deficientes, tanto económica como, científicamente» lo que ayudó a crear una situación donde una explosión de litigios y demandas judiciales amenazan con «dejar inválida a la competitividad del comercio y el trabajo de los EE.UU.». Los tópicos variaron desde el «Super Fondo para la Limpieza» a riesgos y responsabilidad.

Aaron Wildavsky, profesor de Ciencias Políticas y Políticas Públicas en la Universidad de California, en Berkeley, habló en la conferencia integrando un panel sobre substancias peligrosas. Wildavsky ha escrito numerosos libros y artículos sobre el tema, y en su disertación describió la naturaleza y magnitud del problema, en cuanto se relaciona al uso de los tests de cáncer en animales para determinar los riesgos de cáncer para los humanos. Dijo que, debido a la defectuosa metodología de los tests para cáncer en los animales, «los resultados no serán lo suficientemente buenos para ser considerados una base válida para predecir el cáncer en los seres humanos. El simple hecho es que los humanos raramente – si es que nunca ­ encontrarán en la vida real las altísimas dosis de sospechados cancerígenos que les son administradas a los animales de laboratorio.»

 Extrapolaciones ridículas

Para extrapolar ensayos sobre animales a los seres humanos, deben hacerse una serie de suposiciones. Se supone que la biología de los animales de ensayo es similar a la de los humanos; que se puede hacer un ajuste para la enorme población humana comparada al limitado número de animales en ensayo; y que las vastas diferencias en la dosificación dada a los animales ­ comparadas con la real exposición humana ­ no invalidarán los resultados. Dependiendo de las suposiciones realizadas y los modelos estadísticos que se derivan de ellas, los resultados pueden variar inmensamente.

Wildavsky hizo notar que si después de este ejercicio, todo lo que sabemos es que la exposición a una substancia química dada a las ratas es miles de veces más grande que la exposición humana, entonces no sabemos nada de valor. Y las regulaciones basadas en tales resultados no tiene mucho sentido, excepto para proveer con un espectacularmente elevado margen de seguridad.

Hace notar, además, que hay muy pocos beneficios para la salud al eliminar minúsculas cantidades de residuos químicos sintéticos, cuando se tiene en cuenta la capacidad del organismo humano para manejar los bajísimos niveles de cancerígenos naturales a los que estamos expuestos diariamente en nuestra dieta.

Al referirse a las manera de reformar las regulaciones, Wildavsky sugiere que las substancias químicas deberían ser discutidas en términos de dosis tóxicas o cancerígenas, en vez de etiquetarlas simplemente como tóxicas o cancerígenas. Además, no existen garantías de que una dosis de alguna substancia será absolutamente segura. Sin embargo, podemos hacer muy buenas estimaciones acerca de cuales dosis serían insignificantes comparadas con otros factores.

Wildavsky preguntó«¿Cómo puede un ciudadano decir cuál es la diferencia entre seriedad y tontería?». Es su convencimiento que una persona que esté dispuesta a invertir cierto tiempo en la lectura de la literatura científica puede llegar a entenderlo. Agrega que si clubes, grupos de veteranos, jubilados o aquellos que dirigen «Bulletin Boards» de computación estudiasen los diferentes asuntos ­ calentamiento global, DDT, o cualquier otra cosa ­ y se transforman en «expertos ciudadanos», podrían convertirse en poderosas usinas generadoras.

Cien organizaciones de esa naturaleza en los EE.UU. tendrían una enorme influencia en la creación de una ciudadanía mejor informada. La disertación de Wildavsky ­ muy bien referenciada ­ aparecerá en las minutas de la conferencia que serán publicadas por el Independent Institute, y estarán disponibles antes de fin del año 93. Lo que sigue es la disertación de Wildavsky ante la conferencia, editada especialmente para este artículo.


 Wildavsky: La Agenda Ecologista es Insanía.


Creo que debemos comprender la enormidad de lo que ha ocurrido, para responder a la razonable pregunta del caballero de la EPA «¿Qué debemos hacer?» Una taza de café tiene, groseramente, mil substancias químicas. De éstas, sabemos algo acerca de unas 25 o 27 de ellas. Se ha calculado que cada taza de café ­ como las dos que bebí esta mañana ­ tiene unos 15 mg de cancerígenos o material venenoso. ¿Cuánto son 15 mg? Es aproximadamente el equivalente a lo que todos y cada uno de nosotros obtendría de los residuos de pesticidas, de la industria, de la cadena alimentaria en un año entero. ¿De modo que usted quiere hacer a la vida más fácil, Sra. EPA? ¿Quiere demostrar compasión por los pobres infelices que están contrayendo un cáncer cada 13 segundos? Aconséjeles entonces que beban una taza menos de café por año!

La cantidad de cancerígenos naturales ­ en cualquier cosa que crece y espera sobrevivir en la evolución (la mayoría de las plantas son fábricas de substancias químicas), comparadas a la cantidad de substancias químicas sintéticas que recibimos de la industria, es ínfima. La relación entre ambos cancerígenos, los naturales y los sintéticos, es de aproximadamente 99,99999 a 1.

Puesto de otra manera, los cancerígenos naturales son de 10 a 15.000 veces más, por peso y potencia por día, que los cancerígenos sintéticos. La primera pregunta que cada niño debería hacer no es «cómo besar a una ballena esta mañana», sino ¿Qué demonios estamos haciendo? Todo el asunto de las regulaciones es una bestialidad, del principio al fin. No hay ninguna verdad en ellas porque no existe ningún perjuicio en los muy bajos niveles de nuestra preocupación. En lo que usted debe concentrar su atención y nunca quitarle el ojo de encima ­ en este juego de las cáscaras de nuez ­ es el asunto técnico llamado «evaluación de riesgos» o «criterio». Es el criterio lo que importa. Si pudiésemos alterar de manera sensible el criterio que emplea la EPA para regular, todo lo demás encajaría en su lugar con facilidad.

Reduciríamos enormemente los riesgosos depósitos abandonados de desechos tóxicos. De manera que si usted dice «¿A qué debemos prestar atención?» Ponga atención en el criterio elegido. En los momentos actuales, la EPA usa el criterio siguiente: regula 374.000 veces por debajo de cualquier daño a los humanos o a los roedores.

La norma de la EPA es,«no se puede causar un cáncer en un millón»» ¿De dónde hemos sacado al millón? Yo sé de dónde. Caballeros, ¿se les ocurriría a ustedes decirle a su novia: «Eres una entre 12.564»? No hay otra razón que esa.

Recurra a su libro de informaciones, enciclopedia u otro tipo de almanaque. No deje pasar otro día antes de hacerlo. Fíjese en la tasa de accidentes, morbilidad y mortalidad para los últimos 100 a 120 años. Podrá ver un increíble ejemplo de progreso. Para blancos y negros, hombres y mujeres, es un progreso ascendente y avanza de una manera notable.

 Hemos estado haciendo algo correctamente

Conclusión: Debemos haber estado haciendo algo correctamente. Otra cosa es si los viejos se están llevando con ellos a la juventud de América. Yo sabía reírme a solas diciendo que este es el único país en el mundo que tiene una crisis simultánea de ancianos y muertes prematuras. En otras palabras, sin entender la pura insania y sandez que se está cometiendo, ni usted, ni yo, ni los empleados de la EPA podremos hacer ninguna clase de progreso.

El grueso de las regulaciones gubernamentales ­ muy por encima del 90% ­ están basadas en tests de cánceres de animales realizados sobre roedores. De la misma manera que a usted, a mí jamás se me ocurrió que yo debería estudiar tal asunto, y menos aún escribir sobre ello. Pero si usted entiende que el «criterio elegido« es el aspecto esencial de todo esto, y que los tests sobre roedores son los dispositivos usados ­ entonces se dará cuenta que, o debe reconocer su ignorancia, o debe ir directamente al corazón mismo del tema. Mi posición es muy clara y no quiero que nadie se equivoque al respecto. Estos tests no tienen ningún valor ­ absolutamente, sin misericordia, son total y definitivamente inútiles

Además, dentro de muy pocos años, verán ustedes que la opinión científica se moverá irremediable e irrevocablemente en contra de ellos. Quizás algunos de mis estudiantes dirán: «Bueno, quizás sea la segunda o tercera mejor opción». Digamos que usted quiere ir a Baltimore y yo lo envío vía Pekín. ¿Diría que esto es la segunda mejor opción?. La mayoría de ustedes han oído hablar de algunas de las fallas de estos tests, de modo que las mencionaré ­ pero no me internaré en ellas para poder hacer foco sobre otras cosas de las que ustedes no han escuchado hablar y que son más importantes. Sabemos que los animales de ensayo son alimentados con las máximas dosis que puedan tolerar.

Esto es muy importante, porque cuando comparamos una rata a un hombre, ella es muy pequeña y nosotros somos muy grandes. Las ratas reciben dosis gigantescas ­ a veces decenas de miles de veces mayores que las que ingerimos nosotros ­ de modo que es necesario tener un control sobre ello. Entonces ellos nos dicen: «Bueno, estos son ratas especialmente criadas, se supone que deben tener cáncer.»

Ellos consideran que un tumor benigno es lo mismo que uno canceroso, porque el benigno podría volverse canceroso. Pero ello no es la esencia del asunto. Aún en la diferencia entre la Food & Drug Administration (FDA) y la EPA ­ donde la EPA usa un criterio y la FDA otro ­ la diferencia es de un factor de cuatro, tampoco es la esencia del asunto. Todas las cosas que haya escuchado usted acerca de experimentos de «megaratones» ­ ello no es la esencia del asunto.

La esencia del asunto reside en el argumento estadístico. Para poder extrapolar de un ratón a un humano, es preciso controlar la dosis y el tamaño. Existen varias docenas de modelos estadísticos, pero a menos que usted sepa cómo se produce el cáncer, a menos que se tenga una explicación de la mecánica involucrada en las causas del cáncer, no existe ninguna manera de elegir un modelo estadístico. Inmediatamente, el pequeño número de científicos sociales que están aquí preguntarán: «¿Es este el caso dónde la elección del modelo estadístico predetermina los resultados?». Puede usted apostar su vida a que sí. La EPA usa lo que denomina «un modelo por omisión» (default). Le voy a dar mi ácida visión de esto: Se trata de una omisión de entendimiento. Pero les hago a ellos un flaco servicio, porque ellos sí saben lo que están haciendo, como explicaré en seguida.

Pero no es algo que debamos apoyar. ¿Qué diferencia hace el modelo que se elija? A «grosso» modo, esta es la diferencia: Una vez que se haya completado estos tests (de 1 a 3 millones de dólares por test), y se hayan seguido los procedimientos puntillosamente (lo cual no es nada fácil porque es necesario sacrificar a los animales, poner substancias en las platinas, y es muy largo, tedioso, caro, y posiblemente lleno de errores), aún después que todo esto ha sido hecho, ¿qué es lo sabemos?. Le daré mi traducción: sabemos, entre 4.000 y 4 millones de veces, lo que puede estar correcto. Ese es el margen de error. Así es como manejamos las incertidumbres. Caballeros de la EPA, ciudadanos de América, esto es una locura!

Necesito decir una cosa más. Bruce Ames y Lois Gold tienen una teoría llamada mitogénesis que funciona de esta manera: Los tests que les damos a estos animales están creando los cánceres que encontramos. Es decir, estamos envenenando a estas pobres criaturas con dosis tan elevadas, que ellos entran en tremendo proceso de división celular. Es muy sabido entre los especialistas de cáncer y en la literatura científica que altas tasas de división celular conducen al cáncer. De manera que podemos decir: «Usted saca lo que ha puesto.» Y esta teoría, aunque no está todavía probada, está ganando cada día más adherentes. ¿Cual es el razonamiento que da la EPA para estos tests? «Bien, es lo mejor que tenemos» De modo que tengo noticias para ustedes, caballeros:Si lo mejor que tienen está entre 4.000 y 4.000.000, no sirve para nada!.

  Qué debería hacerse

Existen otras dos cosas que podemos y deberíamos hacer, algunas de las cuales ya las estamos haciendo ahora. Podríamos usar a la epidemiología ­ el estudio de sujetos humanos. Podríamos tener muestras más grandes y mejorar las cosas desviando algunos de los recursos de los tests de cáncer sobre roedores. ¿Cuál es la objeción a ello? La objeción es que la epidemiología sólo detecta los efectos más grandes. Yo diría que eso es lo que queremos.

No queremos estar persiguiendo quimeras. Si ustedes se fijan en las estadísticas de morbilidad y mortalidad, prométanme que cuando regresen a sus casas se fijarán en el «Almanaque», porque a menos que ustedes refrieguen sus narices en él y comprueben lo brillante que lo hemos estado haciendo ­ ¿por qué estamos buscando efectos más y más pequeños cada vez? y ¿cuál es la causa de este romance con causas minúsculas y efectos infinitesimales?

Bien, podemos expandir a la epidemiología. Pero todavía estaremos perdiendo algunas cosas. Desde ya lo aviso. Pero como tampoco sabemos lo que estamos haciendo con los tests de cáncer sobre animales, también estamos perdiendo muchas cosas allí. Lo único que podemos, al azar, es encontrar algunas causas de daños en los seres humanos, pero, de otra manera, no tenemos ni la más remota idea de lo que sucede. De modo que no se trata de que el método preferido es atrapar a las cosas que la epidemiología no puede determinar. En el trabajo que he realizado, avanzo sobre una discusión que tuve con Leo Levinson, un estudiante que escribió algunas cosas conmigo y que es un exdirector de proyectos de la EPA. Leo dice: «Volvamos a algo menos insano».

En los viejos tiempos no separábamos las cosas que provocaban cáncer, de las que provocaban otras cosas. Si tuviésemos alguna razón para preocuparnos por alguna substancia, diríamos: «Usemos cualquier conocimiento que tengamos, y multipliquémoslo por cien como factor de seguridad.» Si existiese alguna razón para preocuparse, lo multiplicaríamos por 1.000. Y Leo dijo, inmediatamente, «Eso estaría mejor No estoy a favor de las economías idiotas. No estoy a favor del argumento que dice:Aquí hay algo estúpido que lo pagaremos 900 mil millones de dólares. Podemos comprarlo al por mayor en 600 mil millones.» Hay cosas que no deberían hacerse . . .

Mi objeción para lo que Leo quiere, usando la vieja regla del pulgar que funcionó tan bien durante siglos, es que no llega al quid de la cuestión. No le dice la verdad al poder; no nos dice qué es lo que está bien, y qué es lo que está errado. Podría llegar a disminuir mucho la locura de todo el asunto, pero no es lo que debemos hacer. ¿Qué deberíamos hacer? La primera cosa es rechazar al presente sistema de plano, extirparlo de raíz. No quiere decir con ello que sepa cómo podemos conseguirlo.

Confesaré de inmediato mi gran debilidad. Quiero decir que, intelectualmente, por cualquier resto de razón que pueda quedar en nuestras mentes, debemos rechazarlo porque es falso. No existe ninguna verdad allí, y por ende, no hay salud allí. En nombre de la Salud podemos hacer a nuestra gente más pobre y más enferma. ¿Qué clase de compasión es esa?

Lo que prefiero hacer es decir: «Detengamos el romance con las causas minúsculas y los efectos infinitesimales» Reemplacémoslo con lo que sabemos cómo hacerlo, con estudios mecanísticos y con epidemiología. Los ecologistas se están volviendo ahora en contra de los estudios mecanísticos. ¿Cómo pueden volverse en contra del estudio de las causas del cáncer? No es fácil, pero ellos se han dado cuenta de algo importante. Mientras más sabemos, menos peligrosas aparecen las cosas. Ustedes preguntan: ¿Cuál es el resultado de todos estos estudios? Estudios, estudios, hagan menos estudios, eso es antiecológico, verdad? Entonces debemos enfocar sobre la cuestión clave, la cuestión de la elección del criterio.

  El paradigma ambiental

Quiero terminar poniendo énfasis en el contexto del paradigma ecológico: Me hice la siguiente pregunta: ¿Por qué la Ciencia parece ser tan pobre? Pensé de inmediato que los científicos están haciendo un pésimo trabajo. Pero no se trata de eso. Se trata de que el paradigma ecologista ha desvalorizado a la Ciencia. No directamente; nadie dice, «estoy haciendo esto por brujería.»

La primera proposición es el reemplazo de probabilidades por posibilidades. Antes, cuando había que demostrar cualquier daño probable, había que demostrar evidencia palpable. Ahora, el asunto es la posibilidad. Si cualquier cosa pudiese ser dañina, entonces tiene usted que regularla. La única manera de probar que algo no es posible, es a través de un teorema de imposibilidad científica, no a través de la lectura de la borra del café. De manera que ésa es la primera proposición ecologista: reemplazar las probabilidades con posibilidades.

La segunda proposición del paradigma ecologista es el reemplazo de la evidencia positiva por la evidencia negativa. Muéstreme que NO va a causar daño. Eso no es fácil de hacer, como lo saben todos los que han intentado alguna vez defenderse de alguna acusación, como ser, «cuando dejó de pegarle a su madre?» o algo parecido.

La tercera es: ningún nivel de respuesta a la dosis. Como les enseño a mis estudiantes, en este negocio, la dosis lo es todo. Jamás se permita pronunciar una frase acerca de la contaminación sin decir «qué» y «cuánto», comparado «con qué». Es difícil disciplinarse a uno mismo, pero es esencial hacerlo. La tercera proposición ecologista es entonces que «toda exposición es perjudicial». Existe una enorme riqueza de evidencia en toxicología ­ el estudio de la ciencia de los venenos ­ de que en una inmensa mayoría de los casos hay un nivel por debajo del cual no se produce daño alguno, y que aún es posible que haya un beneficio. Esto es negado por los ecologistas.

Juntando estas proposiciones, los ecologistas han substituido a la evidencia por la aseveración. ¿Cuál es la posibilidad? La Ciencia podría decir cosas como «yo creo que es posible» o «existe la probabilidad de que…» Eso no funciona más. Usted tiene ahora que demostrar perfección. Ellos han invertido el peso de la prueba. Usted tiene que estar el 100% seguro.

Lo que debemos hacer es rechazar estas tesis, especialmente la última. La última tesis del ecologismo es el «principio de la precaución» ­ no estar medio seguros. Si existe la menor posibilidad de que alguna cosa pueda causar daño, usted debe detenerla. En un libro llamado La Búsqueda de la Seguridad, he sostenido que esto destruirá al progreso de la civilización occidental; hará a todos pobres y enfermos. ¿Por qué los griegos y romanos vivían sólo hasta los 35 años? Hemos conseguido duplicar esa longevidad porque nunca seguimos el «principio de la precaución». Luego comprendí lo tonto que había sido. Todos sabemos qué es esto. Lo aprendimos en el colegio, no recuerdan? Se llamaba La Prueba de Pascal ¿Deben ustedes creer en Dios, o no? Bien, si ustedes creen y Dios no existe, ¿qué tienen para perder? Pero si ustedes no creen y Dios realmente existe, habrán perdido la Vida Eterna, de modo que es mejor creer. . .

Este Principio de Precaución . . . es el núcleo del ambientalismo que se usa en todas partes ­ es una falacia en toda su extensión, es una falacia en cada una de sus partes, y puede dejarnos en una condición devastada. Bajo el capitalismo, no hay posibilidad de que tengamos una situación en donde nos quedemos sin recursos; es decir, que tendremos una sociedad sustentable. La única manera en que crearemos un mundo insostenible es si adoptamos al paradigma ecologista.

Debemos rechazar al paradigma ecologista y a los criterios regulatorios que emergen de él, y reemplazarlo por criterios como la evidencia palpable. Es cierto que, en algunos casos, la evidencia está dividida de modo parejo. Pero en la mayoría de los casos podemos ver dónde la Ciencia entra y dice, «Sí, es posible que haya más peligro, o menos peligro, de una forma u otra». Si hiciésemos eso estaríamos en el camino hacia la cordura, y mejoraríamos la salud de la población. Allí hay un real lugar para la regulación, pero no cuando la privamos de todo sentido.

(Extractado del artículo publicado en Executive Intelligence Review, EIR, Science & Technology. July 30, 1993. pp. 14-16.)


 Las Erradas Políticas del Cáncer

La actual política del cáncer es uno de esos asuntos mal manejados. La política del cáncer en los EEUU evolucionó a partir de las maquinaciones de varios burócratas federales a mediados de los ’70. Esta política define como cancerígeno a cualquier substancia que, en cualquier concentración y en cualquier período de tiempo resulte en la producción de un tumor en un animal. Los tumores pueden ser tanto benignos como malignos. La información negativa no se acepta.

Más aún, no existe ningún nivel aceptable o umbral de ninguna substancia declarada como cancerígena: lo permitido es únicamente CERO. Esta política permite que la exposición de los animales sea por inhalación, ingestión o implantación. Considere las implicaciones de esto; no existe ninguna posibilidad de declarar que una substancia no es cancerígena, porque la información negativa no es aceptada. Miles de tests sobre animales que demuestran que una substancia no es cancerígena serán ignorados; un solo ensayo que informe de un tumor será aceptado. Aberrante.

El argumento ofrecido es que si los tests negativos se hubiesen realizado durante más tiempo, o la dosis administrada hubiese sido más elevada, se hubiese podido producir un tumor. Más aún, si el tumor es benigno, puede convertirse más tarde en maligno. No existe ningún requisito para que la dosis usada en los ensayos deba ser comparable, aunque más no sea, a las más severas exposiciones de los seres humanos. De hecho, la dosis diaria administrada a los animales durante su vida es de tal magnitud, que se espera que el 50% de ellos desarrollen tumores o mueran. (La teoría de mitogénesis de Bruce Ames…)

Además, con la adopción de la trampa del «umbral cero», cualquier substancia que provoque tumores en concentraciones muy elevadas, se supone que también los causará en concentraciones mínimas. Proyectando las concentraciones que causan cáncer hasta cero, se desarrolla una línea que da por aceptado que existen menos cánceres con menores exposiciones, pero que el cáncer se desarrolla igualmente. Se dice, entonces, que cualquier reducción a la exposición resultará en un beneficio para la salud, y que las regulaciones para controlar o eliminar a la substancia son aceptables.

A primera vista, eso parece razonable, pero resulta que muchos minerales definidos por los gobiernos como contaminantes cancerígenos ­ como el hierro, zinc, cromo y aún el arsénico ­ son también elementos indispensables para la salud y la longevidad. En altas concentraciones, estos elementos pueden causar tumores. De acuerdo a las políticas regulatorias, todos deberían ser prohibidos porque son cancerígenos por definición. La detección de estas substancias en el aire, tierra o agua es alertada por algunos como la presencia de substancias tóxicas ­ otros las declaran cancerígenas. Sin embargo, vemos que algunas de estas substancias figuran en las cajas de cereal como nutrientes esenciales para la salud de niños y adultos.

La política del cáncer tiene otro aspecto diabólico: los riesgos demasiado bajos para ser medidos. Cuando los expertos en salud hablan de riesgos de exposición, hablan en términos de 1 en 100.000, o 1 en 1 millón. Pero ello no significa 1 en 100.000 individuos en cualquier año, o 1 en 1 Millón de personas. No se menciona un detalle importante: el riesgo es 1 en 100.000 o 1 en 1 millón de vidas enteras de .

Como el gobierno de EEUU ha establecido que una vida son 73 años ­ después de esa edad, según el manual del gobierno, la persona está consumiendo recursos a los que no tiene derecho ­ el riesgo es en realidad 1 en 7,3 millones de individuos en cualquier año para el riesgo de 1:100.000, y de 1:73.000.000 de personas para el riesgo de 1:1 millón. Estos riesgos son tan pequeños que es imposible de determinar si ocurren. Para salvar este problema, se usan modelos sin verificación, permitiendo la confirmación de cualquier conclusión predeterminada de antemano.

 Experimento por capricho

En un experimento, la forma de exposición queda enteramente al capricho del experimentador. Se pueden aplicar diversos enfoques sobre cómo producir el cáncer en el animal y determinar si una substancia es cancerígena. Un ejemplo: En un test en Iowa, los investigadores alimentaron a la fuerza a un grupo de ratas con una mezcla del 10% de asbesto crisotilo, una mezcla del 10% de celulosa, y un control. Doce de las 140 ratas alimentadas con asbestos murieron asfixiadas.

De acuerdo a las conclusiones declaradas en el sumario del experimento, habían más tumores en las ratas que tragaron asbestos que en los controles, y que una rata había desarrollado un tumor de pulmón a causa del asbesto, de manera que parecía que el asbesto viajaba desde el estómago hasta los pulmones! El informe solicitaba mayores fondos para continuar el experimento sobre un número mayor de animales. En la parte posterior del informe figuraba la admisión que el tumor de pulmón probablemente era el resultado de que el animal hubiese inhalado el asbestos durante la ingestión forzada de comida. La infor-mación real reportada sobre los ensayos mostró que no existía diferencia en la cantidad de tumores entre las ratas de control y las ratas alimentadas con asbestos a la fuerza.

La integridad intelectual puede ser puesta a prueba cuando existe la posibilidad de un mayor subsidio para la experimentación. Era interesante que los animales alimentados con celulosa tuviesen menos cánceres, pero no se hicieron comentarios sobre la razón para ello o el deseo de estudiar si las fibras en la celulosa son benéficas. La clave para conseguir el subsidio era el asbestos.

El cáncer es actualmente la primera causa de muerte en las mujeres de EEUU y, de acuerdo a algunos, si la tendencia actual continúa, será la principal causa de muerte para toda la población para el año 2000. ¿La razón para ello?

Existe una fantástica declinación de las tasas de muerte por enfermedades coronarias ­ más del 45% desde los años ’50. Las tasas de mortalidad del cáncer han tenido un ligero aumento (6% entre 1950 y 1987). Hubo grandes cambios en los tipos de cáncer, declinando la mortalidad de algunos tipos de cáncer un 15% desde 1973 (cerviz, útero, estómago, recto, testículos, vejiga, cavidad bucal, faringe y enfermedad de Hodgkin). En 1986, el cáncer de pulmón sobrepasó al cáncer de mama como causa de mortalidad en las mujeres; se espera que esta tasa de mortalidad se mantenga por lo menos otra década más. La tasa de mortalidad del cáncer de pulmón para hombres se ha nivelado después de 50 años de aumento. A principios de siglo el cáncer de pulmón era una rara enfermedad. Es verdad, ahora existe una mejor detección de estas enfermedades, y hay una reducción de la mortalidad debido a los mejores tratamientos. Pero la mayor reducción de las muertes por enfermedades del corazón se atribuyen a los cambios de estilo de vida y a la capacidad mejorada de diagnóstico y tratamiento. Estos descubrimientos jamás se hicieron rellenando ratas y lauchas con substancias sospechosas.

La reducción en la mortalidad por enfermedades del corazón se debe a la atención a los factores de riesgo: fumar, colesterol alto e hipertensión, lo que debería ser una lección para los que hacen las políticas del cáncer. El tabaco es también la causa de muchos cánceres de pulmón. El aumento del cáncer pulmonar en las mujeres se atribuye al aumento del número de mujeres fumadoras. En 1990, existieron 157.000 nuevos casos de cáncer pulmonar en los EEUU, lo que es el 15% del total. Cánceres del tracto gastrointestinal ­ estómago, colon y recto (un 17%) son atribuidos a ciertos factores en la dieta.

La declinación del cáncer de estómago a escala mundial corre paralela a la declinación del uso del salado y avinagrado para la preservación de alimentos, como también al aumento del consumo de frutas frescas. El consumo de grasas animales y fibras se relacionan con el cáncer de colon. Si las políticas federales fuesen implementadas de manera uniforme, la sal de mesa sería prohibida.

 Alternativas al rellenado de ratas.

Existe ahora un intenso esfuerzo para determinar el rol de micronutrientes en la prevención del cáncer. Y ello nos trae otra vez hasta la alternativa de los estudios sobre ratas para determinar relaciones causales. Los epidemiólogos calculan que el 70% de los cánceres humanos podrían prevenirse si se identificaran los factores de riesgos para lugares específicos del cáncer. Dice Wildavsky: «No conozco ninguna enfermedad que haya sido identificada como resultado del estudio de animales en laboratorios. La relación de la enfermedad se determina por medio de estudios de campo y substanciados por estudios de laboratorio. Para ese propósito, ellos son esenciales. De la misma manera resultan sumamente útiles como el medio para determinar el riesgo relativo, el potencial de algunas substancia para causar tumores, comparada entre ellas

El Dr. Bruce Ames, con seguridad la persona que más sabe en el mundo sobre substancias cancerígenas, ha desarrollado un índice de posibles riesgos cancerígenos que merecen atención. Basados en estudios sobre ratas y ratones, y llamado HERP, (por Human Exposure / Rodent Potency = Exposición Humana / Potencia Roedor), la tabla incluye contaminación ambiental, pesticidas y otros residuos, pesticidas naturales y toxinas de la dieta, aditivos para alimentos, y exposición ocupacional.

Por asombroso que parezca, el 99,9 de los pesticidas que consumimos son de origen natural. Las plantas están dotadas de la capacidad de producir toxinas para aumentar su resistencia a las plagas. De hecho, algunos alimentos han sido retirados del mercado por su aguda toxicidad para los seres humanos. La mayoría, si no todos, los productos vegetales que se compran en el supermercado contienen cancerígenos o teratógenos naturales (agentes que causan defectos de nacimiento), comúnmente hasta un 5 a 10% del peso seco de la planta, y en muchísima mayor concentración que los residuos de pesticidas sintéticos que se encuentran en los alimentos.

Si las políticas ambientales se cumpliesen sobre el mercado de alimentos como se hace en los lugares de trabajo, los tests sobre productos frescos darían como resultado la prohibición de las zanahorias, repollos, repollitos de Bruselas, jugo de naranja, pimienta, coliflor, grosellas y ananás. No moriríamos de cáncer: moriríamos de hambre primero.

Pero los organismos del gobierno realizan ensayos y prohibiciones selectivas. Es fantástico el poder que tienen estos organismos para destruir a su antojo. El procedimiento requiere cuidadosa atención. Se hace primero un pronunciamiento interno o interagencia, de que existe una crisis causada por el uso de algún producto o substancia. Una estimación tomada de un modelo sin verificación define el número de personas que morirán debido a su presencia en lugares de trabajo o en el hogar, o en la granja.

También puede ser la más pura y salvaje especulación, tal como la declaración de la EPA que la lluvia ácida en New York y New England se había duplicado en la última década, aunque la agencia no tenía absolutamente ninguna clase de información. Los medios son alertados y algún «científico» en busca de publicidad o de un subsidio, proporciona opinión confirmatoria. Se ofrecen entonces subsidios para investigación, para definir al riesgo anunciado con mayor precisión. El público está ahora preocupado y los políticos usan esa preocupación para promover legislación que controle «al desastre inminente».

Las legislaciones propuestas son desarrolladas. El miedo de muchos provoca acciones a nivel local. Esto ocurre antes de que exista la información adecuada para determinar si realmente existe algún problema. Se repite entonces la canción «es mejor estar seguro, que lamentarlo después, de modo que los controles deben ser instituidos «sólo para estar seguros.. Pero los controles cuestan dinero ­dinero que no está entonces disponible para la solución de problemas reales y existentes. A la larga, los verdaderos perdedores resultan ser los pobres; sus necesidades son siempre pasadas por alto.

La Hipótesis del Cero.

El programa del estudio del cáncer en EEUU tiene otro problema. En ese país, y en el extranjero, el investigador evalúa muchas causas posibles para enfermedades o efectos. La más probable es conocida como la Hipótesis Nula, o de Cero En los EEUU, se alienta al investigador a determinar si la Hipótesis Nula es correcta. En Inglaterra los investigadores comienzan intentando probar que la hipótesis está equivocada. Es mucho más fácil «interpretar» la información para probar que una hipótesis está correcta que probar que está equivocada. El caso de la asfixia de las ratas con asbestos es un ejemplo.

Algunos investigadores llegarán al extremo de hacer cualquier cosa con tal de conseguir la respuesta deseada y la plata del subsidio. Herbert Sauer, un bioestadístico de Columbia, Missouri, realizó un trabajo excelente al definir tasas de mortalidad ajustadas por edad, para áreas económicas individuales del país. Incluye muerte por varios tipos de cáncer, enfermedades del corazón y respiratorias en intervalos de 10 años, edades entre 35 y 74. Existen asombrosas diferencias en las tasas entre una área y otra. Por ejemplo, la tasa de muerte por coronarias en el área costera del sudeste de EEUU es un 30 al 50% más alta que el promedio nacional (esta área va desde Norfolk, Virginia, hacia el sur a través de las Carolinas y Georgia, se salta Florida y continúa en Alabama y el sur de Mississippi). Al oeste de la «línea de caída» ­ el lugar donde las aguas fluyen hacia el Oeste más que al Este, hacia el océano ­ la tasa es un tercio menor.

Los canadienses hicieron autopsias en aparentes muertes del corazón en 300 ciudades. En la mayoría, las arterias y el corazón estaban bien, pero los análisis químicos de la sangre demostraban una deficiencia de magnesio del 15 al 25%. Ese elemento es esencial para la creación de enzimas para mantener el bombeo del corazón. Este estudio fue iniciado por el Dr. J.R. Mariar, un investigador de Ottawa que había tenido un masivo ataque cardíaco. Mariar tenía un fuerte interés en el debate sobre si la dureza de las aguas tiene influencia sobre las enfermedades del corazón.

 Un acercamiento epidemiológico

Cuando el ingeniero ambiental John E. Kinney, asesor durante 16 años del U.S. Geological Survey y miembro diplomado de la Academia Nacional de Ingenieros Ambientales, revisó la información sobre la calidad del agua en el sudeste de los Estados Unidos, descubrió que el área de mayor mortalidad es la que tiene «agua blanda«, pero que también tiene poco o ningún magnesio. La formación geológica es allí la más vieja del país, y el magnesio ha sido lixiviado. Nueva Inglaterra también tiene agua blanda, pero el contenido de magnesio es más elevado que el de calcio, y la tasa de muertes del corazón es mucho más baja.

Aplique usted el mismo enfrentamiento para evaluar otros problemas de salud, incluyendo al cáncer. Si se fija en los mapas que Herbert Sauer desarrolló sobre la mortalidad de áreas específicas del país, verá algunos lugares con muy altas tasas y otras con tasas tan drásticamente menores para diferentes tipos de cáncer y enfermedades del corazón.

Los estudios epidemiológicos en áreas de alta y bajas tasas de incidencia permitirían la evaluación de diferencias en la dieta, calidad del agua y del aire, características del suelo, cuidados de la salud y estilos de vida. entonces se podrían hacer evaluaciones para la determinación de posibles factores causantes. Por ejemplo, la información sobre los Mormones ofrece una excelente prueba de que su estilo de vida resulta en una tasa de cánceres un 22% menor que sus vecinos. No fumar, actividad física regular y sueño adecuado, son tres de las saludables prácticas que se afirma que contribuyen a la diferencia. ¿Cuál estudio sobre ratas sugeriría esa solución? ¿O la información acerca del efecto de la deficiencia de magnesio sobre el corazón? Garantizado, este acercamiento sugerido provocará un escándalo en multimillonaria industria que ahora produce ratas, ratones y cobayos para los estudios en laboratorios. Un estudio adecuadamente replicado puede costar un millón de dólares o más. Este acercamiento al problema también interferirá con los programas de universidades y laboratorios privados, que existen sólo porque hay subsidios para lo que ellos llaman «estudios sobre la salud

John Kinney hizo una vez una proposición semejante ante un comité del Congreso. Las quejas de los representantes de laboratorios coincidían todas en que esa sugestión sería desastrosa para ellos. Sin embargo, ninguno de los que se quejaban pudo detallar ni una sola enfermedad que ellos pudiera relacionar con la exposición a contaminantes en la vida real.

Desperdicio y más Desperdicio

El desperdicio de fondos hecho con estos estudios es sobrepasado en mucho por el inmenso desperdicio de fondos públicos usados para cumplir con las regulaciones promulgadas como consecuencia de estos estudios – tales como la obligación de retirar al sabestos de las escuelas. El costo está actualmente cercano a los 150.000 millones de dólares – que bien podrían usarse para mejorar el nivel de educación de los alumnos, o mejorar el sueldo de los maestros. Elija usted.

La misma situación se encuentra en la implementación de regulaciones emanadas de los estudios de modelos teóricos, como la atemorizante alarma del radón. Si se fijan bien, la EPA jamás admite una equivocación con las nuevas regulaciones, de manera que deshacer un perjuicio continuado. Simplemente cambia el tema y nos regala un nuevo susto. Y así perduran errores científicos y políticos como las regulaciones relativas al DDT, la dioxina, los PCBs, los CFCs, el 2,4,5-T, etc. Es decir, productos sumamente beneficiosos para el común de la gente, pero que se interponen entre poderosos grupos industriales y políticos corruptos; ambiciones de poder, geopolítica y negocios multimillonarios.

 Muerte por Regulación

Recientemente se ha informado que existen en los Estados Unidos más de 122 mil empleados federales desarrollando regulaciones ambientales. Siendo la supervivencia la primera ley natural, podemos esperar que estas personas continuarán justificando su existencia (y sus ingresos) produciendo más y más regulaciones, ya sea nuevas o modificando (para peor) las ya existentes. Son como los Senadores y Diputados que se la pasan inventando nuevas leyes (formas de limitar los derechos de los ciudadanos) como una manera de justificar las jugosas dietas que se han votado a sí mismos. Tanto una, como la otra, son actividades que terminan siempre perjudicando a la población, que sigue, y sigue pagando las facturas de una fiesta de la que no participa. No espere ninguna evaluación racional de las regulaciones que controlarán nuestras vidas, porque lo que se prohibe en los Estados Unidos, se prohibe en el resto del mundo que sufre la influencia política de los Estados Unidos e Inglaterra.

Sume todas las hipotéticas muertes que ocurrirían, provocadas por las diversas causas que las alarmas ecológicas profetizan: es difícil imaginar cómo puede entonces una persona morir de causas naturales. Hace algún tiempo, el siguiente escrito apareció en un boletín de la Iglesia metodista Unida de Dixboro, Michigan:

«El Padrenuestro tiene 56 palabras; el discurso de Lincoln en Gettysburg, 266; Los Diez Mandamientos, 297; La Declaración de la Independencia, 300. Pero una reciente directiva del gobierno estableciendo el precio del repollo tiene 26.911 palabras».

Hacen ya más de veinte años que Irving Kristol, de la Universidad de Nueva York predijo que «Si se permite que se mantenga el concepto que la EPA tiene de su misión, se convertirá en la rama más poderosa del gobierno y tendrá muchísimo más control sobre nuestras vidas individuales que el Congreso, el Poder Ejecutivo o los gobiernos estatales o locales ¿Y cuál es el concepto que la EPA tiene de su misión?

 El Concepto del Hermano Mayor

Básicamente, se trata de que la EPA (como también lo piensan todos los gobiernos del mundo) están convencidos de que tanto Estados Unidos como el resto del mundo están poblados por retrasados mentales que carecen de cualquier capacidad para reconocer los terribles peligros que acechan por doquier. También creen que ellos son los únicos capacitados para acudir en nuestra ayuda –como Robin Hood o el Ché Guevara- y «salvarnos» a nosotros y al planeta entero de una inminente amenaza de extinción. Por supuesto, también están convencidos (la EPA y los gobiernos), de que nadie en el mundo está capacitado para darse cuenta cuál es su juego y las pingües ganancias que les reporta el cúmulo de leyes, regulaciones y prohibiciones con las que pretenden mantener la actual impunidad con la que actúan.

En un muy cándido artículo aparecido en la edición de Marzo de 1984 en el Washington Monthly, y firmado por Jim Sibbinson, ex agente de prensa de la EPA, éste expresa: «lo fácil que resultaba usar a los crédulos periodistas para desparramar mensajes atemorizantes». Sibbinson había ingresado a la EPA en 1970 y trabajó allí hasta 1981.

«En esos días» – escribe Sibbinson – «la idea era hacer que la prensa nos ayudase a transformar a la EPA en un represor que infundiese temor a los contaminadores» . . . «Nosotros escribíamos de manera rutinaria historias atemorizantes acerca de los riesgos de los productos químicos empleando palabras como ´cáncer´ y ´defectos de nacimiento´ para salpicar un poco de agua fría en el rostro de los . . . Nuestros partes de prensa eran más o menos verdaderos; el aire y el agua realmente estaban sucios y nosotros estábamos decididos a hacerlos más limpios . . . sin embargo, pocos partes de prensa pueden ser completamente honestos, y .los nuestros no fueron la excepción.

El engaño residía en lo que no decíamos. Lo principal era que tendíamos a omitir el hecho de que no éramos capaces de hacer algo acerca de los problemas contra los que protestábamos . . . Nos habíamos propuesto azotar al público para conducirlos a un frenesí de miedo acerca del ambiente.»

Esta es una práctica que no ha mostrado señales de disminuir. ¿Cuándo las re-gulaciones ambientales se convierten en algo demasiado caro? ¿O en algo demasiado frívolo? ¿En dónde hay en las regulaciones algo se sentido común? Por supuesto que a nadie le gusta la contaminación y todos queremos ir mejorando las cosas. Pero se deben establecer normas y pautas que sean razonables y alcanzables. Las políticas y procedimientos deben ser prácticos, sin consumir una porción tan enorme de los pocos recursos disponibles. Cualquier otro rumbo nos conducirá a la pobreza – y la pobreza es, mis amigos, la peor y más nociva de las contaminaciones.

La pobreza, provocada y agravada cada día más por absurdas regulaciones basa-das en flagrantes fraudes científicos o inmorales presiones políticas de las campañas ecologistas es algo tan inmoral, que los criminales de Nuremberg resultan hoy patéticos aprendices de carniceros o genocidas. Sólo la prohibición del DDT, inhumanamente impulsada por los «salvadores del planeta», ha provocado ya la muerte por malaria de 4.000.000 de personas anualmente, desde 1972. Haga la cuenta: 28 años por 4 millones = 112 millones de muertos. Sin contar las muertes producidas por la fiebre amarilla, el dengue y tantas otras que son transmitidas por los mosquitos y otros insectos.

Reproduzco aquí una noticia aparecida en el diario El Deber, de Santa Cruz de la Sierra, Bolivia, allá por 1995, época en la que vivía en la selva amazónica:

Paludismo mata mucho más que el SIDA

Hyderabad, India, 17 (AFP) – El paludismo mata mucho más que el SIDA, pero no constituye una prioridad para los países desarrollados porque no se sienten amenazados por la enfermedad, afirmaron expertos en el marco de la conferencia que se celebra en Hyderabad (sur).

El paludismo o malaria es más asesino que el SIDA porque puede matar en 40 horas. El número de muertos por el paludismo por año es casi igual a la cifra de decesos provocada por el SIDA en los últimos 15 años, declaró el doctor V. P. Sharma, que preside esta conferencia celebrada bajo la égida de la Malaria Foundation.

El paludismo cada año mata unas tres millones de personas en el mundo, en especial en Africa, pero también en India, Asia del sudeste y América Latina. Entre 300 y 500 millones de personas son infectadas cada año, y la OMS (Organización Mundial de la Salud) prevé un incremento de 16% de los casos de paludismo de aquí al año 2000.

Actualmente no hay una vacuna antimalárica eficaz y los mosquitos resisten a los medios de luchar contra ellos. Según la Malaria Foundation, que organiza la Conferencia, 84 millones de dólares son gastados cada año en la investigación en torno al paludismo, contra 1.600 millones para el SIDA.

Por su parte, Wellcome Trust, organización caritativa con sede en Londres, estimó que unas 290.800 personas morían cada año de SIDA en el mundo a inicios de los años 90, y que 952 millones de dólares eran consagrados a la lucha contra el SIDA, contra 60 para la malaria.

Por su parte, Louis Miller, director del Instituto Nacional de Salud de los EEUU explicó que uno de los objetivos de la conferencia era tratar de que los gobiernos y poblaciones de los países occidentales tomen conciencia de la magnitud del problema.

Cien años después de que el médico británico Ronald Ross descubriese el papel del mosquito en la transmisión del paludismo, cerca de Hyderabad, el 20 de Agosto de 1887, 40% de la población mundial está en peligro, en 90 países.


 

 Un Caso concreto

Durante los últimos 25 años la irracionalidad ha prevalecido sobre los hechos científicos, y el consumidor ha sido el perdedor. Los que desparraman el miedo no son sólo los grupos ecologistas, sino algunas organizaciones científicas que han sido «tomadas» por el lobbyecologista. El problema está bien tipificado en un informe emitido por el National Research Council de la Academia Nacional de Ciencias de los EEUU que reclama restricciones en el uso de los agroquímicos, porque dichos productos químicos serían supuestamente causantes de tumores. El informe revelado en Mayo de 1987 es del tipo «análisis del peor caso»«, que fuera abolido por el Consejo sobre Calidad Ambiental de la Casa Blanca en 1986.

El Consejo de Calidad Ambiental había determinado que solamente los efectos «razonablemente predecibles» que sean apoyados por «evidencia científica creíble» deberían ser considerados en los informes federales, y no los escenarios de «peor caso» que provocan interminables debates y especulaciones. Por desgracia, el National Research Council ignoró este llamado a la razón y produjo un informe basado en la más pura fantasía. La Ciencia fue dejada de lado. Veamos:

El informe da una lista de pesticidas específicos que pueden ser detectados en diversos productos agrícolas mediante dispositivos de detección extremadamente sensibles. Si en National Council hubiese estudiado los efectos adversos asociados con la aplicación de estos agentes pesticidas, su informe habría sido tranquilizador y no hubiese tenido ningún titular alarmante. En vez de ello, el Consejo de Investigaciones desarrolló un programa de computación que calculaba la superficie total de cada una de los sembrados en los Estados Unidos y luego hizo la «suposición» que cada una de esas hectáreas serían tratadas con la cantidad máxima legalmente permitida de todos los pesticidas aprobados por la EPA.

Dado que todos los cultivos son amenazados por varias especies de malezas, insectos, moho, hongos, nemátodos, gorgojos, muchos pesticidas distintos están registrados para cada tipo de cultivo. La computadora del National Council estaba cargada con la máxima cantidad permitida de cada uno de estos pesticidasusados todos al mismo tiempo!.Jamás se ha tratado a ningún cultivo con tal masiva cantidad de pesticidas, por la simple razón que no todas las pestes atacan a los cultivos al mismo tiempo. Normalmente, sólo se aplica un pesticida por año, y sólo si es esencial.

La Asociación de Cultivadores de Tomates de California lleva un exacto registro de las aplicaciones de pesticidas hechas por sus asociados. La Asociación informó que «no se usaron pesticidas en el 70% del área cultivada con tomates, y que no se usaron más de dos insecticidas en el 40% de área total cultivada». (1) Los cálculos de la cantidad de pesticida usada por hectárea, hechos por el National Research Council fue por consiguiente la más loca de las fantasías!

Por otro lado, al programa de computación se le ingresó cifras irreales sobre la cantidad de pesticidas que contienen los alimentos que el público consume. El programa «suponía» que serían usados los niveles máximos permitidos para cada uno de los pesticidas, para todas y cada una de las cosechas, y que grandes proporciones de cada pesticida estaría presente en cada uno de los bocados de todas las comidas, para toda la vida de las personas.

El programa «suponía», además, que todos y cada uno de los habitantes del país ingieren las 15 diferentes clases de alimentos estudiados, todos los días, y durante toda la vida! Suponemos que el consejo había previsto que cada día de su vida cada persona ingiere tomates, papas, manzanas, duraznos, uvas, naranjas, lechuga, porotos, zanahorias, granos de soja, maíz, trigo, pollo, carne de vaca y de cerdo.

La computadora multiplicaba después el máximo nivel de tolerancia legal de cada producto químico contenido en cada una de estos alimentos por los miligramos de comida consumidos (calculados por el Departamento de Agricultura), por kilogramo de peso humano. El resultado daba el Máximo Teórico de Contribución de Residuo, (o sus siglas en inglés, TMRC). Para cada producto químico específico, la cifra del TMRC era entonces multiplicada por un hipotético «factor tumoral potencial«, y el resultado final era considerado el «riesgo de excesos en desarrollo de tumores» para esa substancia en particular, y durante toda la vida de una persona.

Basada en la falsa suposición de que todos nosotros comemos los 15 alimentos todos los días, y que todos los pesticidas permitidos son usados al mismo tiempo, a su máxima dosis, en cada uno de los cultivos, el Research Council elaboró una estimación hipotética de la «Peor Estimación Posible de Residuos Oncogénicos en los Alimentos«. De acuerdo a estas estimaciones, el Consejo concluyó afirmando que los residuos de pesticidas en nuestros alimentos podrían provocar un exceso anual de hasta 20.000 muertes por cáncer. Cálculos más realistas, basados en los reales niveles de pesticidas en las verdaderas cantidades y tipos de comida ingerida por la gente todos los días, no fueron considerados por el Consejo. Cuando tales cálculos se hicieron, indicaron que existe un exceso CERO de muertes por cáncer.

 La infame Cláusula Delaney

El informe del Consejo se refiere a los «residuos oncogénicos de los pesticidas en los alimentos», basado en la Cláusula Delaney, del Acta de Alimentos, Drogas y Cosméticos de 1954, como la razón para restringir a los pesticidas en los cultivos. Sin embargo, en la cláusula Delaney no existe mención alguna a los «riesgos oncogénicos». La cláusula determina que: «ningún aditivo será considerado seguro si se descubre que induce cáncer cuando es ingerido por hombres o animales; o si se descubre, después de ensayos adecuados para la evaluación de la seguridad de los aditivos para alimentos, que inducen cáncer en el hombre o en los animales».

Debe notarse que, la torpemente redactada cláusula Delaney se refiere solamente a los «aditivos para alimentos!«. Los pesticidas fueron específicamente excluidos de las provisiones de la famosa cláusula! El consejo general del Departamento de Salud, Educación y Bienestar, rápidamente acotó en ese momento que «la Enmienda Delaney no se aplica a los residuos de productos químicos agrícolas en las instalaciones agrícolas o en alimentos procesados a partir de cosechas legales». Es importante notar que las tolerancias legales para los residuos de pesticidas son normalmente 100 veces más bajas que la cantidad que los investigadores encontraron que no provocaban efectos en los animales. Las palabras más importantes son olímpicamente ignoradas por los activistas antipesticidas y son omitidas en las referencias que los medios hacen de la cláusula. Esas palabras son: «ensayos que son adecuados». Los ensayos sobre animales que usan dosis cientos de veces más grandes que las que se podrían encontrar jamás en la vida real no son, ciertamente, adecuados. Peor todavía, los productos químicos han sido administrados con frecuencia de maneras totalmente antinaturales e inadecuadas, como ser, saturación, inyecciones intravenosas, entubamiento fetal, alimentación forzada, y otras barbaridades semejantes.

 El fraude del tumor

No crea que el asunto de la Cláusula Delaney no es importante. Todas las regulaciones que se promulgan en los EEUU están basadas en esta aberración científica, y las consecuencias inmediatas es que las prohibiciones americanas son pasadas de inmediato al resto del mundo, que sufre las consecuencias de la influencia que los Estados Unidos tienen en todos los aspectos prácticos de nuestras naciones. De manera que es fundamental que le preste bastante atención al tema –su bienestar y el de los suyos dependen que así lo haga. Veamos cómo los ecologistas han deformado el asunto de manera perversa, para obtener sus fines egoístas.

Esta cláusula se refiere de manera específica a los aditivos que inducen «cáncer», que se definió en esos momentos como «un crecimiento maligno con tendencia a diseminarse por otras partes del cuerpo». Los «tumores», por otra parte, eran crecimiento no-malignos que no se diseminan y que otros desaparecen a menudo después de que la masiva ofensiva química ha cesado. La Administración de Alimentos y Drogas (FDA) ha definido a las substancias cancerígenas como «aquellas que causan tumores cancerosos«.

En 1976, para hacer más fácil invocar a la Cláusula Delaney como excusa para imponer prohibiciones sobre los pesticidas, el administrador de la EPA, Russel Train (abogado que fue presidente del WWF más tarde . . . sospechoso, no?), redefinió al «cáncer» y a los «tumores». Train declaró que, «a los fines del ensayo cancerígeno, las substancias productoras de tumores y las cancerígenas son sinónimos«Los más distinguidos científicos objetaron calurosamente este planteo anticientífico. Por ejemplo, el Dr. Carroll Weil, del Carnegie Mellon Institute escribió: «El principal punto de discusión es la inaceptable redefinición de ‘tumor’ para significar «cáncer». A pesar de la oposición de los científicos, la EPA borró las palabras «oncogénico« y «tumorgénico« de sus reglas y comenzó a utilizar la palabra «oncogénico« para designar a las substancias que causaban tumores, fueran estos benignos o malignos en los ensayos sobre animales.

Por consiguiente, la palabra «oncogénico» fue suficiente para justificar la prohibición de pesticidas por la simple invocación de la Cláusula Delaney! En una deliberada y grotesca mala interpretación de la cláusula, el informe de National Research Council usó la palabra «oncogénico» de la misma manera, en un intento de forzar la prohibición de numerosos productos químicos. De esta forma, los que se oponen al avance de la agricultura han conseguido impedir la imposición de tolerancias legales para los pesticidas. al requerir que los pesticidas cumplan con la pésima interpretación que se hace actualmente de la Cláusula Delaney. El National Research Council urge ahora para que los pesticidas legales, previamente autorizados (y que no son aditivos de los alimentos) se les quite la autorización si no cumplen con la distorsionada y fraudulenta interpretación que hace de la Cláusula Delaney.


Referencias:
  • J. Gordon, Edwards, 1988, «Let´s Tell the Truth About Pesticides», 21st Century Science & Technology, May/June, 1988, pp. 8-11.

Bibliografía recomendada:
    • «Regulatory Proliferation»Alert, comunicado del National Council for Environmental Balance, Inc. Vol. 14, No. 1 (Inv-Ver. 1992)
  • Gray, Wayne B., «The Costs of Regulations: OSHA, EPA and the Productivity Slowdown». American Economic Review, Diciembre 1987.
  • Sibbinson, Jim, «The Real Asbestos Horror Story», AIM Report, Accuracy in Media, XIX-17 Sept-A, 1990.
  • Adler, Jonathan, «Little Green Lies: The Environmental Miseducation of America´s Children«, Policy Review, Summer 1992.
  • Brookes, Warren T., «How the Media Launched the Hysteria About Alar», Detroit News, Febrero 25, 1989.
  • «The Asbestos Rackett«, editorial del Detroit News, 28-Octubre-1991.
  • Angry Environmental Newsletter, reimpreso en ECO-Logic, Febrero 1992.