viernes, 26 de julio de 2013

Evolucionismo o Creacionismo, ¿dónde está la verdad?

Últimamente los conceptos de creacionismo y evolucionismo son objeto de fuertes discusiones filosóficas, políticas y religiosas.

Y yo aún añadiría un tercer concepto, que es el de la manipulación genética, que ha implicado saltos evolutivos sorprendentes, como en el caso de la aparición del Homo Sapiens. Y casi siempre estos temas se enfocan de una manera radical y condicionada fuertemente por prejuicios morales y religiosos. Sin embargo creemos que estos tres conceptos pueden coexistir y ser perfectamente válidos. 

Y esto es lo que intentamos explicar en este artículo. Para ello utilizaré, entre otras, informaciones que nos proporciona la moderna biología molecular. Probablemente algunos de los conceptos que se explicarán resulten algo complicados para muchos lectores, pero son necesarios ya que uno de los objetivos es mostrar que la gran complejidad es incompatible con el azar, lo cual nos lleva a considerar seriamente el concepto del diseño inteligente. 

En este punto deseo hacer una aclaración importante, que también he expresado en otros artículos: Lo que parecen indicar las tablillas sumerias, el Génesis (derivado de estas tablillas) y otras evidencias, es que se produjo la creación del Homo Sapiens por parte de unos seres venidos de otro planeta, mediante la manipulación genética, algo que hoy en día ya empezamos a estar en condiciones de hacer y comprender (ver los distintos artículos sobre Sumer). Sin embargo, esto no contradice ni la teoría de la evolución ni la idea de que hay un creador inicial de todo lo existente, a lo que se le suele llamar Dios. Pero parece que los dioses (en realidad no se habla de un único “dios”) bíblico no son este creador inicial, sino “solo” los creadores del Homo Sapiens. 

A este respecto deseo hacer referencia a la siguiente frase de D. T. Suzuki, que fue un maestro y divulgador japonés del Budismo, del Zen y del Shin: El significado del Avatamsaka y de su filosofía será incomprensible a menos que experimentemos un estado de completa disolución, donde no exista dife­renciación entre la mente y el cuerpo, entre el sujeto y el objeto. Entonces miramos alrededor y vemos eso, que cada objeto está relacionado con todos los demás objetos, no sólo espacialmente, sino temporalmen­te. Experimentamos que no hay espacio sin tiempo, que no hay tiempo sin espacio; que se interpenetran.” . A lo mejor esto es lo que representa (de una manera parcial, como no podría ser de otra manera) al Todo que llamamos Dios creador.

Por evolución biológica entendemos el conjunto de transformaciones, a través del tiempo, que han originado la diversidad de formas de vida que existen sobre la Tierra, a partir de un supuesto antepasado común. La palabra evolución fue utilizada por vez primera en el siglo XVIII por el suizo Charles Bonnet. Pero el concepto de que la vida en la Tierra evolucionó a partir de un ancestro común ya había sido formulada por diversos filósofos griegos, y la hipótesis de que las especies se transforman continuamente fue postulada por numerosos científicos de los siglos XVIII y XIX, a los que Charles Darwin citó en su libro “El origen de las especies”. Dos naturalistas, Charles Darwin y Alfred Russel Wallace propusieron en 1858, en forma independiente, que la selección natural es el mecanismo básico responsable del origen de nuevas variantes fenotípicas, en que se incluyen rasgos tanto físicos como conductuales, así como de nuevas especies. Actualmente, la teoría de la evolución combina las propuestas de Darwin y Wallace con las leyes de la herencia de Mendel y con otros avances de la genética.

Actualmente los investigadores del origen de la vida consideran que el problema del origen de la información biológica(básicamente el ADN, el ARN y las proteínas) es el problema central al que se enfrentan. Sin embargo, el término “información” puede referirse a varios conceptos distintos. El objetivo es evaluar distintas explicaciones sobre el origen de la información biológica, especialmente la adecuación de las explicaciones de la química naturalista evolutiva en relación al origen de la información biológica específica, tanto si se basan en el “azar” o en la “necesidad”, o en ambos. Y el actual estado de conocimiento apunta al diseño inteligente como mejor explicación y más adecuada con respecto al origen de la información biológica específica. Las categorías de “azar” y “necesidad” son útiles para comprender la historia reciente de la investigación del origen de la vida. Hasta mediados del siglo XX, los investigadores se apoyaron principalmente en teorías que se centraban en el papel creativo de los eventos aleatorios, el “azar”, vinculados con ciertas formas de selección natural. Y posteriormente los teóricos se han centrado en las leyes o propiedades deterministas de la autoorganización o de la “necesidad” físico-química.

Las teorías sobre el origen de la vida implican el conocimiento de los atributos de las células vivas. Según el historiador de la biología Harmke Kamminga, “en el corazón del problema del origen de la vida hay una cuestión fundamental: ¿De qué, exactamente, estamos intentado explicar el origen?”. O, como afirma el pionero de la química evolutiva Alexander Oparin, “el problema de la naturaleza de la vida y el problema de su origen se han vuelto inseparables”. Y los biólogos moleculares se refieren al ADN, al ARN y a las proteínas como los auténticos portadores de esta “información”. Como ha dicho Bernd Olaf Kuppers, profesor de filosofía de la naturaleza: “claramente, el problema del origen de la vida equivale básicamente al problema del origen de la información biológica”.

La única opinión conocida de Darwin sobre el origen de la vida se encuentra en una carta dirigida a Joseph Hooker, botánico británico. En ella, dibuja las líneas maestras de la química evolutiva, a saber, que la vida podría haber surgido primero a partir de una serie de reacciones químicas. Tal y como él escribió, “si pudiéramos creer en algún tipo de pequeño charco caliente, con toda clase de amonios, sales fosfóricas, luz, calor y electricidad, etc, presentes, de modo que un compuesto proteico se formara químicamente listo para someterse a cambios aún más complejos…”. El resto de la frase es ilegible, si bien deja bastante claro que Darwin concibió los principios de la química evolutiva naturalista.

Después de que Darwin publicara su obra maestra “El Origen de las Especies”, muchos científicos comenzaron a pensar en los problemas que Darwin todavía no había resuelto. Aunque la teoría de Darwin pretendía explicar cómo se había hecho más compleja la vida a partir de “una o unas pocas formas simples”, no explicaba ni tampoco intentaba explicar como se había originado la vida. Sin embargo, a finales del siglo XIX, algunos biólogos evolutivos como Ernst Haeckel y Thomas Huxley suponían que encontrar una explicación para el origen de la vida sería bastante fácil, en gran parte porque Haeckel y Huxley creían que la vida era, en esencia, una sustancia química simple llamada “protoplasma” que podía ser fácilmente elaborada mediante la combinación y recombinación de reactivos simples como el dióxido de carbono, el oxígeno y el nitrógeno.

Durante los siguientes años, los biólogos y los bioquímicos revisaron su concepción de la naturaleza de la vida. Durante el siglo XIX los biólogos, como Haeckel, vieron la célula como un glóbulo de plasma homogéneo e indiferenciado. Sin embargo, ya en el el siglo XX, la mayoría de los biólogos veían las células como un sistema metabólico complejo. Las teorías del origen de la vida reflejaron esta creciente visión de la complejidad celular. Mientras que las teorías decimonónicas concebían la vida como algo surgido casi instantáneamente a través de uno o dos pasos de un proceso de “autogenia” química, las teorías de comienzos del siglo XX concebían un proceso de varios billones de años de transformación desde los reactivos simples hasta los sistemas metabólicos complejos.
.

Durante la primera mitad del siglo XX, los bioquímicos habían reconocido el papel central de las proteínas en el mantenimiento de la vida. Aunque muchos creyeron erróneamente que las proteínas contenían también la información hereditaria, los biólogos subestimaron la complejidad de las proteínas. Sin embargo, a partir de mediados del siglo XX, una serie de descubrimientos provocó un cambio en esta visión simplista de las proteínas. El bioquímico Fred Sanger determinó la estructura molecular de la insulina y demostró que consistía en una secuencia larga e irregular de los diferentes tipos de aminoácidos. Su trabajo mostró para una sola proteína lo que sucesivos trabajos demostrarían que era la norma: la secuencia de aminoácidos de las proteínas funcionales se caracteriza por su complejidad. Los trabajos del químico inglés John Kendrew sobre la estructura de la mioglobina demostraron que las proteínas también mostraban una sorprendentecomplejidad tridimensional. Lejos de ser las estructuras simples que los biólogos habían imaginado anteriormente, apareció una forma tridimensional e irregular extraordinariamente compleja. E incluso actualmente se especula con que en realidad se trata de una estructura multidimensional, con varias dimensiones no “observables”.

Durante gran parte del siglo XX, los investigadores subestimaron ampliamente la complejidad y el significado de ácidos nucleicos como el ADN o el ARN. Por entonces, los científicos conocían la composición química del ADN. Los biólogos y los químicos sabían que además de azúcar y fosfatos, el ADN se componía de cuatro bases diferentes, llamadas adenina, timina, guanina y citosina. El descubrimiento de la estructura tridimensional del ADN por Watson y Crick en 1953 dejó claro que el ADN podía funcionar como portador de la información hereditaria. El modelo propuesto por Watson y Crick concebía una estructura de doble hélice para explicar la forma de cruz de Malta de los patrones obtenidos por los estudios del ADN realizados por Franklin, Wilkins y Bragg a comienzos de los años 50 mediante cristalografía de rayos X. Tal y como explicaron Watson y Crick, “el esqueleto de azúcar-fosfato de nuestro modelo es completamente regular pero cualquier secuencia de pares de bases puede encajar en nuestra estructuras. De aquí se sigue que en una larga molécula son posibles muchas permutaciones diferentes y, por lo tanto, parece posible que la secuencia precisa de bases sea el código portador de la información genética”.

Tal y como sucedió con las proteínas, los sucesivos descubrimientos pronto demostraron que las secuencias de ADN no solo eran muy complejas sino también altamente específicas en lo relativo a sus requerimientos biológico-funcionales. El descubrimiento de la complejidad y la especificidad de las proteínas habían llevado a los investigadores a sospechar un papel funcional específico para el ADN. Los biólogos moleculares se iban percatando de que las proteínas eran demasiado complejas y específicas para surgir por azar. Además, dada su irregularidad, parecía imposible que una ley química general o una regularidad pudiese explicar su ensamblaje. En su lugar, como ha recordado Jacques Monod, los biólogos moleculares comenzaron a buscar una fuente de información o de “especificidad” en el interior de la célula que pudiera dirigir la construcción de estructuras tan complejas y tan altamente específicas. Para explicar la presencia de la especificidad y complejidad en la proteína, tal y como más tarde insistiría Monod, “necesitabais en todo caso un código”.

La estructura del ADN descubierta por Watson y Crick sugería un medio por el que la información o la especificidad podían codificarse a lo largo de la espiral del esqueleto de azúcar-fosfato. Según la hipótesis de secuencia de Crick, la especificidad en el ordenamiento de los aminoácidos en la proteína deriva de la especificidad en el ordenamiento de las bases nucleotídicas en la molécula de ADN. La hipótesis de secuencia sugería que las bases nucleotídicas en el ADN funcionaban como letras de un alfabeto o caracteres en una máquina de codificar. Del mismo modo como las letras de un alfabeto en un lenguaje escrito pueden realizar la función de comunicación dependiendo de su secuencia, igualmente podrían las bases nucleotídicas del ADN originar la producción de una molécula funcional de proteína dependiendo de su preciso ordenamiento secuencial. En ambos casos, la función depende de manera crucial de la secuencia. La hipótesis de secuencia implicaba no solo la complejidad sino también la funcionalidad específica de las bases de la secuencia de ADN.


La ausencia de predecibilidad hace que el concepto de información sea teóricamente superfluo para la biología molecular. En cambio, lo impredecible muestra que la especificidad de secuencia de las bases del ADN constituye condición necesaria, pero no suficiente, para lograr el plegamiento proteico, es decir, el ADN contiene información específica, pero no la suficiente para determinar por sí misma el plegamiento de la proteína.

La presencia de un sistema de procesamiento de la información, complejo y funcionalmente integrado, sugiere efectivamenteque la información de la molécula de ADN es insuficiente para producir la proteína. Ello no demuestra que tal información sea innecesariapara producir las proteínas, ni invalida la afirmación de que el ADN almacena y transmite información genética específica.

Desde el comienzo de la revolución de la biología molecular, los biólogos asignaron al ADN, al ARN y a las proteínas lapropiedad de transportar información. En la jerga de la biología molecular, la secuencia de bases del ADN contiene la “información genética” o las “instrucciones de ensamblaje” necesarias para dirigir la síntesis de proteínas. Sin embargo, el término información puede denotar varios conceptos teóricamente diferentes. Así, se puede preguntar en qué sentido se aplica “información” a estas grandes macromoléculas. Veremos que los biólogos moleculares emplean tanto un concepto de la información más fuerte que el que emplean los matemáticos y los teóricos de la información y una concepción del término ligeramente más débil que el que emplean los lingüistas y los usuarios ordinarios.

La teoría de la información de Shannon ayudó a refinar la comprensión biológica de una característica importante de los componentes biomoleculares cruciales de los que depende la vida: el ADN y las proteínas son altamente complejas y cuantificables. La teoría de la información ayudó a establecer que el ADN y las proteínas podían llevar grandes cantidades de información funcional; no a establecer si realmente lo hacían. Los biólogos moleculares como Monod y Crick entendían la información, almacenada en el ADN y las proteínas, como algo más que la mera complejidad o improbabilidad. En realidad, su idea de información asociaba con las secuencias de ADN tanto la contingencia bioquímica como la complejidad combinatoria. Los avances de la teoría de la complejidad han hecho posible una explicación general plenamente teórica de la especificación, que se aplica fácilmente a los sistemas biológicos.

Las regiones codificantes del ADN funcionan de manera muy parecida a un programa de software o al código de una máquina, dirigiendo operaciones dentro de un sistema material complejo a través de secuencias de caracteres altamente complejas y sin embargo específicas. Como ha señalado Richard Dawkins “el código de máquina de los genes es increíblemente parecido al de una computadora”. O como ha notado Bill Gates, “el ADN es como un programa de computadora pero mucho, mucho más avanzado que ninguno que hayamos creado”. Del mismo modo que con el ordenamiento específico de dos símbolos (0 y 1) en un programa de ordenador se puede realizar una función en un entorno de máquina, también la secuencia precisa de las cuatro bases del ADN pueden realizar una función dentro de la célula.

Como sucede en el código de máquina de una computadora, la especificidad de secuencia del ADN sucede dentro de un dominio sintáctico. Así, el ADN contiene información tanto sintáctica como específica. En cualquier caso, desde los últimos años, el concepto de información, tal y como lo emplean los biólogos moleculares, ha fusionado las nociones de complejidad o improbabilidad y especificidad de función. Los constituyentes biomoleculares cruciales de los organismos vivos contienen no solo información sintáctica sino también “información específica”. Por tanto, la información biológica así definida constituye una característica principal de los sistemas vivos cuyo origen debe explicar cualquier modelo acerca del origen de la vida. Los descubrimientos de los biólogos moleculares suscitaron la pregunta por el origen último de la complejidad específica o información específica tanto en el ADN como en las proteínas. Por lo menos desde mediados de los años 60, muchos científicos han considerado el origen de la información como la cuestión central con que se enfrentaba la biología del origen de la vida. Según esto, los investigadores del origen de la vida han propuesto tres grandes tipos de explicaciones naturalistas para explicar el origen de la información genética específica; los que hacen hincapié en el azar, en la necesidad o en la combinación de ambos.

Quizás el punto de vista naturalista más popular acerca del origen de la vida es que éste tuvo lugar exclusivamente por azar. Pero solo unos pocos científicos serios han manifestado su apoyo a este punto de vista. Casi todos los investigadores serios del origen de la vida consideran ahora el “azar” una explicación causal inadecuada para el origen de la información biológica. Desde que los biólogos moleculares comenzaron a apreciar la especificidad de secuencia de proteínas y ácidos nucleicos, se han realizado muchos cálculos para determinar la probabilidad de formular proteínas y ácidos nucleicos funcionales. Tales cálculos han mostrado invariablemente que la probabilidad de obtener biomacromoléculas secuenciadas funcionales al azar es “infinitamente pequeña… incluso en la escala de… billones de años”.

Deben tenerse en cuenta las dificultades probabilísticas que deben superarse para construir incluso una proteína corta de 100 aminoácidos de longitud. (Una proteína típica consiste en unos 300 y muchas proteínas importantes son más largas). Todos los aminoácidos deben formar un enlace químico conocido como enlace peptídico al unirse a otros aminoácidos de la cadena proteica. Sin embargo, en la naturaleza son posibles otros muchos tipos de enlace químico entre aminoácidos. Así, dado un sitio cualquiera de la cadena de aminoácidos en crecimiento, la probabilidad de obtener un enlace peptídico es aproximadamente ½. La probabilidad de obtener cuatro enlaces peptídicos es (½ x ½ x ½ x ½) = 1/16. La probabilidad de construir una cadena de 100 aminoácidos en la cual todos los enlaces impliquen enlaces es de aproximadamente 1 en 1030.


Pero todos los aminoácidos que se encuentran en las proteínas tienen una imagen especular diferente de sí mismos, una versión orientada a la izquierda y una orientada a la derecha. Las proteínas funcionales solo admiten aminoácidos orientados a la izquierda. Sin embargo tanto los orientados a la derecha como los orientados a la izquierda se originan en las reacciones químicas productoras de aminoácidos con aproximadamente la misma probabilidad. Esto aumenta la improbabilidad de obtener una proteína biológicamente funcional.

 La probabilidad de obtener al azar solo aminoácidos orientados a la izquierda en una cadena peptídica hipotética de 100 aminoácidos de longitud es de aproximadamente 1 en 1030. Partiendo de mezclas de formas a la derecha y a la izquierda, la probabilidad de construir al azar una cadena de 100 aminoácidos de longitud en la que todos los enlaces sean enlaces peptídicos y todos los aminoácidos sean formas a la izquierda es de 1 en 1060.

Pero las proteínas funcionales tienen un tercer requisito independiente, el más importante de todos; sus aminoácidos deben enlazarse en un ordenamiento específico secuencial, tal y como deben hacerlo las letras en una frase con significado. En algunos casos, incluso el cambio de un aminoácido en un determinado lugar provoca la pérdida de funcionalidad en la proteína. Además, debido a que biológicamente se dan veinte aminoácidos, la probabilidad de obtener un determinado aminoácido en un sitio determinado es pequeña: 1/20. Y la probabilidad de lograr todas las condiciones de función necesarias para una proteína de 150 aminoácidos de longitud excede de 1 en 10180. Como ha dicho el divulgador científico Richard Dawkins, “podemos aceptar cierta cantidad de suerte en nuestras explicaciones pero no demasiada”. Lógicamente, la afirmación de Dawkins da por sentada una cuestión cuantitativa, a saber, “¿cómo de improbable tiene que ser un suceso, una secuencia o un sistema para que la hipótesis del azar pueda ser razonablemente eliminada?”.

El matemático estadounidense William Albert Dembski calcula una estimación conservadora del “límite de probabilidad universal” en 1 en 10150, que corresponde a los recursos probabilísticos del universo conocido. Este número proporciona la base teórica para excluir las apelaciones al azar como la mejor explicación de sucesos específicos de probabilidad menores. Dembski contesta la pregunta de cuanta suerte, para un caso determinado, puede invocarse como explicación. De manera significativa, la improbabilidad de construir y secuenciar incluso una proteína funcional corta se acerca a este límite de probabilidad universal, que esel punto en el que las apelaciones al azar se convierten en absurdas dados los “recursos probabilísticos” de todo el universo. Además, haciendo el mismo tipo de cálculo para proteínas moderadamente largas lleva estas mediciones bastante más allá del límite.

Así, supuesta la complejidad de las proteínas, es extremadamente imposible que una búsqueda aleatoria en el espacio de secuencias de aminoácidos posibles, desde el punto de vista combinatorio, pudiera generar incluso una proteína funcional relativamente corta en el tiempo disponible desde el comienzo del universo (y menos desde el origen de la Tierra). Por el contrario, para tener una posibilidad razonable de encontrar una proteína funcional corta en una búsqueda al azar del espacio combinatorio requeriría enormemente más tiempo del que permiten la geología o la cosmología.

Cálculos más realistas solo aumentan estas improbabilidades, incluso más allá de lo computable. Por ejemplo, recientes trabajos experimentales y teóricos sobre la denominada complejidad mínima requerida para mantener el organismo viviente más simple posible sugieren un límite inferior de entre 250 y 400 genes y sus correspondientes proteínas. El espacio de secuencias de nucleótidos correspondiente a este sistema de proteínas excede de 4 300.000. La improbabilidad que corresponde a esta medida de complejidad molecular de nuevo excede enormemente de los “recursos probabilísticos” de todo el universo. Cuando se considera todo el complemento de biomoléculas funcionales requerida para mantener la mínima función celular y la vitalidad, puede verse las razones por las que las teorías sobre el origen de la vida basadas en el azar han sido abandonadas por los ciéntificos.

Christian de Duve y otros investigadores han reconocido hace tiempo que la célula representa no solo un sistema altamente improbable sino también un sistema funcionalmente específico. Por esta razón, a mediados de los años 60, la mayoría de los investigadores habían eliminado el azar como explicación plausible del origen de la información específica necesaria para construir una célula. En cambio muchos han buscado otros tipos de explicación naturalista. A mediados del siglo XX, John von Neumann demostró que todo sistema capaz de autorreplicarse requeriría subsistemas que fueran funcionalmente equivalentes a los sistemas de almacenamiento, reinformación, replicación y procesado de las células existentes. Sus cálculos establecieron un umbral mínimo muy alto para la función biológica, del mismo modo que haría más tarde en un trabajo experimental. Estos requerimientos de complejidad mínima plantean una dificultad fundamental para la selección natural. La selección natural selecciona ventajas funcionales. Por tanto, no puede jugar ningún papel hasta que las variaciones aleatorias produzcan algún ordenamiento biológicamente ventajoso de importancia.


Sin embargo, los cálculos de John von Neumann y otros similares de Wigner, Landsberg y Morowitz demostraron que con toda probabilidad las fluctuaciones aleatorias de moléculas no producirían la complejidad mínima necesaria para un sistema de replicación primitivo. La improbabilidad de desarrollar un sistema de replicación funcionalmente integrado excede enormemente la de desarrollar los componentes proteicos o de ADN de estos sistemas. Dada la gigantesca improbabilidad y el elevado umbral funcional que implica, muchos investigadores de origen de la vida han acabado considerando la selección natural prebiótica inadecuada y esencialmente indistinguible de las invocaciones al azar.



Para muchos científicos los modelos autoorganizativos parecen representar ahora el enfoque más prometedor para explicar el origen de la información biológica específica. Se sabe que la estructura del ADN depende de varios enlaces químicos. Por ejemplo, hay enlaces entre el azúcar y las moléculas de fosfato que forman los dos esqueletos contorsionados de la molécula de ADN. Hay enlaces que fijan las bases (los nucleótidos) al esqueleto de azúcar-fosfato a cada lado de la molécula. Hay también enlaces de hidrógeno horizontales a lo largo de la molécula entre las bases de nucleótidos, originando así las denominadas bases complementarias. Los enlaces de hidrógeno individualmente débiles, que en su conjunto mantienen juntas las dos copias complementarias de ADN, hacen posible la replicación de las instrucciones genéticas. Sin embargo, es importante notar que no hay enlaces químicos entre las bases a lo largo del eje longitudinal en el centro de la hélice.

Sin embargo, es precisamente a lo largo de este eje de la molécula de ADN donde se almacena la información genética. Además, del mismo modo que letras magnéticas pueden ordenarse y reordenarse de cualquier manera sobre la superficie de un metal para formar varias secuencias, así también cada una de las cuatro bases –A, T, G y C- se unen a cualquier posición del esqueleto de ADN con igual facilidad, haciendo todas las secuencias igualmente probables (o improbables). Por lo indicado, las afinidades de enlace “autoorganizativas” no pueden explicar los ordenamientos secuencialmente específicos de las bases de nucleótidos del ADN, porque no hay enlaces entre las bases a lo largo del eje molecular que contiene la información y no hay afinidades diferenciales entre el esqueleto y las bases específicas que pudieran explicar las variaciones de secuencia. Debido a que esto mismo es válido para las moléculas de ARN, los investigadores que especulan que la vida comenzó en un mundo de ARN no han podido resolver el problema de como la información de las moléculas funcionales de ARN pudo surgir por vez primera.

Para los que quieren explicar el origen de la vida como resultado de propiedades de autoorganización intrínsecas de los materiales que constituyen los sistemas vivientes, estos hechos bastante elementales de la biología molecular tienen implicaciones decisivas. El lugar más obvio para buscar propiedades de autoorganización para explicar el origen de la información genética son las partes constituyentes de las moléculas que llevan la información. Pero la bioquímica y la biología molecular dejan claro que las fuerzas de atracción entre los componentes de ADN, ARN y proteínas no explican la especificidad de secuencia de estas grandes moléculas transportadoras de información.


Como ha dicho de Christian de Duve: “los procesos que generaron la vida fueron altamente deterministas, haciendo inevitable la vida tal y como la conocemos dadas las condiciones que existieron en la tierra prebiótica”. Sin embargo, imagínense las condiciones prebióticas más favorables. Imagínese un charco con las cuatro bases del ADN y todos los azúcares y fosfatos necesarios; ¿surgiría cualquier secuencia genética de manera inevitable?, ¿surgiría inevitablemente cualquier proteína o gen funcional, no digamos ya un código genético específico o sistema de replicación?Evidentemente no.

Si los intentos de resolver el problema de la información no lo resuelven ni el azar ni la necesidad físico-química, ni la combinación de los dos, ¿Cuál es la explicación? Según la experiencia puede decirse que: “para todos los sistemas no biológicos, las grandes cantidades de complejidad o información específicas se originan tan solo a partir de una acción mental, una actividad consciente o de diseño inteligente”. Los científicos Meyer, Ross, Nelson y Chien, en la obra “La explosión cámbrica: el “Big Bang” de la biología” aducen que ni el mecanismo neo-darwiniano ni ningún otro mecanismo naturalista explica adecuadamente el origen de la información requerida para construir las nuevas proteínas y diseños corporales que aparecen en la explosión cámbrica. En todo caso, la generalización empírica más exitosa es suficiente para apoyar el argumento de que el diseño inteligente es la mejor explicación del origen de la información específica necesaria para el origen de la vida primigenia.

La experiencia afirma que la complejidad específica o información surge de manera rutinaria de la actividad de agentes inteligentes. Un usuario de ordenadores que rastrea la información en su pantalla hasta su fuente, se introduce en la mente del ingeniero de software o programador. De manera similar, la información en un libro o en la columna de un periódico deriva en última instancia de un escritor, o sea de una causa mental antes que estrictamente material. Además, el conocimiento existente acerca del flujo de información, basado en la experiencia, confirma que los sistemas con grandes cantidades de complejidad o información, tales como los códigos y el lenguaje, invariablemente se originan a partir de una fuerza inteligente, es decir, de la mente de un agente personal. Además, esta generalización se mantiene no solo para la información semánticamente especificada presente en los lenguajes naturales, sino también para otras formas de información o complejidad especificada tanto la presente en los códigos de máquina, como en las máquinas o en las obras de arte.

Al igual que letras en la sección de un texto con significado, las partes de un motor funcional representan una configuración altamente improbable aunque funcionalmente especificada. De igual manera, las formas de los presidentes de los EUA, altamente improbables, de las rocas del Monte Rushmore se conforman a un patrón independientemente dado: los rostros de los presidentes de América conocidos por los libros y las pinturas. Así, ambos sistemas tienen una gran cantidad de complejidad especificada o información así definida. No es una coincidencia que se originaran por un diseño inteligente y no por azar y/o necesidad físico química.

Está claro que la expresión “grandes cantidades de información específica” da por sentado nuevamente otra cuestión cuantitativa, a saber, “¿cuanta complejidad o información específica tendría que tener una célula mínimamente compleja para que ello implicara diseño?”. Antes hemos indicado que Dembski calculó un valor umbral de probabilidad universal de 1/10150, que corresponde a los recursos de probabilidad y de especificidad del universo conocido. 

El valor umbral de probabilidad universal se traduce aproximadamente en 500 bits de información. Por lo tanto, el azar solamente no constituye explicación suficiente para el origen de cualquier secuencia o sistema específicos que contenga más de 500 bits de información.

Además, dado que los sistemas caracterizados por la complejidad desafían ser explicados mediante leyes autoorganizativas, Y dado que las invocaciones a la selección natural prebiótica presuponen pero no explican el origen de la información específica necesaria para un sistema autorreplicativo medianamente complejo, el diseño inteligente es la mejor explicación del origen de los más de 500 bits de información específica requerida para producir el primer sistema vivo mínimamente complejo. Así, suponiendo un punto de partida no biológico, la aparición de 500 bits o más de información específica indican diseño de manera fiable.

La generalización de que la inteligencia es la única causa de información o complejidad especificada, por lo menos, a partir de una fuente no biológica, ha obtenido el apoyo de la investigación sobre el origen de la vida. Durante los últimos cuarenta años, todo modelo naturalista propuesto ha fracasado a la hora de explicar el origen de la información genética específica requerida para construir una célula viviente. Así, mente o inteligencia, o lo que los filósofos llaman “agente causal”, es ahora la única causa conocida capaz de generar grandes cantidades de información a partir de un estado abiótico. Como resultado, la presencia de secuencia específicas ricas en información incluso en los más simples sistemas vivientes implicaría un diseño inteligente.

Recientemente ha sido desarrollado un modelo teórico formal de deducción del diseño para apoyar esta conclusión. En su libro “La inferencia de diseño”, el matemático y probabilista teórico William Dembski señala que los agentes racionales a menudo infieren o detectan la actividad a priori de otras mentes por el tipo de efectos que dejan tras ellos. Por ejemplo, los arqueólogos suponen que agentes racionales produjeron las inscripciones en la piedra de Rosetta; los investigadores de fraude de seguros detectan ciertos “patrones de estafa” que sugieren la manipulación intencional de las circunstancias; los criptógrafos distinguen entre signos aleatorios y aquellos que llevan codificados los mensajes. El trabajo de Dembski muestra que reconocer la actividad de agentes inteligentes constituye un modo común, totalmente racional, de inferencia.

Y lo que es más importante, Dembski identifica los criterios que permiten a los observadores humanos reconocer actividad inteligente y distinguir los efectos de tal actividad respecto de los efectos de causas estrictamente materiales. Señala que invariablemente atribuimos a causas inteligentes, diseño-, y no al azar o a leyes físico-químicas,sistemas, secuencias o sucesos que tienen las propiedades conjuntas de “alta complejidad” (o baja probabilidad) y “especificidad”. 

Estos patrones de inferencia reflejan nuestro conocimiento de la manera en que el mundo funciona. Por ejemplo, dado que la experiencia enseña que los sucesos o sistemas complejos y específicos surgen invariablemente de causas inteligentes, podemos inferir diseño inteligente de sucesos que muestran conjuntamente las propiedades de complejidad y especificidad. El trabajo de Dembski sugiere un proceso de evaluación comparativa para decidir entre causas naturales e inteligentes basado en las características de probabilidad o “firmas” que dejan tras ellas.

De esta manera vemos que la teoría de Dembski, cuando se aplica a la biología molecular, implica que el diseño inteligente jugó un papel en el origen de la información biológica. El cálculo lógico sigue un método que se usa en las ciencias forenses e históricas. En las ciencias de la historia, el conocimiento de las inferencias actuales, potencias causales de varias entidades y procesos permite a los científicos hacer inferencias acerca de las causas posibles en el pasado. Cuando un estudio minucioso de varias causas posibles produce solo una sola causa adecuada para un efecto dado, los científicos forenses o históricos pueden hacer inferencias definitivas acerca del pasado. Efectivamente, ya que la experiencia afirma que la mente o el diseño inteligente son condición y causa necesaria de la información, puede detectarse la acción pasada de una inteligencia a partir de un efecto rico en información, incluso si la causa misma no puede ser directamente observada.

El ordenamiento específico y complejo de las secuencia nucleotídicas del ADN implica la acción pasada de una inteligencia, incluso si tal actividad mental no puede ser directamente observada. Muchos admiten que podemos inferir con justificación la acción de una inteligencia operativa en el pasado, dentro del ámbito de la historia humana, a partir de un artefacto o un suceso rico en información, pero solamente porque ya sabemos que existe la mente humana. Pero aducen que inferir la acción de un agente diseñador que antecede a los humanos no puede justificarse, incluso cuando observamos un efecto rico en información, dado que no sabemos si un agente o agentes inteligentes existieron con anterioridad a los humanos.

Sin embargo los científicos del SETI tampoco saben si existe o no una inteligencia extraterrestre. Pero suponen que la presencia de una gran cantidad de información específica, como la secuencia de los 100 primeros números primos, establecería definitivamente su existencia. Efectivamente, SETI busca precisamente establecer la existencia de otras inteligencias en un dominio desconocido. De manera similar, los antropólogos han revisado a menudo sus estimaciones sobre el comienzo de la historia humana o de la civilización porque han descubierto artefactos ricos en información procedentes de épocas que anteceden a sus estimaciones previas. Y, tal como hemos explicado en varios artículos, la presencia extraterrestre en distintas épocas de la historia es bastante evidente.

La mayoría de las inferencias de diseño establecen la existencia o la actividad de un agente mental operativo (al que generalmente llamamos Dios) en un tiempo o lugar en el que la presencia de tal agente era previamente desconocido. Por tanto, inferir la actividad de una inteligencia diseñadora en un tiempo anterior al advenimiento de los humanos en la Tierra no tiene un estatus cualitativamente distinto de otras inferencias de diseño que ya se aceptan como reales y producidas por causas naturales; la búsqueda de inteligencia artificial extraterrestre de la NASA (SETI) presupone que cualquier información incluida en las señales electromagnéticas proveniente del espacio exterior indicaría una fuente inteligente. Sin embargo, de momento, los radioastrónomos no han encontrado ninguna información en las señales. Pero los biólogos moleculares han identificado las secuencias ricas en información y los sistemas de las células que sugieren, por la misma lógica, una causa inteligente para esos efectos.

Algunos opinan que cualquier argumento sobre el diseño inteligente constituye un argumento desde la ignorancia o el fanatismo religioso. Los objetores acusan a los defensores del diseño de utilizar nuestra ignorancia presente acerca de cualquier causa de información, natural y suficiente, como base única para inferir una causa inteligente de la información presente en la célula. Dado que aún no sabemos como pudo surgir la información biológica, invocamos la noción misteriosa de diseño inteligente. Según este punto de vista, el diseño inteligente funciona no como explicación sino como un sustituto de la ignorancia.

Aunque la inferencia de diseño a partir de la presencia de información en el ADN no significa tener una prueba de certeza deductiva del diseño inteligente, no constituye un argumento surgido de la ignorancia. Los argumentos nacidos de la ignorancia se dan cuando la evidencia en contra de la proposición X es presentada como la única razón para aceptar una proposición Y alternativa. En todo caso, la supuesta ignorancia acerca de cualquier causa natural suficiente es solo parte de la base para inferir diseño. También se sabeque los agentes inteligentes pueden y de hecho producen sistemas ricos en información: tenemos un conocimiento positivo basado en la experiencia de una causa alternativa que es suficiente, a saber, la inteligencia. Por esta razón, la inferencia de diseño no constituye un argumento de ignorancia sino una inferencia para la mejor explicación.

Consideramos que el argumento del diseño inteligente es la mejor explicación del origen de la información biológica. Como hemos visto, ningún escenario basado en el azar, en la necesidad, o en una combinación de ambos, puede explicar el origen de la información biológica específica en un contexto prebiótico. Este resultado concuerda con la experiencia: Los procesos naturales no producen estructuras ricas en información a partir puramente de precursores físicos o químicos. Tampoco la materia, tanto si actúa al azar como bajo la fuerza de la necesidad físico-química, se ordena a si misma en secuencias complejas ricas en información.

Sin embargo, no es correcto decir que no sabemos como surge la información. Sabemos por experiencia que los agentes conscientes inteligentes pueden crear secuencias y sistemas informativos. La creación de nueva información está asociada habitualmente con la actividad consciente. Además, la experiencia enseña que cuando grandes cantidades de información o complejidad especificada están presentes en un artefacto o entidad cuya historia es conocida, invariablemente la inteligencia creativa, o el diseño inteligente, ha jugado un papel causal en el origen de esa entidad. Así, cuando encontramos tal información en las biomacromoléculas necesarias para la vida, podemos inferir, basándonos en el conocimiento de las relaciones de causa y efecto, que una causa inteligente operó en el pasado para producir la información o complejidad especificada necesaria para el origen de la vida.

Esta inferencia de diseño emplea el mismo método de argumentación y razonamiento que los científicos de la historia utilizan generalmente. En el “Origen de las especies”, Darwin desarrolla su argumento a favor de un ancestro común universal como inferencia para la mejor explicación. Como explicó en una carta a Asa Gray: “Compruebo esta hipótesis [de ascendencia común] comparando con tantas proposiciones generales y muy bien establecidas como puedo encontrar –en distribuciones geográficas, historia geológica, afinidades, etc. Y me parece que, suponiendo que tal hipótesis fuera a explicar tales proposiciones generales, deberíamos, de acuerdo con la manera común de proceder de todas las ciencias, admitirla hasta que otra hipótesis mejor sea encontrada”.

Además, tal y como se ha explicado, el argumento de diseño de la información del ADN se adecua a los cánones empleados en las ciencias de la historia. El principio de uniformidad establece que “el presente es la clave del pasado”. En particular, el principio especifica que nuestro conocimiento de las relaciones actuales de causa y efecto debe gobernar nuestras valoraciones de la plausibilidad de las inferencias que hacemos acerca del pasado causal remoto. Sin embargo, es precisamente ese conocimiento de las relaciones de causa y efecto el que informa la inferencia del diseño inteligente. Ya que nosotros sabemos que los agentes inteligentes producen grandes cantidades de información, y ya que todos los procesos naturales conocidos no lo hacen, podemos inferir diseño como la mejor explicación del origen de la información en la célula.

La objeción de que la inferencia de diseño constituye un argumento nacido de la ignorancia se reduce en esencia a replantear el problema de la inducción. Sin embargo podría hacerse la misma objeción contra cualquier ley o explicación científica o contra cualquier inferencia histórica que tenga en cuenta el presente conocimiento, no en el futuro, de las leyes naturales y los poderes causales. Como han señalado Barrow y Tipler, criticar los argumentos de diseño, como hizo Hume, simplemente porque asumen la uniformidad y el carácter normativo de las leyes naturales realiza un profundo corte en “la base racional de cualquier forma de investigación científica”.

Nuestro conocimiento acerca de lo que puede y de lo que no puede producir grandes cantidades de información específica puede tener que ser revisado, pero lo mismo sucede con las leyes de la termodinámica. Las inferencias de diseño pueden demostrarse más adelante incorrectas, como sucede con otras inferencias que implican varias causas naturales. Tal posibilidad no detiene a los científicos a la hora de hacer generalizaciones acerca de poderes causales de varias entidades o de utilizar esas generalizaciones para identificar causas probables o muy plausibles en casos concretos. Las inferencias basadas en la experiencia presente y pasada constituye conocimiento, aunque provisional, pero no ignorancia. Aquellos que objetan contra tales inferencias objetan contra la ciencia, tanto como objetan contra una hipótesis de diseño particular de base científica.

Es evidente que algunos rechazan la hipótesis de diseño alegando que no alcanza la categoría de “científica”. Tales críticos afirman un principio fuera de toda evidencia conocido como naturalismo metodológico. El naturalismo metodológico afirma que, por definición, para que una hipótesis, teoría, o explicación sea considerada “científica”, tiene que invocar solo entidades naturalistas o materialistas. De acuerdo con tal definición, los críticos dicen que el diseño inteligente no es válido. Sin embargo, incluso si se da por buena esta definición, no se sigue que ciertas hipótesis no científicas, según las define el naturalismo metodológico, o metafísicas no puedan constituir una mejor explicación, más adecuada causalmente. Pero cualquiera que sea su clasificación, la hipótesis de diseño constituye una explicación mejor que sus rivales materialistas o naturalistas para el origen de la información biológica específica. Seguramente, la mera clasificación de un argumento como metafísico no lo refuta.

Para ser un buscador de la verdad, la cuestión que el investigador del origen de la vida debe plantearse no es “¿qué modelo materialista es el más adecuado?” sino más bien “¿qué provocó la aparición de la vida en la Tierra?”. Claramente, una posible respuesta a esta última cuestión sea esta: “la vida fue diseñada por un agente inteligente que existió antes del advenimiento de los humanos”. La apertura a la hipótesis del diseño parecería necesaria, por tanto, para cualquier biología histórica que busque la verdad, Una biología histórica comprometida a seguir la evidencia dondequiera que esta lleve, no excluirá hipótesis a priori por razones metafísicas. Este enfoque más abierto y más racionalsugeriría ahora la teoría del diseño inteligente como la mejor explicación o más adecuada causalmente para el origen de la información necesaria para construir el primer organismo vivo.

La judicatura española se queja del Tribunal Supremo: “Está de rebajas con los políticos”


OTROS JUECES LOS HABRÍAN LLEVADO AL BANQUILLO

El Supremo cuando rebajó la pena a Matas

La manga ancha del Tribunal Supremo con la clase política está dando que hablar. En tan sólo una semana, ha archivado dos investigaciones, la de la presidenta de Navarra Yolanda Barcina y la del exministro socialista José Blanco, y ha rebajado considerablemente la pena al expresidente balear,Jaume Matas. En tono jocoso, fuentes jurídicas señalan a este diario que “el Tribunal Supremo está de rebajas con los políticos”.

Fuentes de la judicatura explican que el Alto Tribunal tiene una manera de actuar distinta al resto. No sienta en el banquillo a un aforado, es decir, dirigente de la clase política nacional o magistrado de altas instancias, si no hay pruebas de cargo muy sólidas para condenarle.

La excepción, Baltasar Garzón. El exjuez de la Audiencia Nacional fue absuelto de un delito de prevaricación por el caso de la Memoria Histórica, pero estas fuentes recuerdan que poco antes ya había sido condenado por ese mismo delito a once años de inhabilitación por grabar ilegalmente a imputados del caso Gürtel y sus abogados en la cárcel. La absolución tuvo un voto particular del magistrado José Manuel Maza, al entender que el acusado "sabía perfectamente" que incurría en un "grave incumplimiento de la Ley" y afirmar lo contrario supone "un insulto a la razón".

En el caso de Blanco y Barcina, ambos debían ser juzgados por el Supremo en caso de haber llegado a juicio. El asunto del primero fue archivado por la Sala de lo Penal cuando la instrucción estaba ya finalizada y se iba a solicitar el suplicatorio al Congreso de los Diputados para abrir fase de juicio oral. Estaba imputado por un delito de tráfico de influencias por poner en contacto a un amigo suyo, el empresario José Antonio Orozco, con el alcalde de San Boi para que le pudiera comentar un error que se estaba cometiendo en su expediente y por lo que se le había denegado una licencia para levantar una nave.

Fuentes de otro órgano judicial explican que ese caso en otro tribunal sí se habría llevado a juicio. Con las pruebas aportadas en la investigación, intervenciones telefónicas y documentación, por lo menos se le habría sentado en el banquillo de los acusados para analizar la prueba y que una Sala decidiera si era inocente o culpable.

En el caso de Barcina hay varios matices. El primero, que la causa estaba en su inicio, y el segundo, que la Fiscalía, al contrario de lo que sucedía con Blanco, apoyaba su archivo al no detectar indicios delictivos. La presidenta de Navarra estaba siendo investigada por las dobles y triples dietas concedidas en Caja Navarra (CAN).

La juez de Pamplona que inició el caso envió una exposición razonada al Supremo al ver indicios de criminalidad contra la dirigente de UPN y aforada, condición que provoca que sea el TS el órgano competente para investigarlo. Aceptó la competencia, pero ahora lo acaba de archivar. Se la acusaba decohecho impropio por cobrar 1.717 euros en dietas por acudir a las reuniones de la caja, órgano que llevaba a reunirse hasta en dos sesiones consecutivas en un mismo día.

Según el Supremo, "la cantidad que recibe es consecuencia de la pertenencia a la Junta de Entidades Fundadoras", y la consideración de estas dietas como beneficios indebidos, donativos o regalos prohibidos a un cargo públicoplantea dudas, a lo que se suma que no son ofrecidas por una entidad o persona a la presidenta, sino que las percibe por ocupar el cargo en la propia caja.


En el caso de Matas, el Alto Tribunal no debía juzgarle, sino que era el recurso contra la sentencia de la Audiencia Provincial de Palma de seis años de prisión por seis delitos, entre ellos el de prevaricación, por beneficiar económicamente a Antonio Alemany, el periodista que le elaboraba sus discursos. Hace dos días le rebajó la condena hasta nueve meses de prisión sólo por el delito de tráfico de influencias, evitando así el ingreso en un centro penitenciario. En este caso, también hubo un voto particular contrario a la sentencia, el del magistrado Alberto Jorge Barreiro, quien mantiene que el expresidente balear y exministro con José María Aznar cometió delito de prevaricación porque hizo una serie de gestiones para saltarse la Ley de Incompatibilidades y queAlemany pudiera trabajar para él en el Gobierno regional y mantener otros trabajos ajenos a este.

Hace dos meses, este tribunal confirmó la absolución al expresidente valenciano, Francisco Camps, acordado por un jurado popular por recibir trajes de la trama Gürtel, y alegó para no admitir el recurso contra la sentencia que, al tratarse de un jurado, la motivación que se reclama es “bastante menos exigente” que la que rige para los demás tribunales. Si al jurado no es posible exigirle “un juicio técnico”, “tampoco cabe esperar de él un análisis depurado de los distintos elementos de prueba y la razonada valoración sintética del conjunto”, señalaba el Alto Tribunal.

Entre otras resoluciones, el mes pasado archivó la querella presentada por la asociación Democracia Real Ya contra 63 diputados que cobran del Congreso las ayudas por alejamiento a pesar de disponer de casa propia en Madrid, entre ellos el propio presidente del Gobierno, Mariano Rajoy. Según el auto, no hay indicios de malversación de fondos públicos y apropiación indebida porque los diputados no están en la obligación de justificar que las ayudas recibidas se destinen “específicamente a alojamiento”.

Increíbles nubes Mastodónticas y cielo loco en la península superior de Míchigan - 23 de julio 2013


Extrañas nubes redondas anaranjadas fueron vistas sobre la población de Michigan de Iron Mountain, una ciudad de EE.UU., haciendo parecer al cielo 'ardiendo' y llevando a los residentes a preocuparse del posible clima salvaje que podría venir.

El residente Jason Asselin: "De repente ahí fuera todo se puso muy amarillo, se sentía extraño y misterioso. Después lentamente se vio muy naranja, era la cosa más loca que he presenciado sobre mi cabeza".

"Estas nubes parecían 'tazas de burbujas', pero en meteorología se llaman nubesMastodónticas. Son muy poco frecuentes en esta parte del país y muchas personas nunca han visto nada como esto antes."

Las mammatocumulus que se formaron sobre Iron Mountain hizo a todo asumir una extraña coloración. Los verdes parecían más verdes, los azules más azules, y así sucesivamente.



Un Posible Conflicto Nuclear en un Círculo de las Cosechas


Un nuevo círculo de las cosechas con un diseño de tipo mandala ha vuelto a aparecer en Inglaterra, concretamente en Hackpen Hill, en la provincia de Wiltshire, el 15 de Julio, hace sólo dos días. 

El diseño vuelve a tener una geometría octogonal al igual que ocurría con el aparecido en Italia a principios de mes. 

Lo interesante del mensaje, que amplía al que veíamos en Italia y que proporcionaba un modelo de energía libre basado en el hidrógeno, el deuterio, el potasio y el azufre, es que hace un mensaje a un estamento internacional relacionado con la energía atómica. 

Veamos el caso.

1. En primera instancia hay que apuntar un caso muy curioso. 

Este crop circle ya había aparecido este mismo año en Inglaterra, concretamente el 7 de Julio en el mítico emplazamiento de Stanton St. Bernard, pero el propietario de la finca decidió destruirlo. 

Esto, que ha pasado otras veces en el fenómeno no es obstáculo para la inteligencia que realiza los círculos de las cosechas ya que el diseño vuelve a aparecer en otro campo con las mismas características.

2. Observando la figura que ha vuelto a aparecer llama la atención un detalle nada más verlo. Su centro es similar al diseño de Italia de la Energía libre.

3. Por otra parte, tenemos la propia simbología relacionada de cuatro núcleos representando órbitas de electrones que podrían estar relacionadas con el hidrógeno, el potasio, el deuterio y el azufre del anterior diseño.



4. Lo mas interesante del caso posiblemente sea la forma del diseño. Observen la figura. Parece la recreación típica del núcleo atómico con electrones girando alrededor de él. Pero no son seis átomos son ocho, los mismos que aparecen en la simbología relacionada con la comisión de la energía atómica de los Estados Unidos.


Y claro, observando ese detalle y además de eso, observando el entorno en el que ha aparecido la figura, podemos elucubrar posibilidades sobre el mensaje. 

Si se fijan, en el entorno del círculo hay un conglomerado de árboles que recuerdan en su forma a la formación de un hongo radiactivo tras el lanzamiento de una bomba atómica, pero vista desde el cielo.





El contexto se completa con un entorno en el que se ha cultivado un cereal con floración de color pálido, clara metáfora de un posible incidente nuclear y sus consecuencias.


Quizá la clave sea encontrar una forma determinada, un país o una ciudad que se asemeje a la forma que tiene esa área coloreada de blanco. Estamos haciendo distintas pruebas con diferentes países y ciudades para intentar atisbar qué lugar podría ser el señalado. Si llegamos a alguna conclusión, seréis los primeros en saberlo…

Fuente: Ufopolis

España: Las cooperativas de energía verde se rebelan contra el “atraco de las eléctricas y el Gobierno”


“Le pedimos a los ciudadanos que se rebelen, que resistan, que desobedezcan. Cuando las leyes son injustas, la desobediencia se convierte en un imperativo”. Ana Marco, coordinadora de la cooperativa sin ánimo de lucro comercializadora de energía limpia Som Energia, ha expresado así su rechazo a la política energética del Gobierno, en una rueda de prensa convocada por varias cooperativas y organizaciones ciudadanas que apuestan por un nuevo modelo energético más sostenible y respetuoso con el medio ambiente.

A la reforma energética aprobada en Consejo de Ministros el 12 de julio por la que se suprimían las primas a las renovables para sustituirlas por un mecanismo que “garantiza una rentabilidad ‘razonable’, entre otras medidas, se ha sumado que el pasado jueves, el Ejecutivo remitió a la Comisión Nacional de Energía (CNE) el esperado borrador de autoconsumo. Un texto que, según ha explicado Cote Romero, directora de la empresa social Ecooo y coordinadora de laPlataforma por un Nuevo Modelo Energético, “ignora la realidad del cambio climático y la escasez de recursos fósiles”.

Con 16 meses de retraso, el borrador ha llegado sin incluir en ningún momento la palabra “balance neto”, ha denunciado Romero, que es el procedimiento por el cual un ciudadano puede producir en su hogar la energía que necesita y utilizar la red como batería para verter la que sobra.

Para la directora de Ecooo, este borrador “responde a las exigencias de UNESA (Asociación Española de la Industria Eléctrica), cerrando la puerta la futuro de las renovables y el autoconsumo energético. La CNE tiene 15 días para valorar el informe, aunque la resolución es simplemente informativa, no vinculante.

Ante lo que definen como envites del Gobierno de Mariano Rajoy al sector de las energías verdes , estas cooperativas de energía verde y organizaciones ciudadanas han decidido crear un frente común, que han hecho público hoy durante la rueda de prensa.

A la pregunta de si los pequeños productores van a dejar de generar y comercializar energía al margen de la patronal eléctrica, Marco, la representante de Som Energía, ha negado enérgicamente con la cabeza. Y esa es la imagen que han querido transmitir esta mañana las organizaciones convocantes. El objetivo era mandar un mensaje conjunto: “los ciudadanos tenemos el poder del consumo, o del no consumo. No nos vamos a rendir”.

Las cooperativas de energía verde Som Energia, Zencer y Goiener y la comercializadora Enerplus han sumado fuerzas con las organizaciones que fomentan las inversiones limpias entre la ciudadanía, como Viure de l’aire y Ecooo, y Fundación Terra, una organización decana en defensa de un modelo energético limpio y democrático. Y es que, como ellos mismos han confesado, el difícil momento por el que pasa el sector requiere la unión de la ciudadanía.

“Sabíamos que el Gobierno estaba preparando la reforma energética y que no iba a ser favorable para las renovables, pero es mucho peor de lo que esperábamos”, ha deplorado Cote Romero.

La prometida reforma energética “apunta directamente a los ciudadanos”, según las cooperativas. Y por esto estas organizaciones pretenden trabajar en red para defender el derecho a una energía limpia, eficiente y respetuosa basada en el interés general.

Cooperativas energéticas productoras y comercializadoras de energías se están haciendo un hueco a lo largo de la geografía española. Prueba de ello son la vasca Goiener, la cántabra Enerplus, Zencer que opera en Andalucía, Nos Energia desde Galicia o la valenciana Nercoop.

“Todas estas cooperativas deberían estar compitiendo siguiendo la lógica del sistema, pero aquí están compartiendo proyectos por el interés común. Lo que el Gobierno busca es expulsar a la competencia del mercado”, ha aseverado Romero. Las 4.000 cooperativas comercializadoras de energía limpia alemanas quedan todavía lejos. Jorge Caleya, de Enerplus, ha criticado “lo absurdo que es que Alemania sea un ejemplo en materia económica pero no en materia energética”.

“¿Merece la pena que sigamos privatizando beneficios y socializando pérdidas también en materia energética? Sigue siendo hipotecar el futuro y nosotros queremos una nueva cultura energética”, ha explicado Ángela Iglesias, de cooperativa vasca Goiener.

Estas organizaciones, que se definen como “la vanguardia del hacer en el camino hacia un nuevo modelo energético”, preparan recursos al paquete legal de la reforma energética. Por ejemplo, la Plataforma por un Nuevo Modelo Energéticose reunió la semana pasada con representantes de cuatro direcciones generales de la Comisión Europea a instancias del comisario europeo de Energia Günther Oettinger, quien, según la Plataforma, mostró “especial preocupación por el modelo retributivo” propuesto por el Gobierno.

Pagar por tu propia energía

“Imaginemos que tienes un huerto con tomates. Lo que pretende el Gobierno es que en vez de llevarte tu tomate a la boca, lo lleves a la tienda, pagues por él y vuelvas a tu casa. Eso es el ‘peaje de respaldo’”, ha explicado Pep Puig, representante de Viure de l’aire. Esta tasa es una de las novedades que recoge el borrador presentado a la CNE.

Este ‘peaje de respaldo’ podría suponer en la práctica que el pequeño productor de energía que tiene una placa fotovoltaica instalada en su casa tenga que pagar unos costes fijos altos independientemente de la energía que consuma y/o produzca. Caleya ha asegurado que el incremento que el pequeño productor va a tener que pagar por consumir su propia energía puede suponer incluso “un 50% más que si consumiese energía convencional”.

“El autoconsumo supone que el sistema eléctrico se ahorra los costes de transporte de la energía, los de pérdida en ese traslado, los de comercialización… Si éste fuese un país civilizado, no es que el Gobierno nos tendría que ayudar económicamente en la producción energética, sino que la empresa eléctrica nos tendría que pagar por todos los costes que ahorramos al sistema”, ha explicado Puig. Además, ha añadido que el balance neto, que es todavía muy desconocido en España, está existosamente implantado en países como EEUU, Holanda o Alemania. “Es hacia donde apuntan todas la mayoría de políticas energéticas europeas”, ha asegurado.

Pero los productores de energía limpia no sabrán antes de octubre en qué aguas navegan. “Creemos que hasta octubre como mínimo el Secretario de Estado de Energía, Alberto Nadal, no dirá cómo se van a hacer los cálculos para dar con esa tasa”, ha explicado Romero.

Según Puig, “estamos asistiendo a un atraco de las empresas eléctricas y el Gobierno, propio de las mafias. Están instaurando un ‘electro santa Inquisición’. Al Gobierno no se le pide que subvencione el autoconsumo, ni que ponga dinero. Aniquilar el autoconsumo no tiene ninguna justificación relacionada con argumentos económicos”.

EE UU en busca del Tesoro perdido: El Acuifero Guaraní


La presunta presencia de terroristas en la Triple Frontera, es pretexto para controlar el reservorio

La riqueza de los países pronto dejará de medirse en barriles de petróleo para medirse en litros de agua.

De esta misma manera, las guerras que hoy libran los países por poseer y garantizarse los recursos energéticos, mañana podrían estar orientadas a la dominación del vital líquido.

La Agencia Central de Inteligencia estadounidense (CIA) ha afirmado que para el 2015 el agua será una de las mayores causas de conflicto internacional.

Y es que el agua potable es un recurso cada vez más escaso. Sólo 2,5% de los recursos hídricos del planeta corresponde a agua dulce, el resto pertenece a los mares o forma parte de hielos inaccesibles o de aguas subterráneas.

Además, indica la ONU que para el 2025 la demanda de agua estará 56% por encima del suministro.

No obstante, el problema no estriba en la cantidad del vital líquido disponible, sino de la mala administración y distribución que del recurso se ha hecho, además de la falta de protección ambiental.

Esto se refleja en la situación actual del recurso en las diferentes regiones del mundo.

África, poseedor de las mayores reservas de agua potable, se muere de sed.

En Europa, sólo cinco de los 55 principales ríos del continente no están contaminados.

Mientras en Australia, la explotación irracional del recurso perjudicó el equilibrio ecológico vegetal y animal irreversiblemente.

La peor situación la vive Asia.

Todos los ríos de India están contaminados y los conflictos de la región con Israel parecen originados por la decisión de este país de apropiarse los recursos de Palestina e incluso los de Líbano y Siria.

Por su parte, las Américas cuentan con 47% de las reservas de agua potable de superficie y subterránea del mundo.

Pero en Estados Unidos, 40% de los ríos y lagos sufren contaminación. El Consejo de Defensa de los Recursos Naturales afirma que 53 millones de estadounidenses beben agua contaminada por plomo y bacterias fecales, entre otros contaminantes.

Sus ecosistemas se desmoronan, las reservas de agua se agotan y ante el panorama seco y estéril, Estados Unidos voltea sus ojos hacia Canadá, Centroamérica y Suramérica.

Manantial de riqueza. Todo bien escaso tiene un valor. En este sentido, los organismos internacionales determinaron que el agua puede ser una mercancía y ser regida por las leyes de la Organización Mundial de Comercio (OMC).

En América del Sur, los recursos hídricos abundan.

El acuífero Guaraní es el mayor reservorio de agua del continente y se constituye, en consecuencia, en un manantial de riqueza para las trasnacionales.

Desde 2001, el Banco Mundial financia proyectos de investigación y trabajos orientados al logro del desarrollo sustentable del acuífero, ante la imposibilidad de los gobiernos que comparten el reservorio de financiar los estudios.

Para muchos, es una manera de EE.UU. de tomar el control del proyecto.

Según Sara Grusky, de la ONG Water For All, el único objetivo del BM es el desarrollo industrial y competitivo a nivel mundial, sin importarles la conservación del acuífero.

Adicionalmente, un estudio realizado en Argentina por Elsa Bruzzone concluyó que la inclusión de la Triple Frontera en la agenda antiterrorista estadounidense tiene como objetivo el control del Guaraní.

La excusa de presuntas bases de Hamas, Hizbulá y Al Qaeda le ha permitido a EE.UU. aumentar su presencia militar en la región.

En febrero de 2004, el diario británico The Guardian publicó un informe secreto del consejero del Pentágono, Andrew Marshall (An Abrupt Climate Change Scenario and Its Implications for United States National Security - Peter Schwartz and Doug Randall), que sugería que EE.UU. debía prepararse para estar en capacidad de apropiarse del agua como recurso estratégico, allí donde esté y cuando sea necesario.

Cifras de la escasez: 

5.100 kilómetros cúbicos
Para 2025, el consumo de agua aumentará y los problemas que hoy recaen sobre la quinta parte de la población afectarán a dos de cada tres habitantes.

1.100 millones de personas
Según la FAO, en el mundo este número de habitantes no tiene acceso potable en la cantidad y calidad adecuada para sus necesidades diarias.

800 mil millones de dólares al año
La industria del agua, que por ahora maneja sólo 5% del agua dulce del mundo, genera grandes cantidades de dinero. El embotellamiento del líquido es una de sus actividades.

2.200 millones de habitantes
En los países subdesarrollados, las muertes asociadas con la falta de agua potable, saneamiento adecuado e higiene se cuentan por millones, que en su mayoría son niños.

Una orca de ocho toneladas salta cuatro metros fuera del agua para capturar un delfín

Una orca separa a un delfín de su manada en la costa de México, y tras dos largas horas de persecución consigue capturarlo con un espectacular salto de más de cuatro metros.










       


Buques de guerra chinos completan una vuelta alrededor de Japón


En una clara demostración de fuerza, buques de guerra chinos este mes dieron por primera vez una vuelta alrededor del archipiélago nipón, según las Fuerzas de Autodefensa japonesas.

Cinco buques de guerra chinos, entre los cuales había dos destructores de misiles, dos fragatas y un buque de reabastecimiento, entraron al mar de Ojotsk a través del estrecho de Soya, que separa la isla japonesa de Hokkaido y la rusa Sajalín, y finalmente salieron al océano Pacífico.

Según fuentes japonesas, la maniobra ha sido una clara intención de China de demostrar su poderío naval ante Japón y los Estados Unidos.

Los buques forman parte de la Flota del Mar del Norte con base en Qingdao, provincia de Shandong. Salvo la nave de reabastecimiento, todos los barcos entraron en servicio en 2006 o posteriormente.

La flota china que completó la maniobra cerca de las costas japonesas había participado en los ejercicios navales conjuntos con Rusia, llamados ‘Mar Conjunto 2013′, llevados a cabo del 8 al 12 de julio cerca de la costa de Vladivostok, ciudad del Lejano Oriente de Rusia y principal base de la Flota rusa del Pacífico.

Ese fue el primer ejercicio militar realizado de forma conjunta por los dos países en el mar del Este (o del Japón).

Tokio ve con preocupación la actividad de la Armada china a la luz del conflicto territorial con Pekín sobre el archipiélago Senkaku (Diaoyu, según China).

Fuente: RT

Japón se rearma


DECISIÓN POLÍTICA DE GRAN ALCANCE

Alega el potencial conflicto con China sobre las islas Senkaku para aumentar su gasto en Defensa por primera vez en once años.

Lo prometió durante la campaña para las elecciones de finales de 2012 que terminaron por devolverle el poder y lo ha cumplido: el primer ministro japonés Shinzo Abeha decidido aumentar en un 0.8% el gasto militar de Japón. Es la primera vez en once años que un gobierno nipón da semejante paso.

En un documento oficial de 434 páginas sobre su estrategia militar hecho público ayer, el Gobierno de Tokyo no alega directamente ningún motivo específico para justificar su giro estratégico pero dedica amplios espacios al conflicto larvado que mantiene con China: ambos países se disputan la soberanía de las Senkaku, un pequeño archipiélago inhabitado pero de gran riqueza pesquera y energética, situado a 100 millas marítimas de Japón y no muy lejos de las costas chinas.

En el último año, los incidentes alrededor de las Sekoku (Diaoyu, para China) se han multiplicado: entre septiembre de 2012 y abril de 2013 Japón ha detectado, en sus aguas territoriales,41 intrusiones por parte de China, una cifra muy superior a la de años anteriores.

Lo mismo cabe decir de los incidentes aéreos: según las autoridades japonesas, en 2012 comprobó 567 vuelos de cazas, frente a 425 en 2011. Asimismo, el año pasado, y por primera vez las misiones aéreas japonesas en respuesta a las chinas superaron a las rusas.

Un cúmulo de escaramuzas lo suficientemente importante como para que Japón considere -por primera vez de forma oficial- que China está intentando provocar un cambio de la situación actual Para Tokio, “China aplica tácticas despóticas encaminadas a forzar un cambio en el status quo e insistiendo en sus reivindicaciones que son incompatibles con lo establecido por el derecho internacional”. A continuación, el documento no duda en afirmar que varias de las acciones llevadas a cabo por el Gobierno de Pekín “son peligrosas y podrían acarrear consecuencias no deseadas”.

No es la única afirmación contundente contenida en el documento oficial, que rezuma un tonillo nacionalista poco habitual en la retórica gubernamental japonesa. Por ejemplo, en el prólogo, firmado por el titular de la cartera de Defensa, Itsunori Onodera, se puede leer que los factores de desestabilización para la seguridad de Japón “son cada vez más pronunciados, agudos y problemáticos” o que el Imperio del Sol Naciente “protegerá la vida de sus ciudadanos, sus intereses y su integridad territorial -la terrestre, la marítima y la aérea- hasta el final”.

Unas palabras que antes de final de años -cuando se conozcan las líneas maestras de la estrategia de Defensa a largo plazo- podrían suponer un cambio histórico en el carácter estrictamente defensivo -oficialmente se llaman las Fuerzas de Autodefensa- de los Ejércitos japoneses. 

Por mandato de la Constitución de 1947, Japón renuncia para siempre a la guerra. Sin embargo, el mandato podría sufrir algunos boquetes si el Gobierno de Abe decide -tal y como se contempla en los borradores disponibles de las líneas maestras de la Defensa- permitir que Japón pueda lanzar ataques anticipatorios en bases enemigas situadas en el extranjero o apuesta por la creación de una fuerza anfibia similar al Cuerpo de Marines estadounidense.

Si se aprueban estos y otros proyectos, a Japón le podrían ser especialmente útiles en relación con Corea del Norte. La agresividad atómica de la que hace gala el régimen comunista de Pyongyang es motivo de preocupación para Tokio desde hace tiempo. De ahí que el documento del ministerio de Defensa describa el desarrollo de los misiles balísticos norcoreanos -combinados con una capacidad atómica en aumento- como “un problema que, para la comunidad internacional en sentido amplio, se convierte en apremiante según pasan los días”.

En principio, tanto el el caso de China como en el de Corea del Norte, Japón puede contar con el apoyo de Estados Unidos, con quien le une un tratado de cooperación y seguridad desde 1960 que, entre otros aspectos incluye a las Senkaku. Sin embargo, dentro de sus nuevas ambiciones, Abe pretende recuperar territorio a las bases aéreas norteamericanas instaladas en Okinawa y desplazar hacia un lugar más discreto al en la isla de Okinawa y desplazar hacia un lugar más discretos al destacamento de Marines estacionado en la misma isla. ¿Le dejará Obama?

JOSE MARÍA BALLESTER
El confidencial

Prosigue la CIA sus investigaciones sobre la Manipulación del Clima


La Academia de Ciencias de Estados Unidos realizará durante 21 meses un programa de estudios sobre «Ingeniería del clima: evaluación de técnicas y discusión de impactos» [1]. Se trata de una información en la que nadie habría reparado si la publicación bimestral Mother Jones no hubiese revelado que el financiamiento de dicho programa proviene de la CIA [2].

Hasta el año pasado, la CIA tuvo su propio laboratorio de investigaciones sobre el clima. Pero la agencia acabó viéndose obligada a cerrarlo porque el Congreso estimó que el objetivo de la CIA es perseguir «terroristas en cuevas, no osos polares en icebergs», según la frase del senador republicano John Barrasso, del Estado de Wyoming. El anunciado programa de la Academia de Ciencias de Estados Unidos es en realidad una manera de conservar un programa de interés para la CIA insertándolo en una institución externa aparentemente no vinculada al espionaje estadounidense.

Oficialmente, el estudio en cuestión no pasa de ser una evaluación de las técnicas actuales. El hecho es, sin embargo, que Estados Unidos ya tiene un largo pasado en materia de manipulación del clima.

Al término de la Segunda Guerra Mundial, la Marina de Guerra de Estados Unidos desarrolló el programa Cirrus, cuyo objetivo era modificar los huracanes mediante el bombardeo de nubes con yoduro de plata. Cirrus fue reactivado posteriormente –de 1963 a 1971– bajo la denominación Stormfury. Pero los resultados no fueron concluyentes.

Al mismo tiempo, durante la guerra estadounidense contra Vietnam, la US Air Force emprendió la operación Popeye, cuyo objetivo era provocar lluvias torrenciales para impedir el flujo de armas a través de la pista Ho Chi Minh [3]. De 1967 a 1972, las lluvias provocadas fueron tan intensas que Estados Unidos y la Unión Soviética concluyeron en 1977 una Convención Internacional que prohíbe la guerra climática.

A pesar de los riesgos que presenta la modificación de las condiciones climáticas, las grandes potencias nunca renunciaron a sus estudios en ese sentido, que siguen siendo legales. Por ejemplo, la US Navy y la US Air Force financian hoy en día el proyecto HAARP para la modificación del clima a través del uso de ondas de alta frecuencia.

Expertos consideran posible que varias tempestades enteramente atípicas registradas en los últimos años, esencialmente en Europa y China, hayan sido intensificadas artificialmente.

Con un financiamiento ascendente a 630 000 dólares, el estudio de la Academia Nacional de Ciencias de Estados Unidos permitirá identificar las hipótesis de trabajo y las técnicas más prometedoras.


[2] «CIA Backs $630,000 Scientific Study on Controlling Global Climate», por Dana Liebelson y Chris Mooney, Mother Jones, 17 de julio de 2013.

[3] Operation PopEye, conocida también como Operation Intermediary uOperation Compatriot (con 2 602 vuelos de aviones del tipo C-130 entre el 20 de marzo de 1967 y el 5 de julio de 1972). Ver: «Rainmaking Is Used As Weapon by U.S.; Cloud-Seeding in Indochina Is Said to Be Aimed at Hindering Troop Movements and Suppressing Antiaircraft Fire Rainmaking Used for Military Purposes by the U.S. in Indochina Since ’63», por Seymour Hersh, The New York Times, 3 de julio de 1972. Spacecast 2020: Into the Future. The U. S. Air Force Vision of Their Future, Possibilities, Capabilities, Technologies in the Pursuit of National Security objectives, US Department of Defense, Air University, 1994. En realidad, el Pentágono tenía una unidad de investigación en materia de guerra medioambiental, designada comoDefense Environmental Services y creada por Cyrus Vance en 1966.

México se indigna ante 'el vídeo de la vergüenza'

Son sólo 36 segundos bajo el título 'Abuso de autoridad' pero en menos de 24 horas han sido vistos por más de 750.000 personas, comentados por casi 6.000 y han indignado a todo México.

El 'vídeo de la vergüenza', que según algunos cibernautas es un ejemplo de cómo se ejerce el poder en el país y de la prepotencia de muchas autoridades públicas, muestra a un funcionario del ayuntamiento de Villahermosa (Tabasco) que 'decomisa' unas cajetillas de tabaco a un niño que se gana la vida como vendedor ambulante y le obliga a tirar al suelo sin ningún motivo todos los dulces que lleva en su cesta. 

El pequeño llora desconsoladamente y queda hecho un mar de lágrimas, en cuclillas en plena calle.

El funcionario fue identificado como Juan Diego López Jiménez, un inspector del gobierno municipal al que no le importó en absoluto que alguien grabara su conducta y siguió humillando al niño antes de quedarse con los paquetes de tabaco ante la mirada impasible de su acompañante.

Al conocerse su nombre, el director de Fomento Económico de la localidad, Faustino Torres, dijo que se levantaría un acta contra el trabajador, palabras que, en lugar de apaciguar la situación provocaron todavía más indignación en las redes sociales. 


Horas después, el ayuntamiento –gobernado por la coalición de izquierdas PRD-PT Movimiento Ciudadano- emitía un comunicado en el anunciaba el cese definitivo del funcionario por un "hecho lamentable que agravia y vulnera los derechos humanos de los niños" y que había sido "condenado con toda razón por la opinión pública".

El vídeo lo tomó un cámara de la televisión local TVX, Carlos Góngora, que contó después cómo la humillación del menor, originario de Chiapas, se había iniciado antes de comenzar a grabar. "Este cuate, desde que lo vi, lo empezó a extorsionar y a molestarlo. 

Llegó al grado de que lo jaló la canasta y el niño se aferró y lo llevó arrastrando con todo y canasta, mientras él caminaba. Entonces lo enfrenté y le pregunté por qué se lo llevaba y me dijo que por los cigarros", explicó al diario 'Milenio'.

"Dijo que era de fiscalización y que se lo tenía que llevar, opté por empezarlo a grabar, en ese lapso fue que lo arrastró con todo mientras le decía al niño que mejor tirara los dulces porque lo iba a remitir con todo lo que traía, ante lo cual el niño optó por hacer caso. 

Al ver que la gente le empezó a gritar y más que lo estaba grabando, este cuate se sintió intimidado y lo soltó".
La Comisión de Derechos Humanos del estado anunció que interpuso una queja de oficio por este abuso de autoridad. Sus trabajadores lograron localizar al pequeño y a una tía suya con la que vivía. Se trata de un indígena chiapaneco que no habla bien español y con el que se tuvieron que comunicar mediante un traductor. La comisión le ofreció apoyo médico, psicológico y jurídico .

María Verza | México