miércoles, 11 de octubre de 2017

La prehistoria de la memoria del agua

La controversia entre los partidarios y detractores de la homeopatía, que ya dura más de un siglo, tiene un antes y un después de la introducción de la llamada "memoria del agua", tras la publicación en Nature, el 30 de junio de 1988, de un artículo firmado por el grupo liderado por el médico e investigador francés Jacques Benveniste. Dicho artículo trataba de la activación de ciertos glóbulos blancos (daré más detalles después) por unas disoluciones de un anticuerpo que, como los mismos autores reconocían en el texto del artículo, eran tan diluidas que estaban más allá del límite de Avogadro o, contado para que todo el mundo lo entienda, se había diluido tanto la disolución de partida del anticuerpo que era imposible que esas altas diluciones contuvieran ni una sola molécula del mismo. Algo que tiene mucho en común con los remedios homeopáticos, una gran parte de ellos preparados a esas altas diluciones, antes de ser evaporados sobre los gránulos habituales.

Desde entonces, hace ya casi treinta años, médicos y científicos partidarios de la homeopatía siguen buscando el fundamento de esa posible "memoria" y, en años más recientes, la cosa se está poniendo casi imposible de seguir a quien no tenga unos conocimientos más que básicos de la estructura del agua líquida, de alta biología o, incluso, de mecánica cuántica. No llegaré a tanto en esta entrada. Al hilo de un par de libros que he leído recientemente en torno a Benveniste y la "memoria del agua", me propongo contaros la historia previa a la publicación del famoso, y polémico, artículo que dio lugar a ese concepto. Tiempo habrá para considerar las posteriores derivas del asunto.

A principios de este año Guillermo Peris, un Profesor de la Universitat Jaume I, al que sigo en Twitter, me comentó en una conversación privada que estaba leyendo un libro aparecido en 2016 bajo el título "Ghosts of molecules", escrito por Francis Beauvais, uno de los firmantes del mencionado artículo de Nature. Se trata de la versión en inglés de la segunda edición francesa, aparecida en 2015, que corregía y aumentaba la primera edición, publicada también en francés en 2007. Se puede descargar gratuitamente aquí esa segunda edición en ambos idiomas. El libro está estructurado en dos partes bien diferenciadas que tienen como frontera el acontecimiento de la propia publicación del artículo de Nature. Lo he leído y releído varias veces desde entonces y, gracias a él, he descubierto otro libro, una obra póstuma del propio Benveniste, publicado por tres de sus hijos bajo el título "Ma verité sur la memoire de l'eau" que, en formato pdf y en francés, os podéis descargar gratuitamente aquí.

A través de ellos he descubierto la compleja personalidad del citado Jacques Benveniste, alguien que quería ser piloto de carreras en su juventud y estudiar Ingeniería Mecánica para estar cerca de los coches pero que, finalmente y por una serie de razones, acabó estudiando Medicina. Tras un periodo de diez años como médico en diferentes Hospitales de París, comenzó a simultanear su trabajo de médico con el de investigador en Inmunología en el Instituto del Cáncer (CNRS) de Villejuif. En esa situación le pilló la atmósfera previa y posterior del mayo del 68 en el que, como militante del PS francés, tuvo sus más y sus menos con relevantes figuras del panorama médico e investigador del país de los galos, incluido el Premio Nobel de Medicina de 1965 André Lwoff. Otro hecho que muestra su carácter inconformista son sus críticas reiteradas (por ejemplo, en la Tribune Libre del periódico Le Monde) sobre el sistema de mandarines que controlaba el panorama médico y científico de la Francia del momento. Sea por ese ambiente irrespirable para él o por otras razones que no quedan claras, a principios de 1969 aceptó un contrato de la Scripps Clinic and Research Foundation en La Jolla, California, Institución dirigida por el Prof. Frank Dixon, uno de los pioneros de la inmunología.

A partir de ese momento inició lo que debería haber sido una exitosa carrera científica (y en parte lo fue), que puso sus cimientos en una serie de artículos en prestigiosas revistas sobre el llamado Factor Activador de Plaquetas (PAF), una especie de mediador entre los glóbulos blancos y las plaquetas, con importantes repercusiones en fenómenos ligados a las alergias y a otras patologías inflamatorias.

De vuelta en Paris, tres años después, con una aureola de investigador de prestigio pero controvertido en los medios de su país, Benveniste acabo creando una unidad de investigacion sobre "Inmunopatología de la alergia y la inflamación", la Unidad 200 del INSERM (Instituto Nacional de la Salud e Investigación Médica), que pronto creció en dinero y personal, y entre cuyas líneas estaba el estudio de los basófilos, un tipo de glóbulos blancos que juegan un papel importante en las reacciones alérgicas. En presencia de alérgenos como el polvo, el polen, la clara de huevo, etc., esos basófilos pierden unos gránulos existentes en su citoplasma (un proceso llamado degranulación), liberando al mismo tiempo ciertas sustancias como la histamina.

En esa unidad apareció a principios del año 1980 Bernard Poitevin, que finalmente también firmaría el trabajo de Nature, un estudiante de doctorado que había empezado su Tesis sobre el mediador PAF descubierto por Benveniste. Pero Poitevin era también médico homeópata y entre finales del 81 e inicios del 82 propuso a Benveniste realizar experiencias sobre los efectos de los preparados homeopáticos en modelos biológicos de laboratorio. Benveniste le dejó hacer, entre otras cosas porque Poitevin venía con dinero debajo del brazo, de la mano de los Laboratorios Homeopáticos de Francia (LHF). En esas mismas fechas, Boiron, una de las grandes empresas de homeopatía hoy en día, se puso en contacto con Benveniste para tratar de reproducir en su laboratorio ciertos resultados obtenidos por Jean Saint-Laudy (que también aparece como autor en el artículo de Nature), un médico de un laboratorio privado que había utilizado un método ideado por Benveniste para contar, bajo un microscopio, los basófilos que se degranulaban. Boiron acabó firmando otro contrato con Benveniste en 1983, año en el que esa empresa absorbió a los Laboratorios Homeopáticos de Francia. Hay que decir también que, en esa época, el Laboratorio de Benveniste recibía la parte más relevante de su financiación exterior de importantes empresas farmacéuticas.

Así que ya tenemos un pequeño germen de experiencias homeopáticas en el seno del Grupo de Benveniste. Saint-Laudy trabajando sobre el efecto inhibidor de la histamina a altas diluciones en la degranulación de basófilos y Poitevin en el mismo efecto pero utilizando para ello un conocido preparado homeopático, Apis Mellifica, obtenido a partir de un extracto (o tintura madre) en alcohol de abejas machacadas y diluido muchas veces. Según las memorias de Benveniste, él no creía en absoluto en que una alta dilución de algo pudiera tener actividad biológica pero cuando Poitevin empezó a presentarle ciertos resultados que contradecían su opinión, empezó a picarle la curiosidad. En setiembre de 1984 Pointevin presentó sus primeros resultados sobre la Apis Mellifica en un Forum de Jóvenes Investigadores y, en enero de 1985, Benveniste impacta a los medios franceses cuando, en una Mesa Redonda organizada por la revista Impact-Medicine, dice que las altas diluciones ya no son un problema de la homeopatía y, para avalar esa opinión, presenta los resultados de Pointevin. Todo hay que decirlo, la Ministra francesa de Sanidad de la época era favorable a las medicinas alternativas y a que los remedios homeopáticos se reembolsaran por la Seguridad Social francesa.

A principios de 1986, Benveniste hace circular, a nivel interno de su Grupo, un primer manuscrito que pretendía enviar a Nature y en el que se resumían los resultados de la inhibición de la degranulación de basófilos causada por la Apis Mellifica y la histamina a altas diluciones. En esa consulta interna, alguien apuntó los problemas que podría causar en el Consejo Editorial de Nature la mención en el artículo a preparados homeopáticos. Tomando en cuenta esa sugerencia, Benveniste decidió eliminar los resultados de la Apis Mellifica (que se enviaron a otra revista) y centrarse solo en la histamina a altas diluciones. Tras esos cambios, en junio de 1986, el artículo se envía a Nature, que lo rechaza en noviembre de 1986 pero abriendo la puerta a reconsiderarlo si otros laboratorios confirman los resultados.

A partir de ahí, en unos frenéticos 1987 y 1988, Benveniste y los editores de Nature mantienen una dura pelea que configura la versión final del artículo que finalmente se publicará en la revista. Por un lado, se realizan ensayos en otros laboratorios situados en Milán, Toronto y Tel-Aviv, con resultados no siempre favorables a las tesis de Benveniste, como ocurrió en Israel. Al mismo tiempo, se produce un cambio importante de estrategia que afectaría sustancialmente al contenido del artículo finalmente publicado. Durante las experiencias con la histamina, se adicionaba a las muestras de basófilos cantidades de un anticuerpo, el denominado anti-inmunoglobulina E (anti-IgE) para provocar una degranulación previa y poder ver así el efecto de las diluciones de histamina a la hora de inhibirla. En esos meses, el grupo de Benveniste cree tener resultados que muestran que la anti-IgE es capaz de activar la degranulación no solo a concentraciones habituales sino a muy altas diluciones, de nuevo por encima del límite de Avogadro. Eso hace que el interés del grupo pase de considerar altas diluciones de histamina que inhiben la degranulación a altas diluciones de anti-IgE que la provocan.

En agosto de 1987 Benveniste envía un segundo manuscrito que solo contenía resultados de la activación de la degranulación por altas diluciones de anti-IgE. El editor de Nature, John Maddox, contesta en noviembre rechazando el artículo. Benveniste se cabrea y lo manifiesta por correo y por teléfono y, de nuevo, Nature abre una puerta (finales de enero de 1988) pidiendo que se complete el artículo con una explicación de los mecanismos por los que una dilución tan alta, en la que no puede haber ni una sola molécula de anti-IgE, puede causar ese efecto de activación. Benveniste le contesta el 2 de febrero de 1988 en una carta en la que, como posibles causas, ya aparecen términos como "moléculas fantasmas" (que da lugar al título del libro que ilustra esta entrada) que "pudieran estar compuestas por moléculas de agua ordenadas previamente en torno a la molécula de anti-IgE".

Entre marzo y abril de 1988 hay nueva correspondencia y llamadas de teléfono entre Benveniste y Maddox y se introducen pequeños cambios en el texto. A finales de abril, Benveniste se va a las Bermudas a un Congreso en el que participan varios Premios Nobel, donde pronuncia una conferencia sobre las altas diluciones que, según él, atrajo el interés de muchos de ellos. En una nueva carta enviada desde allí a Nature, aparece una referencia al Prof. Emilio Dei Giudice, de la Universidad de Milán, autor de una teoría sobre "la organización de dipolos de agua, creando una campo electromagnético que puede reproducir el previamente originado por la molécula que estamos diluyendo".

El 27 de mayo de 1988 se celebra un Congreso Nacional de Homeopatía en Estrasburgo. Las crónicas enviadas desde allí por los corresponsales de Le Monde y Liberation parecen estar en el origen del término "memoria del agua". Le Monde reproduce frases de una rueda de prensa de Benveniste hablando de "un efecto molecular sin molécula" o de "moléculas fantasmas, de improntas moleculares, de un agua que habría conservado el recuerdo de las sustancias con las que ha estado en contacto”. La idea de que el agua pudiera tener memoria empieza a materializarse pero parece que el término exacto "memoria del agua" lo introdujo el corresponsal de Liberation en una crónica fechada el 30 de mayo. La personalidad desbordante de Benveniste fue más allá en esas declaraciones y llega a decir esos días que “El procedimiento que hemos usado es similar a agitar las llaves de un coche en el Sena, en el Pont-Neuf, y luego coger unas gotas del río en la desembocadura de El Havre y hacer que arranque ese coche y no otro”.

El caso es que, probablemente, el eco de las últimas declaraciones de Benveniste en los medios franceses fuera la causa por la que Maddox, el editor de Nature, diera su brazo a torcer y publicara el artículo el 30 de junio de 1988. En él, las altisonantes frases anteriores se matizan bastante y se resumen en una corta explicación sobre el sorprendente efecto de las altas diluciones: "El agua puede actuar como un “molde” para la molécula, por ejemplo a través de una red de enlaces de hidrógeno o merced a campos eléctricos y magnéticos. En el momento presente, sólo podemos especular sobre la naturaleza de la actividad específica presente en las disoluciones altamente diluidas".

A partir de la publicación del artículo empezaron las desgracias para Benveniste y su Grupo. El INSERM no le respalda en lo relativo a las altas diluciones y él tiene que admitir que una curiosa Comisión nombrada por Nature (con el mago Randi incluido) visite su laboratorio y asista a una repetición de los experimentos, que los comisionados consideraron llenos de errores experimentales y estadísticos. Y tras esos dos reveses y como él mismo cuenta: "A partir del otoño de 1988 y, en pocas semanas, me convierto en un paria de la Ciencia. Prácticamente ningún científico francés acepta ver su nombre junto al mío".... "En los medios de la homeopatía, no se me proporciona más que un soporte mínimo, por no decir altamente diluido. En junio de 1988 tras la euforia de la aparición del artículo, Boiron, cuyo Director científico es uno de los firmantes (Poitevin) del mismo, me había anunciado créditos ilimitados a mi disposición. Un mes más tarde, la Dirección de la empresa estima que si el INSERM no apoya mis investigaciones, no puede seguir financiándome. El dinero se corta brutalmente en junio de 1989. Las ratas abandonan el barco".

Benveniste no dio su brazo a torcer y siguió hasta su muerte defendiendo la validez de sus experimentos con las altas diluciones de moléculas de actividad biológica. Pero eso forma parte ya de la segunda parte del libro de Francis Beauvais y se queda para otra entrada que esta ya es larga y un poco prolija.

Leer mas...

lunes, 18 de septiembre de 2017

Química e indicadores paleoclimáticos (I)

Raro es el día que los medios de comunicación no nos bombardean con alguna noticia relacionada con el calentamiento global y sus consecuencias. Una parte de esas informaciones describen datos experimentales contrastables, como el aumento en la concentración de CO2 en la atmósfera, el aumento de la temperatura global del planeta o la disminución del pH en los océanos. Pero una parte no menos importante de esas informaciones se refieren a predicciones sobre lo que va a pasar con esas cuestiones en un futuro más o menos próximo que, por el momento, suele cifrarse con fecha tope en 2100. Se supone que van destinadas a nuestros políticos, para que tengan argumentos a la hora de tomar medidas paliativas ante los efectos de esos cambios, pero creo que a nadie se le escapa que el tratamiento que los medios hacen de esos pronósticos es, muchas veces, bastante catastrofista.

Las mencionadas predicciones se realizan a base de modelos matemáticos, más o menos sofisticados, a los que viene bien disponer de datos experimentales del pasado para comprobar su fiabilidad. Solo así puede uno tener una idea razonable de las posibilidades de ese modelo a la hora de ponerlo a trabajar en la predicción del futuro, algo siempre complicado y, especialmente, en un sistema tan caótico como el clima a largo plazo.

El problema es que no tenemos tantos datos sobre el pasado. Por ejemplo, la magnitud emblemática en el calentamiento global, la temperatura en diferentes lugares de nuestro planeta, se empezó a medir a finales del siglo XVII desde cuando, excepcionalmente, tenemos registros de lo que se conoce como Temperaturas de la Inglaterra Central (CET). En otros países existen también estaciones emblemáticas que acumulan datos desde mediados del XIX o posteriores. El observatorio de Igueldo, en mi pueblo, comenzó en fecha relativamente tardía (1928) aunque es de los más veteranos de España. Pero muchas de esas estaciones tempraneras pertenecen al Hemisferio Norte, con lo que deducir de ahí una temperatura global de la Tierra y su evolución durante los pasados decenios o siglos es realmente aventurado. Y ya no digamos de registros de la temperatura de los océanos, principales constituyentes del planeta azul, de los que casi no ha habido registros hasta muy recientemente. Y lo mismo pasa con otras medidas que ahora nos interesan, como las mencionadas relativas a la concentración de CO2, al pH de los océanos o a cosas como el nivel del mar.

Pero, como dicen los meteorólogos, el clima no es "el tiempo". Predecir el clima hasta 2100 (o más allá) no es predecir el tiempo meteorológico a cinco días vista. Y los modelos necesitan, como he mencionado antes, tener datos de muchas variables, extendiéndose muchos siglos hacia atrás, para comprobar previamente la fiabilidad de sus predicciones futuras. Y ello solo es posible, indirectamente, gracias a una serie de herramientas que se ha dado esa rama de la Ciencia que llamamos Paleoclimatología y que se agrupan bajo la denominación de Indicadores Climáticos (o Climate Proxies, en la literatura en inglés). Como muchos de esos indicadores están basados en conceptos y técnicas analíticas ligadas a la Química, bien merece que hablemos aquí de ellos. Aunque, me temo, eso va a dar para más de una entrada.

Los testigos de hielo (Ice Cores) tomados de glaciares y regiones del planeta permanentemente cubiertas por hielo, son una excelente fuente de indicadores climáticos con resonancias químicas. Por ejemplo, tanto Groenlandia como la Antártida tienen espesores de hielo de tal magnitud y pureza que nos permiten extraer de ellas cilindros de hielo, como el que veis en la figura que ilustra esta entrada (y que podéis ampliar clicando en ella). Estos gélidos "chorizos" permiten estudiar diversas variables acumuladas en su interior, en intervalos de tiempo que cubren 100.000 años en el caso de Groenlandia y 400.000 o más en el caso de la Antártida.

Con esos "testigos" en el laboratorio son varias las variables ligadas al calentamiento global que podemos estudiar. Por ejemplo, la composición de la atmósfera y su evolución. Cuando en estos lugares de climas extremos nieva, nuevas capas de hielo se generan a partir de la nieve y se acumulan sobre las anteriores. En el tránsito entre los copos de nieve y el hielo consistente, el aire de la atmósfera del momento queda ocluido en el hielo y, con él, los diferentes gases constitutivos de esa atmósfera, nitrógeno, oxígeno, CO2 y, en menor medida, otros gases como el metano y óxidos de nitrógeno.

Así que si capturamos por algún procedimiento esos gases a diferentes niveles de los "chorizos" de hielo y los analizamos, podemos reconstruir la evolución de la composición de la atmósfera en esos gases a lo largo del tiempo. Y así si vais a este enlace, podéis ver la evolución en la atmósfera en lo relativo al CO2,, metano y óxido de nitrógeno en uno de los testigos más mencionados en la literatura, obtenido en la Antártida y que cubre los últimos 800.000 años. Y si ya os centráis, a partir de esos datos, en el último milenio, parece evidente que, sobre todo en las últimas décadas, el contenido de la atmósfera en esos gases ha crecido de forma clara, particularmente en lo relativo al CO2, cuya concentración está expresada en partes por millón (ppm), mil veces superiores a las partes por billón (ppb) de los dos otros gases. Ese crecimiento ha sido confirmado en años recientes (a partir de 1959) por las medidas realizadas en el Laboratorio hawaiano de Mauna Loa, dedicado a este fin.

Pero el hielo de los testigos proporciona mucha más información. El hielo es agua y, en tanto que agua, sus moléculas están constituidas por átomos de hidrógeno y átomos de oxígeno. Aquí, para los que ya han olvidado su Química del bachillerato, tengo que recordar que cualquier átomo está constituidos por protones, electrones y neutrones. Estos últimos, los neutrones, para un determinado átomo, pueden variar, dando lugar a los llamados isótopos. Por ejemplo el hidrógeno más común tiene un protón, un electrón y ningún neutrón, pero hay un isótopo del hidrógeno que tiene un neutrón en su nucleo y que llamamos Deuterio. Lo mismo pasa en el oxígeno. El oxígeno normal (oxígeno-16) tiene 8 protones, 8 electrones y 8 neutrones, pero el llamado oxígeno-18 tiene 10 neutrones y no ocho. Como consecuencia de ello, un átomo de deuterio pesa más que un átomo de hidrógeno normal y un átomo de oxígeno-18 pesa más que uno de oxígeno-16.

La mayoría de las moléculas de agua están constituidas por un oxígeno-16 y dos hidrógenos normales. Pero hay otras combinaciones de isótopos de hidrógeno y oxígeno que dan lugar a "otras aguas". Las más relevantes para esta discusión son la constituida por dos hidrógenos normales y un oxígeno-18 y la constituida por un hidrógeno normal, un deuterio y un oxígeno-16. Estas dos últimas, y muy minoritarias, formas del agua son más pesadas que el agua de toda la vida que llena ríos, lagos y océanos de la Tierra. Cuando el agua de estos lugares se evapora, el agua normal y mayoritaria lo hace con mayor facilidad que las dos formas minoritarias, por ser menos pesada, con lo que el vapor de las nubes que se forman en esos lugares suele llevar una proporción del agua convencional superior a la que se da en los océanos. Pero cuando ese vapor viaja en forma de nubes hasta los polos y condensa para caer en forma de nieve, caen en mayor proporción relativa las moléculas más pesadas de agua, las que contienen los isótopos deuterio y oxígeno-18. Este lío de diferentes moléculas de agua hace que el análisis de la concentración de deuterio y oxígeno-18 en el hielo de los testigos permita reconstruir la velocidad a la que el agua se ha evaporado desde los océanos y ha acabado como nieve en los polos. Como la evaporación del agua y posterior caída en forma de nieve depende de la temperatura, uno puede reconstruir la temperatura ambiente mediante los análisis mencionados. Un poco complicado pero creo que suficientemente entendible.

Este tipo de análisis ha permitido, por ejemplo, reconstruir la temperatura de los últimos 800.000 años a partir de las variaciones en la composición en deuterio de testigos de hielo tomados en la Antártida. Y así, en esta figura, se muestran esos datos junto con la evolución de la composición en CO2 de la atmósfera, obtenida a partir del análisis del aire atrapado en esos mismos testigos. Se ve que hay una correlación entre uno y otro tipo de datos, mostrando los cambios que ambos han sufrido a lo largo de ese extenso período de tiempo.

A raíz de este tipo de gráficas hay algunos encendidos debates sobre qué fue antes "el huevo o la gallina" y las implicaciones que eso tiene en la situación actual. Aunque, en principio, parece que en épocas pasadas la subida de temperaturas fue anterior a la subida en la concentración del CO2, dicen algunos de los que saben de esto que, en el momento presente, esa correlación puede invertirse al ser nosotros los que estamos forzando la subida en la concentración de ese gas.

Pero hasta ahí no llego. El Búho necesitaría otra vida para leer mucho más sobre estas cosas y tener una opinión fundada al respecto. Aunque sobre otros indicadores climáticos creo que lo tengo más claro. Pero eso da para otro post.

Leer mas...

jueves, 31 de agosto de 2017

El Sr. Perkin y el Heno de Pravia

Dadas las proclamas que envuelven el marketing de los perfumes, seguro que muchos de vosotros pensáis que la mayoría de los productos de marcas caras y conocidas son un delicado equilibrio entre extractos de diferentes flores, conseguido gracias a ese portentoso órgano que llamamos nariz y que es la herramienta más potente de los perfumistas más afamados. Pues bien, eso no es así. Salvo raras excepciones, el adjetivo más representativo para denominar a esa compleja mezcla de aromas que llamamos perfume podría ser el de semisintética. Es decir, algunos de sus componentes se extraen, efectivamente, de flores y plantas pero otros muchos son de carácter sintético, comercializados por grandes empresas dedicadas a ello. Y que no sólo han generado moléculas nuevas con aromas característicos e innovadores, sino que han reproducido en el laboratorio míticas moléculas de determinadas esencias, obtenidas a partir del mundo vegetal (o animal, pero eso es otra historia que conté hace poco). La proporción entre uno y otro tipo de componentes puede variar pero, a nivel global, podemos decir que casi el 90% en peso de lo que se emplea en un perfume es de origen sintético. Como estos productos son más baratos que los extraídos de plantas muy codiciadas por los perfumistas, muchas veces el precio es indicativo de la cantidad de extractos naturales que llevan.

Y sobre una molécula, originariamente extraída de la naturaleza y hoy usada, en su mayor parte, como sustancia química pura producida a nivel industrial, va esta entrada. Se trata de la cumarina, una molécula clave en el desarrollo de la industria del perfume a finales del siglo XIX. Pero antes, vamos a enfocar la entrada desde otro punto de vista, lo que estoy seguro placerá mucho a mis lectores de Irún, donde tengo algún que otro fiel seguidor.

Pravia, como muchos de vosotros seguro que sabéis, es una localidad asturiana. Pero probablemente no la asociéis a la marca comercial Heno de Pravia, ese conjunto de productos de perfumería desarrollados por la empresa creada por un irundarra de pro, Salvador Echeandía Gal, bajo el nombre de Perfumería Gal, que después fue englobada en el grupo Puig. A los futboleros os sonará el nombre del Stadium Gal, donde juega el Real Unión de Irún, en unos terrenos cedidos por el propio Echeandía. Dice la historia que en 1903 el mencionado Echeandía, junto con un amigo, Lesmes Sainz de Vicuña, también originario de la villa fronteriza, andaban de viaje por Asturias cuando quedaron prendados del olor a hierba recién cortada en un prado cercano a Pravia. Y no pararon hasta reproducir ese aroma en un producto, su jabón Heno de Pravia, que aún hoy en día se vende como rosquillas y prácticamente en todo el mundo, junto a otros productos como colonías, desodorantes, cremas de afeitado. Y la Química tuvo mucho que ver en este asunto, entre otras cosas porque otro Echeandía Gal, Eusebio, era un químico muy viajado para la época, con estudios en Berlín.

El día de fin de año de 2013, os contaba yo el descubrimiento por chiripa de la mauveína, un producto que abrió la veda a una gran parte de la gama de colorantes sintéticos que hoy se emplean en el mundo. El autor del descubrimiento fue un imberbe (18 añitos) William H. Perkin, que andaba a la búsqueda de la quinina y que por chiripa y a espaldas de su jefe, A.W. von Hoffmann, llegó a la mauveína. Mantuvo en secreto el descubrimiento, lo patentó y creó un imperio que le hizo lo suficientemente rico a los 30 como para dejar sus negocios a la familia y seguir dedicándose a lo que más le gustaba, generar nuevas moléculas de potenciales aplicaciones.

Y como no tenía un pelo de tonto, enseguida se dio cuenta de que uno de los productos que obtuvo en esos primeros años de andar a la suyo (1868), fue la cumarina, una sustancia que había sido aislada en los años veinte del siglo XIX a partir de la llamada Haba Tonka, que no es otra cosa que la semilla de un árbol llamado Dypterix odorata. Como en los casos de la vainilla y de la goma garrofín, que ya hemos visto en otras entradas, son esas vainas secas las que acumulan diversas sustancias que constituyen su aroma característico. En el caso que nos ocupa y entre otras sustancias constitutivas, el principal aroma del Haba Tonka lo da la cumarina, que se encuentra en ella en un porcentaje entre el 1 y el 3%. En cualquier caso, no son esas habas la única fuente de este aroma, igualmente presente en cosas como la vainilla, en la canela, en algunas variedades de hierba, en los tréboles, etc.

La irrupción de la cumarina sintética de Perkin en el mundo de la perfumería se produjo en 1882 en el famoso y hoy ya desaparecido Fougère Royal, una creación del perfumista Paul Parquet para la empresa Houbigant. Parquet usó cumarina en una concentración al 10%, junto con lavanda, geranio y musgo de roble en un intento de reproducir el aroma de los helechos (Fougère en francés). Desde entonces, han sido casi innumerables los perfumes que han seguido esa senda, perfumes que suelen agruparse dentro de la gama Fougères. Por ejemplo, la cumarina ha sido y sigue siendo un componente fundamental en la paleta olfativa de la casa Guerlain, en perfumes como el mítico Jicky o su famoso y selecto Tonka Imperiale, pero otras muchas casas famosas lo han empleado (Dior, Chanel, Givenchy...). Aunque no está del todo claro en la historia de la génesis del Heno de Pravia, muchos que saben del tema piensan que algo oyó Echeandía en la época sobre las ideas de Parquet y con ayuda del químico de la familia lo aplicó a su búsqueda del jabón que le ha hecho famoso. El nombre cumarina sigue apareciendo en algunas etiquetas de la marca Heno de Pravia, aunque por razones que explico debajo, quizás se hayan buscando fórmulas alternativas a su uso.

Porque si hoy Parquet se hubiera puesto a crear el Fougère Real no lo hubiera tenido fácil. Como otros muchos componentes de las cosas que nos aplicamos para oler bien, la cumarina ha tenido sus problemas "sanitarios" ligados a la creciente quimiofobia que nos invade y que hace que cualquier sustancia sintética sea mal vista. Es verdad que durante años estuvo envuelta en una polémica ligada a su carácter a su carácter hepatotóxico en ratas. O a la llamada "enfermedad del trébol dulce" que acababa con los conejos a base de hemorragias. Hoy sabemos que, bajo la acción de ciertos mohos, la cumarina contenida en los tréboles genera dicumerol, un potente anticoagulante. Sabemos también que los problemas de las ratas con la cumarina son mucho más graves que los que causa en los humanos, en los que es moderadamente tóxico para el hígado y el riñón, pero tendríamos que comer muchas habas de Tonka o cumarina pura todos los días para que la cosa fuera grave. También, como en otros muchos componentes de los perfumes y colonias, algunos estudios achacan a la cumarina un carácter alérgeno, por lo que la IFRA (International Fragance Association) restringe su uso en perfumes (categoría 4) a una concentración del 1,6%. Pero, digámoslo una vez más, esa restricción se aplica a la cumarina venga de las habas Tonka o de la cumarina pura y sintética vendida por las industrias que comercializan aromas.

Y esta disquisición final me lleva a comentar algo que me ha sorprendido últimamente en mis búsquedas en la red de material sobre la Química de los perfumes. En los foros de muchas webs dedicadas a estos temas, he descubierto que la gente se compra aceites esenciales y se prepara sus propios perfumes. No me parece mal como entretenimiento y búsqueda de aromas personalizados. Pero, ¿se mirarán las normas de la IFRA en lo relativo a cantidades máximas seguras a emplear de cada uno de esos aceites esenciales?.

Leer mas...

domingo, 27 de agosto de 2017

Microplásticos en tu sal

Mi ya finiquitada actividad investigadora ha estado centrada, durante casi cuarenta años, en el mundo de los polímeros, unos materiales que mucha gente simplifica en plásticos, algo inadecuado pero que no toca explicar ahora. Por ello, no es de extrañar que todavía me siga interesando todo lo que se cuece en torno a estos materiales que eclosionaron a lo largo del siglo XX. La mayor preocupación actual sobre ellos es qué hacer con sus residuos y, entre los varios frentes de esta problemática, está el tema de los residuos de plástico que se vierten al mar. Durante su vida en el mismo, muchos plásticos se fragmentan en trozos pequeños que se conocen, genéricamente, como microplásticos y que, en años recientes, han sido objeto de diversos estudios que muestran su presencia incluso en recónditos sitios de nuestros océanos y su impacto sobre la vida animal de los mismos.

Llevo semanas estudiando un voluminoso libro de casi 500 páginas titulado Marine Anthropogenic Litter (Basura Marina de Origen Humano, para que nos entendamos) una obra colectiva editada por Melanie Bergmann, Lars Gutow y Michael Klages y publicada en 2015 por Springer International Publishing. No me resulta fácil, porque en algunos de los temas estoy un poco pez, pero ando tomando interesantes notas de cara a ponerme al día y a hacerme una idea global del asunto para luego contar algo aquí. Pero, como aperitivo, os voy a contar algunas ideas al hilo de una noticia que me llegó por un tuit de ese monstruo de la divulgación científica que es Paco Villatoro (@emulenews). El tuit hace referencia a un artículo publicado online este 17 de agosto en los Scientific Reports de Nature por investigadores del Departamento de Ingeniería Química de la Universidad de Alicante. El artículo resume un estudio de los microplásticos presentes en diversas sales de mesa comercializadas en España. Un estudio similar ya se había hecho hace dos años sobre las sales comercializadas en China y otro se acaba de publicar en un numero precedente (en abril) del mismo Scientific Reports. Como consecuencia de ello, internet contiene ya algunos ejemplos de proclamas sensacionalistas sobre estos estudios cuando, creo yo, no debiera ser el caso.

Voy a comentar el artículo de los colegas alicantinos porque contiene algunos resultados que me han sorprendido. Se han estudiado 21 sales comercializadas en España, fundamentalmente provenientes de salinas marinas tanto del Atlántico (no dan marcas pero si localizaciones en Andalucía, Canarias y Galicia) como del Mediterráneo (Cataluña, Valencia, Murcia, Alicante, Baleares), así como tres sales de manantiales salinos en el interior, alejados del mar. Uno me cae cerca (Añana, en Alava, de cuya sal ya hablamos hace años aquí), los otros dos están localizadas en las provincias de Cuenca y Alicante. Esta última puede ser de la zona de Villena, una zona salinera con tradición centenaria. En el estudio, esas muestras se disuelven, se centrifugan para eliminar arena y otras partículas sólidas más densas, se filtran con filtros que no dejan pasar partículas de tamaño superior a 5 micras y los microplásticos así recogidos se cuantifican con ayuda de microscopios y se identifica su naturaleza mediante técnicas de análisis de plásticos convencionales (FTIR).

El primer resultado que me ha sorprendido es que tanto la sal de mar como la proveniente de salinas interiores contienen cantidades similares de partículas de microplásticos, (las de mar entre 50 y 280 micropartículas por kilo de sal y las de interior entre 115 y 185). Como me conozco bien la estructura del Valle de Añana y cómo se generaron en su día los manantiales que proporcionan agua con altos contenidos en sal (salmuera), el resultado es como para pensárselo.

Debéis saber que el Valle de Añana, hace más de 200 millones de años, estaba bajo el mar. La evaporación posterior del agua en ese valle cerrado generó una gran cantidad de sal que posteriormente fue cubierta por otros estratos. La posibilidad actual de obtener sal en Añana se explica por el fenómeno geológico denominado diapiro. En líneas generales, consiste en la ascensión hacia la superficie terrestre de materiales más antiguos debido a su menor densidad. El diapiro de Añana atraviesa en su ascenso algunos de los acuíferos más importantes de la región, por lo que se convierten en puntos de salida de las aguas confinadas en los mismos. Uno de los puntos de salida es el manantial de Santa Engracia, donde el agua es una muera que sale en carga, es decir a mayor presión que la de la superficie. Esto explica la gran saturación en sales, disueltas en los lechos salinos atravesados durante el ascenso del agua a lo largo de la chimenea diapírica, en condiciones de presión y temperatura superiores a las de superficie. Este manantial es el punto de partida de la explotación de Añana, con una salinidad media superior a 250 gramos por litro. Y no deja de sorprenderme que, si el proceso es así y está recogido en sesudos trabajos geológicos, ¿de dónde provienen los microplásticos de la sal de Añana?. Porque hay mucho "filtro" en todo el proceso. El artículo no hace reflexión alguna al respecto. Así que si alguien tiene constancia de las razones, no vendría mal que nos lo explicara en los comentarios.

Otro resultado que me llamó inicialmente la atención es la composición de los microplásticos analizados en la totalidad de las sales consideradas. El 83% es polietilen tereftalato (PET), el plástico empleado en las botellas de agua, bebidas de cola, etc., mientras que el resto corresponden, fundamentalmente, a microplásticos de polietileno y polipropileno, mucho más vendidos que el PET. En las de la sal china arriba mencionada, el componente más abundante es el celofán (que allí se sigue utilizando como envase), mientras que las cantidades de PET, PE y PP son más concordantes con su importancia en el mercado. Dicen los autores, y no me parece mal, que esto pudiera deberse a que la mayor densidad del PET le hace permanecer en el agua desde la que está cristalizando la sal durante todo el proceso, mientras que PE y PP, de menor densidad y que deben flotar en la salmuera, podrían ser arrastrados por los operarios durante las labores de manejo de lesta y ser, por tanto, eliminados más fácilmente de la misma.

El artículo termina con un apartado en el que los autores tratan de evaluar el impacto en nuestra salud de los microplásticos contenidos en la sal que consumimos, que es lo que imagino que a la mayoría de vosotros le interesa más, a la vista del título que le he puesto a la entrada. Sobre la base de un sencillo cálculo ligado al consumo de sal recomendado por la Organización Mundial de la Salud, los autores establecen que podemos meternos al coleto del orden de 500 piezas de microplástico por año, lo que les parece una cantidad irrelevante. Y estoy de acuerdo, porque, en primer lugar, esos trocitos de plástico no los digerimos y por tanto saldrán tal cuales, igual que otras cosas indeseadas que digerimos, como, por ejemplo, los sólidos contenidos en chipirones o chopitos poco limpios, almejas y similares.

En ese mismo apartado, el artículo hace referencia a los dos temas que siempre aparecen en los artículos relacionados con la contaminación de plásticos en el mar. El primero, los problemas que puede causar a pájaros y peces la ingestión de los mismos. Dependiendo del tamaño del ser vivo y del trozo de plástico engullido, el asunto puede llegar a la muerte del animal, pero no por contaminación sino por simple bloqueo de su tracto gastrointestinal.Y, de nuevo, no solo plásticos ingieren pájaros y peces creyendo que les pueden alimentar.

El otro asunto es más sutil y se basa en que los microplásticos pueden actuar como "refugio" de sustancias tóxicas con carácter lipofílico (aquellas que se disuelven mejor en grasa que en agua). Y entre ellas se suelen citar, sobre todo, a los Contaminantes Orgánicos Persistentes (POPs en inglés) como los bifenilos policlorados o las dioxinas y sus parientes los furanos. Cuando esos microplásticos y su carga de POPs son ingeridos por animales, la teoría es que estas sustancias se introducen en la cadena de alimentación y llegan hasta los humanos.

Yo soy bastante escéptico sobre el asunto (al menos cuantitativamente), pero necesito ordenar mis ideas y en ello estoy con el libro arriba mencionado. Si llego a alguna conclusión, sea políticamente correcta o no, la contaré. Mientras tanto, no me sean guarros y lleven los plásticos que ya no puedan usar al correspondiente contenedor. Y si son padres o abuelos, ilustren a su descendencia en este problema. Yo lo sufro todos los días en mi portal con una tienda de chuches adyacente.

Leer mas...

lunes, 21 de agosto de 2017

Ionizadores de agua

Todo comenzó hace ya algunos meses (bastantes). Mi comadrona estaba viendo uno de esos programas de la tele que le gustan, donde se muestran las casas más fabulosas del mundo mundial. En este caso se trataba de una casa en Marbella, propiedad de uno de esos rusos enriquecidos por el petróleo. Una casa que, por tener, tenía hasta un helipuerto y dos hoyos de golf. Aparte de envidias no explícitamente declaradas y que mis lectores intuyen, lo que captó mi atención es que, al enseñar su casa, la rusa del magnate mostró, entre otras cosas, un aparato adosado al grifo de agua de su cocina, con pinta de dispositivo electrónico de calidad y que, según explicó, dividía el agua de grifo en dos tipos de aguas: una alcalina, buenísima para la salud y otra ácida que viene bien para fregar, limpiarse el cutis, etc... Me quedé con la idea de enterarme sobre el asunto pero la cosa, como otras muchas, no ha pasado hasta ahora de unas notas amontonadas en mi escritorio. Hasta que, desde hace unas semanas, se me ha pedido hasta tres veces mi opinión sobre temas relacionados con estos dispositivos.

Cuando me puse a investigar en serio, resulta que estos mal llamados ionizadores de agua tienen una larga historia que se remonta a principios de los años cincuenta, aunque ha sido en las últimas décadas cuando la cosa ha explotado en el mercado, de la mano de diferentes empresas y científicos, fundamentalmente japoneses. Basta con que escribáis water ionizers en Google, seleccionéis el apartado imágenes y os aparecerán cientos de dispositivos existentes en el mercado. Los precios pueden variar de marca a marca, pero los más reputados (no voy a dar nombres para que no se metan conmigo) pueden llegar a costar casi 6000 €. En un artículo de 2013 que tengo encima de la mesa, se cifra en unos 200.000 el número de estos dispositivos que se venden al año y muchos de ellos, sobre todo en USA, se venden por el sistema de hacer reuniones con potenciales clientes a los que convencer de las bondades del aparato y endosarles uno (tal como se hizo en su día con Tupperware).

He puesto al inicio de esta entrada una imagen genérica de cómo funcionan estos aparatos (podéis ampliarla clicando en ella). Básicamente toman agua de grifo, la filtran en un filtro clásico de carbón activo, una forma de eliminar el cloro presente, que podría dañar los electrodos de la celda electrolítica, corazón del aparato y de la que ahora hablaremos. Después del filtrado y si el agua no contiene de origen una cantidad sustancial de sales disueltas que aseguren la conductividad de la misma, se regula ese contenido mediante una serie productos que los suministradores del aparato también venden. Finalmente, ese agua así acondicionada, se mete en la llamada cámara o celda electrolítica, donde se le somete a un proceso de electrolisis, que la descompone en hidrógeno y oxígeno.

No voy a dar muchos detalles técnicos, pero a los iniciados les diré que el sistema electrolítico consta de los clásicos ánodo y cátodo, generalmente de titanio recubierto de platino. Es importante reseñar que esos electrodos se encuentran en compartimentos separados por un diafragma semipermeable hecho de plástico. Ello permite que en el ánodo se genere oxígeno (O2) gas, iones hidrógeno positivos y se acumulen aniones del tipo bicarbonato, cloruro, nitrato, etc, dependiendo de las sales que contenga el agua de partida. En el cátodo se genera hidrógeno gas (H2), iones hidroxilo y cationes tipo sodio, potasio, calcio o magnesio, provenientes igualmente de las sales disueltas. Eso hace que del compartimento anódico salga agua más ácida que la de partida y con un cierto poder oxidante, mientras del cátodo salga agua alcalina de poder reductor o, como suele denominarse en la propaganda de estos aparatos, antioxidante.

En todo lo anterior, este vuestro Búho tiene poco que objetar. El escepticismo comienza cuando, en el marketing de las casas vendedoras, empezamos a leer las maravillas ligadas al empleo de estos ionizadores. En primer lugar, las derivadas de beber agua alcalina (con pH superior a 7), una más de las opciones a la hora de seguir la llamada dieta alcalina, que os estarán vendiendo por todos los lados, ya sea en la tele, en la radio, en los magazines de fin de semana o, sobre todo y como siempre, en internet. El pH de los diversos tipos de agua (de grifo, manantiales naturales, aguas de mesa,..) puede variar bastante y así lo reconoce la legislación española en el Real Decreto 140/2003 Anexo I, que regula el pH de las aguas destinadas a consumo humano. En el mercado podéis encontrar aguas ácidas como la de Vichy Catalán (pH=5,9) o básicas (alcalinas) como la Font d'Or (pH=8,2) y en el mercado americano hay aguas de pH hasta 9,5. Pero todo esto que cuentan de la dieta alcalina es una patraña más de las muchas que giran en torno a nuestra alimentación. Comer o beber cosas alcalinas no altera el pH general de nuestro cuerpo, que tiene un mecanismo primario para controlarlo mediante la exhalación de CO2, que gobierna la cantidad de ácido carbónico en la sangre y, a partir de ahí, de una serie de equilibrios químicos bien establecidos.

Pero el marketing perverso de los fabricantes de ionizadores va un poco más lejos. Debéis saber que el agua alcalina de su ionizador no es agua alcalina cualquiera (es decir con pH superior a 7), como las de algunas de fuentes naturales que ya salen alcalinas de origen (y que acabo de mencionar) u otras a las que se adiciona un exceso de bicarbonato para aumentar su pH. La producida por el ionizador (que ellos llaman agua alcalina ionizada) tiene sus peculiares propiedades debido a que, además del alto pH, hay otros "cambios" generados en ella como consecuencia del proceso que ocurre en el interior del aparato. Y ello, proclaman,  hace que sea efectiva en la eliminación de antioxidantes, en tratamientos de cáncer, en la prevención y curación de la diabetes, Parkinson, arterioesclerosis, problemas degenerativos de la retina y otros (ver, por ejemplo, aquí, donde se cantan todas esas bondades, sin soporte científico alguno). Las razones aducidas tienen un doble origen que vamos a desmenuzar aquí.

Como probablemente sepáis, el agua es una molécula polar, lo que quiere decir que tiene partes de ella con cargas ligeramente positivas (localizadas en sus dos hidrógenos) y negativas (el oxígeno), como podéis ver aquí. Ello hace que las partes del agua con distinta carga de diferentes moléculas puedan atraerse y permanecer cerca, formando los llamados agregados o clusters. Su vida es efímera, porque esos agregados se están juntando y soltando continuamente, en periodos de tiempo tan pequeños como las billonésimas de segundo. Todo esto está muy estudiado, desde hace tiempo, por la Química Física y se sabe que esos agregados suelen implicar a unas 12-14 moléculas de agua al mismo tiempo. Los que me hayáis seguido en las entradas sobre la homeopatía recordaréis que la famosa "memoria del agua" se basa precisamente en esos agregados, capaces de retener la forma de la molécula del "principio activo" una vez que ha desaparecido por dilución y, en la lógica homeopática, capaces de curar igual que esa molécula que ya no está.

Pues bien, muchos vendedores de ionizadores proclaman que su aparato es capaz de disminuir ese tamaño habitual de los agregados de agua y dejarlo en 4/6 moléculas. Según ellos, y debido a ese menor tamaño, el agua penetra con mayor facilidad en los diversos componentes de las células y permite una hidratación mejor del organismo. Como otros muchos bulos sobre el posible efecto de fuerzas eléctricas o magnéticas que alteran la estructura conocida del agua, vuestro Búho no se cree esta patraña de los clusters pequeñitos, por mucho que para vestirlo, en alguna de las webs que lo proclaman, aparezcan prestigiosos médicos como Hiromi Shinya, un experto colonoscopista, autor del muy vendido libro La Enzima Prodigiosa, libro e ideas que provocaron que mi amigo JM Mulet (todo un Petronio) fuera tildado de gordo por la inefable Mercedes Milá.

Este asunto de los clusters de menor tamaño ya es un poco viejo. En una de mis contribuciones a Naukas, os contaba el caso de un agua de propiedades maravillosas, vendida en USA bajo el nombre de Penta, que atribuía sus virtudes a clusters más pequeños que los habituales. Tras muchos avatares, que han incluido una demanda ante la Corte Suprema de California, el agua se sigue vendiendo con el mismo nombre pero su marketing se basa, exclusivamente, en la extremada pureza de la misma. En otros casos, y para vender las bondades de los productos de una conocida marca de cosmética, se aducen cambios de estructura en los agregados, esta vez en forma de icosaedros.

La otra pata de los atributos del agua ionizada por estos aparatos es el hidrógeno gas que se produce en el compartimento catódico y que sale acompañando al agua alcalina. En 1985, Hidemitsu Hayashi, Director del japonés Instituto del Agua, adquirió un ionizador y comenzó a estudiar las propiedades del agua por él producida, utilizándola como bebida habitual y preparación de comidas en la Kyowa Medical Clinic. Según él, observó una clara mejoría en pacientes que sufrían trastornos gastrointestinales y otras patologías ligadas al hígado. Para explicarlo, en 1995, propuso la hipótesis de que esas mejoras se producían como consecuencia del gas hidrógeno generado en los ionizadores, que ejercía un activo papel de "cazador" de los radicales libres que nuestro organismo genera como consecuencia del oxígeno que continuamente estamos inspirando. Esa hipótesis pareció confirmarse por una serie de trabajos in vivo que, a partir de 1997, fueron publicados por el grupo de otro investigador japonés, S. Shirahata, aunque posteriormente, en 2004, un extenso trabajo, otra vez japonés, desmontó la mayor parte de las hipótesis y resultados de los dos investigadores anteriores.

El asunto sobre el papel terapeutico del hidrógeno parece haber renacido como consecuencia de un trabajo publicado en 2007 por el grupo del Prof. Ohta en una de las secciones de la muy prestigiosa revista Nature [Nat. Med. 13, 688 (2007)] en el que las propiedades terapeuticas del hidrógeno se ligan a su papel en el funcionamiento de las células del organismo. Sin embargo, el trabajo de Ohta y otros posteriores no utilizan los ionizadores como fuente de agua enriquecida en hidrógeno. Por el contrario, consiguen un agua saturada en hidrógeno al hacer pasar éste, proveniente de una bombona en el que está almacenado a alta presión, por aquella, hasta conseguir una concentración de saturación que difícilmente se alcanza en los ionizadores. Se pueden encontrar muchos detalles sobre este papel del hidrógeno en la web de la llamada Molecular Hydrogen Foundation, de cuyo Panel Asesor forma parte el propio Prof. Ohta. En esa web, que me he leído en detalle, ponen particular énfasis en que sus prácticas no se confundan con el habitual marketing de los ionizadores, fundamentalmente porque las concentraciones de hidrógeno que estos proporcionan son pequeñas y muy variables, dependiendo del diseño del aparato y del mantenimiento de los electrodos del mismo.

La lectura de esa web me ha dejado un importante poso escéptico, aunque he optado por permitir que el tiempo pase mientras la vigilo y poder ver así lo que se va haciendo en el próximo futuro. Mientras tanto y aunque cada uno se gasta el dinero en lo que quiere, no os recomiendo una inversión en uno de esos ionizadores. Es cierto que tienen una pinta muy de diseño tecnológico y, sin duda, dará a vuestra cocina un tono de lo más californiano. Pero dudo que vuestra salud note algo.

Leer mas...