martes, 31 de octubre de 2006

Champagne, tensión superficial y guarradas en suspensión

Alguno dirá que qué título más extraño pero hoy vamos a cerrar un mes que ha sido parco en entradas, porque el curro aprieta y la mente no está para disquisiciones que necesiten calma y sosiego. Y lo vamos a hacer con una entrada en torno a las burbujas del champán. Como en otros temas anteriores de este blog (y, seguro, como en otros que seguirán) el pie forzado me ha lo dado Xabi Gutiérrez desde esa atalaya que está en el segundo piso del Restaurante Arzak y que ellos llaman Laboratorio. Y bien llamado, porque si hay alguien que experimenta esos son el Xabiguti y su inseparable Igor Zalakain. Dos cocineros con una curiosidad innata por todo aquello que pueda repercutir en la originalidad de los platos que experimentan y que, en algunos pocos casos, acaban en la mesa del afortunado comensal. El caso es que andaban experimentando con champán y azúcar y me plantearon la pregunta de si era una reacción química la causante de que al verter azúcar en el champán se provoque una generación brusca e importante de burbujas adicionales sobre las que tiene un champán recién abierto.

La propuesta de Xabi me hizo empezar a buscar en mi ya crecidita bibliografía de corte gastronómico y cuanto más leía más me iba interesando. Hasta el punto que he acabado comprando por Internet una monografía publicada en los Annales de Physique franceses (Ann. Phys. Fr. 27, n. 4, 2002) y que habla de la “Physicochimie des bulles de champagne”. ¡Toma tratado científico de hondas repercusiones gastronómicas!. Eso es ciencia y no los puntos cuánticos que ni se ven, ni se huelen ni se beben.

La efervescencia de un champagne es su marca de identidad, su toque de magia cuando se deposita con cuidado en una copa adecuada (flute le llaman los franceses, flauta). Es también la expresión primera de su calidad para un experto. Cuando es sostenida, persistente, delicada inclina a una valoración positiva del vino. Y al revés. Pero esa génesis de burbujas es un fenómeno complejo, hasta hace poco mal entendido. Y en su paulatina comprensión son los químico-físicos (como yo) los que más están contribuyendo. Así que tengo que estar capacitado para contaros una historia creíble. Empezaremos por introducir brevemente el llamado “método champenois” para ir sentando las bases.

Como casi todo el mundo sabe el champagne es un vino obtenido a partir de la conjunción de uvas provenientes de dos cepas de uva negra (Pinot Noir y Pinot Meunier) y una de uva blanca (Chardonnay). Tras la recolección de las uvas, los mostos sufren una primera fermentación alcohólica en los tanques de almacenamiento, fermentación llevada a cabo por las levaduras naturalmente presentes, seguida de la llamada fermentación maleoláctica en la que las bacterias también presentes transforman el ácido maleíco en ácido láctico. Se obtiene así un primer vino llamémosle tranquilo (a diferencia de lo que luego veremos) y en el que lo importante es el juego entre los contenidos de uva de las tres cepas y el minucioso control de las fermentaciones. Uno y otra darán a cada Maison productora sus características peculiares que tratan de mantener celosamente año a año.

Una vez que tenemos el vino base, se produce un proceso fundamental. Ese primer vino se mezcla con una “poción mágica” en la que tenemos sacarosa, levaduras y algunos otros aditivos, receta de la casa, que se disuelven en una cierta cantidad del propio vino base. El resultado se introduce en botellas que se cierran herméticamente y se almacenan en la bodega. Ahí comienza el asunto de las burbujas. Las levaduras adicionadas provocan una segunda fermentación alcohólica en la que consumen los azúcares (sacarosa) presentes generando alcohol etílico y anhídrido carbónico (CO2). El proceso dura de cinco a seis semanas, tras el cual las levaduras acaban muriendo paulatinamente en un proceso de envejecimiento del vino que dura un mínimo de quince meses. Al finalizar el período de envejecimiento, las botellas se colocan en posición invertida para que las levaduras muertas se coloquen en el gollete. El cuello de la botellas se coloca en un baño de etilenglicol refrigerado, de manera que se forme una especie de tapón de hielo que aprisione las levaduras. Las botellas se ponen a continuación en su posición normal y se produce un descorche en el que merced a la presión interior del CO2 el tapón de hielo sale violentamente al exterior (es lo que los franceses llaman dégorgement) y con él los restos de levaduras. Tras ese proceso la botella se rellena con un licor que contiene champagnes antiguos, un antioxidante (los sulfitos citados en otra entrada aparecen de nuevo) y más o menos sacarosa según queramos un champagne dulce, brut, seco o semiseco. Las botellas se cierran con los tapones de corcho en forma de cilindros cónicos que todos conocemos, tras lo cual la presión en la parte superior de la botella se restablece en torno a unas seis atmósferas como consecuencia del CO2 disuelto en el líquido.

Y al explicar esta última frase es donde empezamos a jugar los químico-físicos. El champagne es una disolución hidroalcohólica (agua y alcohol fundamentalmente) en la que hay diversos componentes pero, por ahora, el que nos interesa es el CO2 que se ha obtenido en la segunda fermentación gracias al atracón de sacarosa que se pegan las levaduras. Todos los gases tienden a disolverse en los líquidos en función de la presión que el gas ejecuta sobre el líquido. Es la llamada ley de Henry, que hace que siempre haya oxígeno (y nitrógeno) disuelto en el agua de mares, lagos y ríos. La cantidad de oxígeno disuelto es proporcional a la presión que el oxígeno ejecuta sobre la superficie del líquido y que, a nivel del mar, es de unas 0.21 atmósferas. Gracias a esa disolución de oxígeno en el agua viven los peces, que han adaptado sus branquias para captarlo, cosa que los humanos somos incapaces de hacer.

En el interior de la botellas de champagne, durante la segunda fermentación, el CO2 producido por las levaduras va incrementando la presión en el interior y el gas se disuelve en el líquido hasta concentraciones de unos 12 gramos de gas por litro de champagne. Tras el dégorgement y posterior cierre con el corcho habitual, el CO2 disuelto vuelve a llenar el espacio vacío que queda en la botella hasta alcanzar presiones del orden de seis atmósferas a las temperaturas habituales de servicio (unos 12ºC), con lo que la concentración de CO2 en una botella de un buen champagne suele andar en torno a los 10 gramos por litro.

Cuando la vamos a beber y la descorchamos, el interior de la botella pasa bruscamente de seis atmósferas a una y el gas tiende a salir del líquido puesto que a esa presión su solubilidad es mucho menor. Es en este juego de la ley de Henry donde se produce una de las razones primigenias de la formación de burbujas. Pero es sólo el principio de nuestra comprensión de la efervescencia champañera. Terminaremos este apartado mencionando que calculando, con ayuda de la ley de Henry, el volumen de gas que debe de salir hasta que se alcance el equilibrio a 1 atmósfera este resulta ser del orden de 5 litros de CO2 . Es decir, en cada copa o flute de champagne, hasta que se queda sin burbujas, se desprenden el equivalente de 0.7 litros de gas, medidos a 1 atmósfera y 20 grados. Los no iniciados supongo que saben que un gas ocupa más o menos volumen según a qué presión y temperatura esté. Y si no lo tienen claro, experimenten con un globo lleno de aire metido en un frigorífico.

Pero, ¿todo el CO2 se escapa de las copas o botellas en forma de burbujas?. Radicalmente no. La efervescencia es sólo la parte visible de la salida del CO2 de la copa. Una parte importante difunde desde el interior del líquido de forma invisible hasta la superficie que separa el champagne del aire, atravesándola y perdiéndose en la atmósfera (o sea, que también el abrir botellas de champagne contribuye al efecto invernadero). Hay, por tanto, una interesante pregunta que ha hecho perder mucho tiempo a mucha gente, entre ellos a G. Liger-Belair, del Laboratorio de Enología de la Facultad de Ciencias de Reims, autor de la monografía antes citada. ¿Por qué y dónde se generan esas burbujas que, misteriosamente, aparecen de la nada en el seno del champagne?. Vamos a ello.

En otra entrada ya mencionamos de pasada la tensión superficial. Es una propiedad de los líquidos que mide, de alguna forma, la fuerza que mantiene unidas entre sí a las moléculas de ese líquido y les hace ser un líquido y no un gas, donde las moléculas andan cada una a su bola, procurando juntarse lo menos posible con las demás. Esa fuerza entre las moléculas hace que la superficie de un líquido sea como una superficie resistente a ser traspasada y, por eso, seres livianos como algunos insectos que, no sé por qué, cuando yo era niño llamábamos zapateros, andan por encima del agua sin hundirse. La fuerza de su peso es inferior a la fuerza que mantiene unidas a las moléculas del líquido y no hay forma de que los bichos se vayan para el fondo. Pero esa tensión superficial es también la causante de que un líquido, en contacto con una superficie, la moje mejor o peor. Al decir mojar debemos entender que una gota de un líquido se adapte mejor a una superficie o no.

Pues bien, se ha creído durante mucho tiempo que las burbujas nacían a partir de la superficie de la copa como consecuencia de una cierta incapacidad del champan para mojar adecuadamente la superficie del vidrio. Mas concretamente, a nivel microscópico, el vidrio de la copa en su cara interna no es perfectamente liso. Quedan huecos microscópicos, que el champan no llena porque no moja bien la superficie. Esos huecos quedan llenos de aire y cuando la presión del CO2 es tan grande como la que hay en la botella de champán ese gas tiende a entrar en esos huecos de aire, hincharlos como globos y generar burbujas que dada su pequeña densidad tienden a subir en la masa del líquido. Es esta una teoría razonable que ha sido comprobada por minuciosas fotografías de alta velocidad mostradas en la monografía a la que estamos haciendo referencia. Pero lo cierto es que las burbujas así formadas son las menos, probablemente debido al extremadamente pequeño tamaño de esas imperfecciones superficiales del vidrio. Las fotografías mencionadas han descubierto que muchas de las burbujas nacen de minúsculas impurezas existentes en el champán o en la copa, bien provenientes de restos de la uva, de corcho, de las levaduras muertas o de los paños empleados para secar el vidrio. Todas esas partículas tienen superficies muy irregulares que el champan no moja bien, donde queda atrapado aire hacia el que fluye el CO2 a presión, dando lugar a la continua génesis de burbujas.

Así que ahí está la solución a la pregunta de mis amigos Xabi e Igor. Al verter azúcar en el champán, cada partícula de azúcar tiene una irregular superficie en la que queda atrapado aire como consecuencia de que el champan no las moja bien. Muchos granitos de azúcar, mucha superficie, mucho aire atrapado, muchos sitios potenciales para el CO2 en los que generar burbujas.

Y una nota final. En la citada entrada hablábamos de tensioactivos o surfactantes como el Fairy que nos ayuda a limpiar utensilios grasientos. Allí decíamos que los tensoactivos rebajaban la tensión superficial del agua. Pues bien, un resto de tensoactivo sobre la pared de una copa de champan es el peor enemigo de una burbuja. Al rebajar la tensión superficial del líquido, en este caso el champán, las moléculas del líquido están unidas entre si por una fuerza inferior con lo que la presión del CO2 en la burbuja puede superar antes esa fuerza y la burbuja se rompe y desaparece. De ahí el odio profundo que los devotos del champan profesan al lavado de las copas con cualquier tipo de jabón. ¡Rompen la magia burbujeante!.

Leer mas...

jueves, 19 de octubre de 2006

Una enzima para un roto o un descosido

Israel de la Red Guardado

Empecemos con las presentaciones. El firmante en esta ocasión es otro antiguo estudiante del Búho que, hace un par de años decidió hacer el petate y largarse al páramo leonés en busca de emociones académicas algo más fuertes, enrolándose en estudios de Ciencia y Tecnología de Alimentos. Al requerimiento de su viejo Profesor, no ha dejado pasar la oportunidad de hacer su pequeña contribución a este Blog y ha optado por hablar de una proteína poco conocida por los consumidores, pero que posee suma importancia en medicina, la industria agroalimentaria y de la que la ‘nouvelle cuisine’ (léase gastronomía molecular en otros ámbitos) está sacando provecho: la transglutaminasa.

Debo recordar para los no iniciados (me encanta esta frase) que una enzima es una proteína que acelera las reacciones químicas que se dan en los organismos vivos, reduciendo lo que los químicos llamamos energía de activación de la reacción, que es la energía necesaria para que la reacción comience (el pequeño empujoncito que hay que dar para que un sistema se anime, vamos). A un punto determinado de la estructura de la enzima, llamado centro activo, se une una sustancia química llamada sustrato. El centro activo es específico (en el sentido que no todas las sustancias químicas pueden unirse a él sino aquellas para las que está diseñado por nuestra evolución). Ese centro activo está compuesto por diversos aminoácidos. Las cadenas laterales de los aminoácidos facilitan la unión del sustrato a la enzima, y en este lugar ocurre una reacción química determinada. Posteriormente, el sustrato modificado o producto es liberado y la enzima puede volver a utilizarse, como si de un molde se tratara, para la misma reacción.

Pero volvamos al tema… La transglutaminasa, llamada también factor sanguíneo XIIa, es de vital importancia para los humanos (y para los que no lo son). La falta de este factor en los seres vivos provoca anemia perniciosa. Esta proteína también está asociada a la intolerancia al gluten, y parece ser la inmunomediadora responsable de la enfermedad celíaca (transglutaminasa tisular). Además, la transglutaminasa está involucrada en los procesos de queratinización de la epidermis y en el mantenimiento de la hemostasia, es decir, la detención de una hemorragia por agregación de las plaquetas. Pero esta enzima posee propiedades funcionales que resultan muy jugosas para otros campos que se alejan de la fisiología y la medicina. La transglutaminasa es una acil-transferasa, es decir, cataliza la transferencia de grupos acilo a otras moléculas, dando lugar a un entrecruzamiento entre distintas proteínas o distintas partes de una misma proteína. Estos grupos acilo son transferidos de restos de glutamina o metionina a restos lisilo, por lo que se combinan ambos restos por un enlace isopeptídico.

Las condiciones óptimas de esta reacción pueden ser fácilmente controladas (4h, 50ºC, pH=6,5) y la enzima transglutaminasa se puede inactivar también de manera sencilla (90ºC, 10 min). Cuando las concentraciones de proteína son altas, el entrecruzamiento da lugar a la formación de geles proteicos y películas a temperatura ambiente, que son estables a elevadas temperaturas. Además, este entrecruzamiento permite mejorar la calidad nutritiva de las proteínas, pudiendo combinarse lisina y metionina (aminoácidos esenciales) con la glutamina (aminoácido no esencial).

Esta reacción abre un amplio abanico de posibilidades para la industria agroalimentaria, al proporcionar la capacidad de formar geles a proteínas que antes no la tenían. Las gelatinas modificadas con transglutaminasa de orígen microbiano incluso forman geles de mayor fuerza (se incrementa a mayor concentración de enzima) y de mayor viscosidad, incrementándose también el punto de fusión (hasta >90 ºC).

En 1980 la industria agroalimentaria inicia estudios de aplicación de transglutaminasas obtenidas a partir de plasma de vacas y del hígado del conejo de indias para la modificación de proteínas. En 1987 se inician los estudios para la obtención de transglutaminasas a partir de microrganismos, descubriéndose en 1989 el microorganismo responsable (Streptoverticillium sp.). En 1994 se descubre el microorganismo más eficiente para la obtención de transglutaminasa, el Streptoverticillium mobaerense, utilizado para la obtención, mediante nuevas tecnologías de procesamiento, de nuevos alimentos mejorados.

Actualmente se utilizan transglutaminasas de orígen vegetal, animal y sobre todo, las derivadas de este origen microbiano. Los alimentos modificados mediante transglutaminasas son digeridos y metabolizados de forma normal. Algunos ejemplos de la aplicación de estas enzimas son la producción de quesos y helados con bajo contenido en grasa, la utilización en pan industrial para mejorar la elasticidad de la masa y la firmeza de la miga, la aplicación en yogures para aumentar la retención de agua y mantenerse como gel y, por supuesto, la modificación de las propiedades funcionales en las gelatinas de mesa y de cobertura, entre otras muchas aplicaciones.

El uso más novedoso de las transglutaminasas se da en el ámbito de la cocina creativa que invade nuestros restaurantes donde se utilizan como una especie de “pegamento de proteínas”. Las transglutaminasas pueden emplearse para producir carne reestructurada a partir de pescado o ternera, con una mejor textura, a partir de la unión de pequeños trozos de carne entre sí, sin necesidad de añadir fosfatos u otras sales.

Esto se lleva a cabo mediante la llamada “reacción de la plasteína”. En ella, un concentrado proteico cárnico se hidroliza con proteasas (enzimas que degradan las proteínas), se purifica y se concentra. Después, mediante la aplicación de transglutaminasas se reestructura, formandose un “gel de plasteína”, que puede tomar diversas formas: filete, entrecot,…

Esta reacción es muy interesante, ya que mejora las propiedades funcionales de algunas proteínas, aumenta su valor nutritivo y digestibilidad y mejora la calidad de proteínas no convencionales, obtenidas de plantas, algas… En la foto de la derecha podeis ver a Wylie Dufresne, chef del vanguardista restaurante neoyorquino WD-50 que ha inventado un tipo especial de pasta en la que usando sobre todo carne de gambas o similares consigue unirla mediante transglutaminasa .

Leer mas...

sábado, 14 de octubre de 2006

La bella Donosti huele a m.....

Los días previos al puente que nos llena de foráneos hacían presagiar lo peor. Por el Área Romántica de la ciudad de nuestros desvelos, y por otras de sus áreas más recientes, se desparramaba un hedor insufrible. Algún edil de los que rodean al incombustible calvo que nos gobierna y del que hasta algunos fieles votantes estamos empezando a pensar que por higiene democrática debiera marcharse, había decidido que tocaba abonar los pocos jardines, jardincillos y parterres de los que disponemos en la ciudad.

Pero eso si, de forma sostenible, que el asunto viste mucho. Con lo que diligentes jardineros municipales han desparramado kilos y kilos de estiércol lo mismo enfrente de nuestro delicioso Casino (hoy Ayuntamiento) que en la plaza de Bilbao, sin respetar siquiera las resonancias de un nombre tan majestuoso. Menos mal que el tiempo se ha aliado con nosotros y tras un miércoles en el que la lluvia y el viento se llevaron parte de los efluvios, unos días posteriores de viento sur y sol parecen haber secado el “regalo” y mantener los niveles aromáticos en estándares permisibles.

Vamos a dejarnos de introducciones retóricas y pretenciosas y vayamos al grano. Es más viejo que mear en pared el conocimiento de lo que necesitan los seres vivos en general, y las plantas en particular, para crecer de forma sana y eficiente. Tres macronutrientes fundamentales: nitrógeno, fósforo y potasio. Otros componentes importantes aunque en menor proporción: calcio, azufre y magnesio. Y hasta ocho micronutrientes que se necesitan en cantidades casi infinitesimales pero que cumplen su papel: boro, cloro (el denostado cloro), manganeso, hierro, zinc, cobre y molibdeno. Algunos de los cuales suenan cual grupos de rock para muchos de los mortales.

Desde el principio de los tiempos, los humanos han ido entendiendo que sus plantas comestibles y ornamentales necesitaban ciertos aditamentos para crecer. Lo de los micronutrientes es un concepto sofisticado que estuvo claro ya en el siglo pasado pero solo para iniciados. Pero lo del nitrógeno, fósforo y potasio lo han intuido pueblos antiguos y sabios que adicionaban a sus plantas cosas como nitratos y fosfatos extraídos de minas (¿quien no ha visto por Castilla o Rioja anuncios antiguos del nitrato de Chile?) u otras cosas tan escatológicas como el guano o el estiércol. Lo del “vete al guano” es una expresión que siempre me ha encantado. Guano es el nombre que se le da a los excrementos de las aves (sobre todo marinas) y murciélagos cuando éstos se acumulan. Hoy sabemos que el guano ha sido eficaz como forma de alimentar vegetales debido a sus altos niveles de nitrógeno y fósforo, derivados de su composición rica en ácido úrico, ácido fosfórico, además de otras sustancias como el ácido oxálico y otras sales.

El guano se ha recolectado tradicionalmente en varias islas del océano Pacífico, particularmente del Perú. Estas islas han sido el hogar de colonias de aves marinas durante siglos, y el guano allí acumulado tiene muchos metros de profundidad. Existe constancia de la explotación del guano en las islas Chincha del Perú en el siglo XIX y principios del siglo XX , período en el que fue la exportación estrella del país. Tanto es así que a finales del XIX, fue la causante de la Guerra del Pacífico (1879) que enfrentó a la alianza Bolivia-Perú contra Chile.

El guano peruano vuelve ahora a estar de moda al ser considerado un fertilizante natural, adecuado a "buenas prácticas agrícolas", que pretenden eliminar de la agricultura fertilizantes sintéticos y reemplazarlos por otros de origen puramente natural (a veces llamados también orgánicos) como el propio estiércol, los humus generados por lombrices, etc.. Para empezar el debate debemos puntualizar que la terminología al uso está viciada en muchos extremos. Muchos de los fertilizantes comerciales, llamados despectivamente sintéticos o inorgánicos tienen origen natural en cuanto se siguen extrayendo de minas y yacimientos. Y aunque en ciertos casos se obtienen por procesos de síntesis, el nitrato o el fosfato potásico es el mismo, se extraiga como mineral de una mina o se obtenga en una empresa química. Así que aunque se emplea también el termino abono mineral, yo me quedo con el de inorgánico, siguiendo la terminología química de identificar el término con sustancias que no contienen átomos de carbono. Por ese mismo argumento, el calificativo de orgánico, ligado en los medios ecologistas a algo producido por seres vivos, es también confuso y parece retrotraernos a la vieja polémica, con tintes religiosos, de la época en la que Wöhler sintetizó la urea. No en vano, la urea, una molécula orgánica, hoy de origen sintetico en su mayor parte, es un fertilizante extraordinario, tan fertilizante y tan extraordinario como la urea contenida en los pises de vacas, cerdos y demás pobres prisioneros de las granjas humanas.

Como decía antes, alimentar a un vegetal correctamente es algo bien conocido. Y para lo que, por no necesitar, no se necesita ni un sustrato tan irrenunciable para un agricultor a la vieja usanza como es la tierra. El tipo de cultivo que hoy conocemos como “hidroponía” viene a ser la prueba irrefutable de la anterior afirmación. Cultivo que, por otro lado, tiene antecedentes tan lejanos como los aztecas. Las llamadas chinampas no eran sino cultivos de este pueblo en zonas pantanosas próximas a la que luego fue ciudad de México. Los agricultores trabajaban sobre un tipo de soportes hechos de juncos y ramas recubiertos con una capa de limo. Las raíces de las plantas estaban realmente sumergidas en lagos de agua. De esta forma, practicaban sin saberlo, un tipo de acuicultura o hidroponía en estado puro.

Los científicos comenzaron realmente a interesarse en esta forma de cultivo en el siglo XVII. Desde esta época, pueden constatarse numerosos ensayos de experimentación de crecimiento de plantas sin suelo con la sola presencia de agua. Pero no ha sido hasta bien entrado el siglo XX cuando ha quedado claro que si al agua se le adicionan las sales minerales adecuadas la planta crece como una señora, sin echar en falta a la madre tierra en la que desparramar sus raíces y tomar a su través esos mismos nutrientes.

Y alguno de mis lectores pensará: ¿por qué se ha montado este follón en contra de la agricultura extensiva basada en fertilizantes que mezclan en adecuadas proporciones los elementos esenciales para el crecimiento de una planta?. Pues, en mi modesta opinión, por lo mismo de siempre, porque la avaricia rompe el saco. Dígale Ud. a un agricultor que con esos fertilizantes que combinan fósforo, nitrógeno y potasio puede conseguir cosechas de la pera y el ciudadano agricultor acabará vertiendo sobre su terreno ingentes cantidades del mismo para conseguir que aquello vaya a la mayor velocidad posible. Pero, Paracelso una vez más, el veneno está en la dosis. Y cantidades desmesuradas de fertilizantes acaban saturando el medio, matando a las plantas y, lo que es peor, contaminando acuíferos fundamentales para un equilibrio adecuado. Problemas como el exceso de nitratos en acuíferos y reservas de agua que provocan efectos no deseados están, creo yo, en la animadversión de ciertos grupos por los fertilizantes comerciales.

Pero pocos se han preocupado de ver el efecto de cultivos intensivos basados en guanos, estiércoles, gallináceas y otras guarradas similares tan queridas por nuestro equipo de gobierno municipal. Fundamentalmente porque la producción no llega a los niveles de los fertilizantes comerciales y no hay manera de hacer estudios comparativos rigurosos en los que se produzca una agricultura tan intensiva como la que proporcionan dichos fertilizantes. ¿Son mejores estos fertilizantes “naturales”?. Gentes honestas como mi amigo Domingo Merino, sin intereses comerciales, que llevan toda una vida asesorando, según su leal saber y entender, a los casheros de esta zona dicen que no. Que con excrementos de gallinas, vacas, cerdos y demás zoología es difícil ajustar las concentraciones adecuadas de nutrientes y, por tanto, hacer una auténtica gestión científica del crecimiento vegetal. Es verdad que hay gentes convencidas de la bondad de la agricultura basada en estos subproductos. Entre sus argumentos más empleados está el hecho comprobado de que la asimilación de nutrientes por la planta se hace de una forma más lenta y eso parece tener alguna repercusión en los productos finales. Pero no hay unas conclusiones claras que eliminen de un plumazo a los fertilizantes que han cambiado la agricultura durante el siglo XX.

Lo que si parece claro es que resulta complicado satisfacer las necesidades crecientes de fertilizantes de paises en desarrollos galopantes como China o India sobre la base de los arriba mencionados subproductos. La bioquímica e ingeniera agrónoma Pilar Carbonero, una pionera en los transgénicos (ya me pide el cuerpo entrar en el tema pero me falta información), decía este verano en una entrevista con los diarios del Grupo Vocento que la agricultura biológica es un capricho de niños ricos. Cuando uno suelta una frase tan impactante a un periodista ya sabe a lo que se expone. Y, además, la propia frase es probablemente injusta, en su literalidad, con gentes que viven la agricultura ecológica con pasión y convicción. Y por eso le han llovido algunas críticas. Pero si uno lee toda la entrevista con detenimiento, la cosa hay que ponerla en el debido contexto, que diría cualquier político al que los media le han sacado los colores. Yo no creo que la Prof. Carbonero esté en contra de emplear fertilizantes “naturales”. Pero lo que ve difícil es alimentar las regiones hambrientas del mundo con la llamada agricultura biológica. Un tipo de agricultura que ya practican, por otro lado, los países del Africa subsahariana porque no tiene dinero para comprar buenas semillas, fertilizantes o, simplemente, agua. Y así les va.

Por el contrario, en países donde existen producciones de vegetales abundantes, la agricultura biológica se ha convertido en una agricultura con valor añadido, donde los adjetivos de ecológica, natural, sin productos químicos, etc. sirven para incrementar el precio de unos productos que, por otro lado, son tan habituales como la vida misma. Es un concepto parecido al del producto del país, las anchoas del Cantábrico o los tomates de Getaria. Poco incremento de calidad contrastable para un precio bastante más abultado.

Así que tengamos la fiesta en paz. Que en este Pais hay que estar siempre en un bando. O nacionalista o español. O de la Real o del Athletic. O de Movistar o de Vodafone. And so on. Dejemos a cada agricultor con su elección. Que ninguno de los dos va a matar a sus clientes con sus productos. Ni quiere acabar con su fértil terreno. El que quiera darle al estiércol, al guano y al sustrato de las lombrices que lo haga, pero no estaría mal que controlara analíticamente sus suelos para ver si está adicionando los nutrientes necesarios. Y al que le da por los sacos de abonos basados en nitratos, fosfatos, etc. que no se pase en la cantidad y que controle igualmente la calidad de sus terrenos. Que técnicos buenos y laboratorios preparados tenemos. Y prácticamente gratis. Pero mientras tanto, por favor Sr. Alcalde, apúntese Ud. al fertilizado no maloliente que, aplicado a nuestros escasos jardines, es difícil que contamine acuíferos ni que esquilme grandes zonas de terreno. Nuestras pituitarias se lo agradecerán. Y prometemos no considerarle por eso menos ecologista que es lo que parece le preocupa de cara al siguiente round (basta verle en su pelea con la incineradora).

Leer mas...

martes, 10 de octubre de 2006

Los genios también se equivocan

Ventajas de la edad y del medio en el que uno se mueve. La vida académica y el tiempo me han hecho conocer a una serie de personajes importantes, personajes merecedores de reconocimientos oficiales tan de relieve como el Premio Nobel, el Príncipe de Asturias, el Nacional de investigación u otros. Personas (que no personajes) del más variado pelaje y características. Buena gente algunos, retorcidos otros, extrovertidos e introvertidos, solteros, casados, separados o viudos, feos o guapos y, casi todos, hombres. Quitando esta última característica que habrá que cambiar, el resto no hace sino significar que, fuera de su genialidad específica en una determinada materia y salvo casos excepcionales, tienen las mismas dudas, las mismas alegrías y los mismos desasosiegos que los de cualquiera de nosotros. Y pueden cometer los mismos errores, aunque con una diferencia. Los que cometen el común de los mortales se diluyen en el tiempo no dejando rastro alguno para la posteridad. Algunos errores de estos genios quedarán para siempre inscritos en la historia como acontecimientos relevantes, como hechos inesperados.

Viene esto a cuento de una entrada que hace tiempo quería escribir y que, por una serie de motivos que no acabo de precisar del todo, he ido abandonando casi en el momento justo de ponerme a redactarla. La entrada tiene que ver con Linus Pauling, quizás el químico más prestigioso que ha producido el siglo XX. Nacido en una modesta familia de Oregón, se costeó sus estudios dando clases particulares de asignaturas que acababa de aprobar en el Oregon Agricultural College. Su brillantez le permitió realizar la Tesis Doctoral en el prestigioso Instituto de Tecnología de California (conocido como CalTech) donde conoció a figuras relevantes de la Química y la Física americana de aquellos días como Noyes, Millikan, Hale o Dickinson. De este último aprendió las potencialidades de los Rayos X para determinar cómo se organizan muchas sustancias sólidas para dar lugar a estructuras cristalinas. Esta formación juvenil le permitió, posteriormente, abordar importantes problemas como los que veremos en esta entrada.

La capacidad de Pauling de andar siempre en la frontera de varios campos fue la clave de muchos de sus éxitos. Aplicando los entonces revolucionarios conceptos de la mecánica cuántica, Pauling fue el primero en describir, con esa herramienta, cómo los átomos se unen mediante enlaces para formar una molécula. Mientras los físicos de la época andaban atareados en usar la teoría cuántica como solución a los problemas existentes en los átomos mondos y lirondos, Pauling tenía una perspectiva diferente y fue capaz de utilizarla para describir la estructura de los orbitales, los sitios en los que se alojan los electrones que dan lugar a los enlaces, los ángulos que forman los enlaces de las moléculas, la energía para romperlos, las distancias existentes entre los átomos así enlazados, etc. Su libro “La naturaleza del enlace químico”, publicado en 1939 por la Universidad de Cornell, es un clásico al que muchos que nos dedicamos a la Química Física tenemos que echar mano, todavía hoy en día, para poder comprender, con su estilo elegante y conciso, algún que otro intrincado concepto.

Pauling traspasó enseguida otra frontera más y dedicó sus esfuerzos a las manifestaciones biológicas del enlace químico. Las moléculas biológicas son, en términos de enlaces, mucho más complejas que moléculas normales como el agua o el alcohol. Y para empezar a hacer boca, Pauling y sus muchachos la emprendieron con la hemoglobina, una molécula gigantesca con un papel fundamental en el transporte del oxígeno que necesitamos. Como derivación de sus estudios “hemoglobínicos”, Pauling fue capaz de entender el mecanismo de una peligrosa enfermedad que asolaba, y asola, amplias zonas de Africa: la anemia drepanocítica en la que los glóbulos rojos se asocian por puentes de hidrógeno y bloquean los vasos sanguíneos.

El trabajo del grupo de CalTech sobre la hemoglobina fue una especie de catalizador del estudio del mundo de las proteínas, que floreció en los años siguientes. El descubrimiento de Pauling de la llamada hélice alfa, un elemento fundamental de la estructura de las proteínas, es un hito que todo bioquímico recuerda.

Pero la vida de Pauling en los años finales de los cuarenta y en los primeros cincuenta fue muy complicada. Aterrado por las consecuencias de las bombas atómicas que acabaron con la resistencia japonesa la emprendió contra el programa nuclear americano, poniendo en juego todo su prestigio y el de su propia Universidad, que pronto empezó a recelar de él al entender que podría haber represalias contra la Institución. Represalias que pronto alcanzaron al propio Pauling. En una época en la que el senador McCarthy y el todopoderoso director del FBI, Hoover, andaban a la caza y captura de cualquiera que pareciera demasiado rojeras, Pauling y sus manifestaciones públicas (véase la foto de la cabecera) acabó cayendo en sus redes, encontrándose con dificultades para poder viajar al extranjero y, hoy tenemos constancia documental de ello, siendo objeto de un duro seguimiento por parte del FBI. La concesión del Nobel de Química en 1954 supuso un punto de inflexión ya que Pauling se envalentonó con el Premio en la mano y la emprendió otra vez, de forma furibunda, contra la lluvia radiactiva y los ensayos nucleares.

Pero hay historiadores de la ciencia que piensan que las dificultades para viajar y su permanente estado de excitación están en el origen de un fallo de principiante que dejó a Pauling fuera de una de las competiciones científicas más apasionantes de todos los tiempos (al menos vista desde nuestra perspectiva actual). En aquellos años, diversos Grupos andaban tras la resolución del problema de los mecanismos que permiten la transmisión genética de padres a hijos. A principios de los 50 se tenían ya los conocimientos necesarios para entender que, tras esos mecanismos, estaba la molécula del ácido desoxirribonucleico, el ADN, o DNA según os guste el acrónimo castellano o inglés. Pero su estructura no estaba clara y muchos intuían que sólo su esclarecimiento daría la clave para entender la transmisión genética.

En el rush final de esta competición se quedaron casi solos dos grupos: uno en torno a Pauling y el CalTech. Otro en torno al Cavendish Laboratory de la Universidad inglesa de Cambridge. Relatar los detalles del tramo final de esa competición puede resultar un poco farragoso para quien me lea con propósitos de cultura general. Para los que quieran entrar en esos detalles, existe una página web, en forma novelada, que describe de manera minuciosa las últimas semanas y días que culminaron el 28 de febrero de 1953, cuando Francis Crick y James Watson concluyeron su modelo de la doble hélice del ADN que abrió las puertas a la comprensión del código genético. Pero para nuestra entrada, lo importante es recalcar el fallo de principiante que Pauling cometió.

A principios de 1953, Pauling publicó un artículo en el que planteaba su visión de la molécula del ADN. Es seguro que, dado el prestigio de Pauling, el artículo fue literalmente devorado por la gente implicada en el problema. Frente a una hélice constituida por dos cadenas que se enrollan (ver diagrama en la cabecera), propuesta que después triunfaría, Pauling proponía un modelo de tres cadenas largas. Para mantenerlas unidas, nuestro progre Profesor echaba mano de unos grupos fosfato que se repiten a lo largo de las cadenas. Según el artículo, los fosfatos estaban en una forma ácida, lo que permitía que las cadenas se mantuvieran unidas por enlaces por puente de hidrógeno (otra vez los puentes de hidrógeno) en torno a los hidrógenos de esos grupos fosfato. Hasta un biólogo como Jim Watson se dio cuenta enseguida de que el error era de Química de 1º. De hecho, pudo comprobar en un libro del propio Pauling (General Chemistry) que, en el medio fisiológico, el pH no es lo suficientemente ácido como para asegurar la forma ácida de los fosfatos y generar puentes de hidrógeno. ¡Había sucedido lo imposible!. El químico más famoso, cuando no el mejor, había malinterpretado una situación descrita en sus propios textos para estudiantes. El fallo palpable envalentonó a los ingleses que, con ayuda de datos de rayos X, pudieron concluir el modelo de doble hélice que los catapultó a la fama. La historia de los Rayos X de esta estructura y la triste participación en ella de Rosalind Franklin, la verdadera especialista en la técnica en el grupo inglés, da para otra entrada que no se si alguien de mis colegas se decidirá a relatar en este blog. Quizás resulte demasiado complicado hacerlo de cara a su lectura por no iniciados.

Nuestro amigo Linus no perdió su inagotable energía por este revés, estando cada vez más implicado en su lucha por parar los ensayos nucleares. El Premio Nobel de la Paz en 1962, como consecuencia de su activismo, da una idea de la relevancia social de este personaje en la época. Pero ese activismo que hoy llamaríamos ecologista le puso en contacto con una serie de personas que le llevaron a lo que, hoy parece claro, podemos llamar el segundo gran error de Pauling. En 1970, cuando disfrutaba de una importante influencia en la sociedad americana, nuestro Linus sacó a la luz un libro (Vitamin C and the Common Cold) en el que propugnaba que tomar un gramo de Vitamina C al día reducía la incidencia de los catarros en un 45%. Una revisión del libro en 1976 aún recomendaba dosis mayores, cuando para muchos científicos la dosis razonable no pasa de 60 mg. En un tercer libro (1979) establecía el poder curativo de estas megadosis en ciertos tipos de cáncer y en uno de 1986 establecía las grandes dosis de Vitamina C como forma de mantener una vida saludable y retardar el envejecimiento. Y, como ejemplo, é´l mismo. Presumía de tomar hasta 10-20 gramos de Vitamina C diariamente y de haber retardado durante veinte años un cáncer de próstata que, finalmente, pudo con Pauling y la Vitamina C aunque, eso si, nuestro jovial científico tenía en el óbito la edad de 93 añitos.

Sin embargo, todos los estudios epidemiológicos llevados a cabo por prestigiosas Instituciones como la Universidad de Toronto en Canadá o la famosa Clínica Mayo echaban por tierra los argumentos de Pauling en torno al poder protector de la Vitamina C contra los resfriados o el cáncer. Pero Pauling no estaba dispuesto a que nadie le corrigiera y se vio envuelto en famosas disputas con un amplio abanico de médicos e Instituciones. En esa especie de carrera contra todo el mundo, Pauling tuvo compañías científicamente poco recomendables. Y, lo que es más grave, resulta altamente sospechoso que Hoffmann-La Roche, la compañía líder en la producción de Vitamina C en la época, fuera el principal patrono del Linus Pauling Institute of Medicine, fundado en 1973 y dedicado a la Medicina Ortomolecular (cómo me suena esto a algo como la gastronomía molecular). Aún hoy, la fundación se dedica a cosas un tanto sospechosas, científicamente hablando. Hay un pequeño estudio de esa Fundación que conservo, datado en 1999 o 2000, en el que se dice que la medicina convencional no había conseguido avances sustanciales contra el cáncer en los últimos veinte años. Esa afirmación, objetivamente, es tan falsa que ya descalifica al que la publica.

Así que como dice el propio James Watson (el de la doble hélice) en su libro Pasión por el ADN, “ahora recuerdo sobre todo el Pauling de hace cincuenta años, cuando proclamaba que lo que sustenta la vida no son fuerzas vitales, sólo enlaces químicos”. En cuanto a mí, pobre químico-físico de provincias, espero que que Pauling no concite las iras cósmicas contra mi persona por haber usado sus fallos para marcarme esta entrada. Pero él sabe, seguro, lo que he disfrutado leyéndole. Por eso, el viejo ejemplar de “La naturaleza del enlace químico” (in english, of course) forma parte de mi particular patrimonio bibliográfico.

Leer mas...

Powered By Blogger