jueves, 29 de junio de 2006

Pañales a discreción

El hecho de no haber contribuido a la población mundial con mis propios churumbeles ha hecho que, entre otras “delicias” ligadas a la paternidad, me haya perdido los íntimos placeres inherentes al cambio de pañales. Pero ello no ha impedido mi interés a lo largo de los últimos años por el desarrollo de una familia muy concreta de polímeros que han supuesto una auténtica revolución en el consumo de pañales y otros aditamentos similares. Se trata de los llamados polímeros superabsorbentes, polímeros con una inusitada capacidad para retener fluidos poco presentables de los seres humanos (y de algunas mascotas que los acompañan).

Hay quien, como mi amigo Mike Coleman, estima que la historia de los nuevos pañales comienza cuando una decidida madre americana, Marion Donovan, quien harta de fregar pañales y ropa situada en los aledaños, optó por vender, a finales de los años 40, una especie de braguita de nylon que se colocaba sobre los pañales de tela para evitar así, en lo posible, las pérdidas de fluidos biológicos. Pero en lo relativo al empleo de polímeros superabsorbentes en estas cuestiones, la cosa parece que se inició en Japón, cuando comenzaron a venderse unas compresas en las que se empleaba un copolímero de injerto de acrilatos sobre almidón, unos materiales en los que mis vecinas de despacho Mariló Gurruchaga e Isabel Goñi realizaron su Tesis Doctoral unos pocos años más tarde. La idea es sencilla de explicar. Se coge almidón, que es un polímero en el que cada unidad que se repite tiene grupos -OH, se mezcla con un monómero acrílico, se pone el catalizador adecuado y en cada -OH del almidón empiezan a crecer los injertos, largas cadenas de poliacrilato.

Pero enseguida estos materiales pasaron al olvido en estas aplicaciones, con la introducción del poliácido acrílico. El poliácido acrílico utilizado en pañales y similares no se emplea tal cual. Si a la hora de obtenerlo, lo hiciéramos únicamente a partir de su monómero (una sustancia denominada ácido acrílico) lo que obtendríamos serían largas cadenas del polímero, entrelazadas entre sí como lo están los spaghetti en un plato, pero que pueden desenredarse fácilmente. Si por el contrario, durante la polimerización, se adicionan pequeñas cantidades de otro monómero que copolimerice con el primero, lo que obtenemos son cadenas (spaghetti) unidas entre sí por otras cadenas. En el símil de la pasta, sería imposible desenredar un spaghetti del conjunto, al estar todos ellos unidos entre sí. La naturaleza y proporción de este agente reticulante (o formador de redes) se guarda con extremo celo por cada uno de los grandes fabricantes de este tipo de material, al conferir propiedades diferenciadoras a cada uno de sus productos.

Como consecuencia de la atracción entre el agua y los grupos ácidos del poliácido acrílico y como consecuencia de que, al estar formando redes, las cadenas no pueden soltarse y disolverse en el agua, el efecto de poner estos polímeros en un medio acuoso es que se hinchan, al poder alojar en el interior de la red grandes cantidades de agua que gustan emparejarse con los grupos ácidos del polímero. Son, para entendernos, una especie de esponjas. La foto de la derecha muestra un sencillo experimento que puede hacerse con agua y un poco de estos materiales superabsorbentes que, cuando están secos, parecen granos de arena blanca o gránulos de azúcar. Esos granos se van hinchando por efecto del agua hasta constituir una especie de gel tembloroso y poco atrayente.

En la literatura se encuentran casos de polímeros superabsorbentes capaces de retener un peso de agua del orden de mil veces mayor que su propio peso. Sin embargo, para aplicaciones en pañales y compresas, la mayoría de los materiales empleados retienen agua ( omnipresente en la orina y otros fluidos) en torno a 20-40 veces su propio peso. Hay que tener en cuenta que el pañal lo viste un niño o un adulto con problemas de incontinencia y que, en ambos casos, el peso de los usuarios suele gravitar, de una u otra forma, sobre el pañal, lo que puede causar pérdidas de líquido que no ocurren si no se ejecutan esas presiones sobre el gel hinchado. Esa capacidad de retención depende mucho de la naturaleza y composición del agente que ha sido capaz de formar una red con las cadenas de poliácido acrílico, de ahí la importancia que dan las empresas a este componente minoritario.

Tampoco estos materiales se han librado de la contienda con el ecologismo activo, probablemente porque aparecieron en años coincidentes con los del nacimiento de muchos movimientos de este tipo. Y es que, además, la cuestión se presta al debate.

Algunos artículos que he leído al respecto estiman entre 8000 y 10000 los pañales que se consumen en la vida de un infante. Me parecen muchos pañales, a no ser que el niño sea un bilbaíno de cuna cuyo culete no debe mojarse nunca o tenga una incontinencia urinaria e intestinal un poco salvaje. Pero, en cualquier caso, no parece posible rebajar la cifra de unos cuantos miles. Así que las estimaciones americanas hablan de miles de millones de pañales que van anualmente a los vertederos, donde sus componentes poliméricos (una media de 14 gramos de poliácido acrílico por pañal) difícilmente desaparecerán. Además, esos pañales están contaminados con heces fecales, contaminación que puede acabar en las aguas subterráneas por pura filtración en el terreno del vertedero (lo que técnicamente se conoce como lixiviación).

Los partidarios de estos pañales de nueva generación argumentan que los pañales a la vieja usanza, de usar y lavar, tampoco es que sean angelitos ecológicos. Aparte de su utilización más complicada y su menor capacidad de retención de líquidos, lo que redunda en el bienestar del usuario y cuidadores, la limpieza cotidiana de varios pañales acarrea un impresionante consumo de agua, detergentes y energía.

Así que bastantes compañías andan a la búsqueda de polímeros biodegradables que pudieran usarse como alternativas a unos y otros. He visto varias soluciones de este tipo a lo largo de los años, pero ninguna parece implantarse de una forma clara. Por sólo poner un ejemplo, tengo un anuncio de una compañía radicada en el Estado de Israel (Exotech Bio Solutions Ltd.) que el año pasado presentaba unos nuevos pañales a base un polímero biodegradable, un copolímero de etileno y una bis-estearamida, que, siendo tan absorbente y más barato que el poliácido acrílico, se biodegrada en un 25% en 8 semanas y tiene una menor posibilidad de contener monómero libre, cuestión ésta que en el caso del ácido acrílico se convierte en uno de sus problemas, al ser causante de alergias en algunos casos. Si este nuevo producto triunfará o no en el mercado es pronto para saberlo. En estas cosas, la bondad del producto no es el único factor a considerar. Hay demasiados intereses económicos de las compañías que hasta ahora han controlado el mercado como para que los pronósticos sean fáciles.

Además de los pañales para niños y adultos y las compresas, existe un número importante de aplicaciones emergentes para estos materiales. Por ejemplo, polímeros superabsorbentes se han comenzado a emplear por parte de algunos servicios de bomberos high-tech. Si uno mezcla agua con partículas de estos materiales y extiende el gel resultante en las inmediaciones de un inmueble amenazado por un incendio próximo, el gel ofrece una protección suplementaria contra el amenazante fuego.

El cableado enterrado o que ha sido sumergido en un mar o un lago puede ser particularmente vulnerable a la penetración de agua, lo que puede dar lugar a cortocircuitos que dañan la instalación. Una de las soluciones ya utilizada es extender el polímero superabsorbente en una cinta adhesiva con la que se recubre el cable o el hilo. Si hay una penetración de agua, ésta es absorbida por el polímero superabsorbente, eliminando o limitando el transporte de agua hasta la parte metálica. Combinaciones de un material de este tipo y cauchos han sido utilizadas como sellantes activos en el túnel bajo el Canal de la Mancha, la forma sutil con la que los europeos continentales hemos conquistado finalmente a los indómitos y renuentes ingleses. Si se produce una filtración, el superabsorbente se hincha y fuerza al caucho a apretarse más en la junta, con lo que la filtración se detiene.

Los materiales superabsorbentes también se usan en medicina para absorber líquidos perjudiciales sobrenadantes durante las intervenciones de los cirujanos y mi amigo Ramón Navas, champiñonero de pro y desgraciadamente fallecido hace un año, me mostró hace tiempo cómo añadía bolitas de poliacrilamida (otro superabsorbente) para constituir una especie de reserva duradera de agua al compost utilizado como medio de cultivo de los champiñones y otras setas industriales.

Leer mas...

Golmajerías: a vueltas, otra vez, con las dosis.

Lo de golmajería es una chulería literaria que me permito en homenaje a mi “hermano” riojano, Fernando Sáez, que ya tuvo antes acomodo en estas entradas. Dice el DRAE (Diccionario de la Real Academia Española) que golmajería es una golosina, que golmajear es comer golosinas y que un golmajo o una golmaja son individuos a los que, como a un servidor, privan las golosinas. El mismo DRAE identifica golosina con manjar delicado, generalmente dulce, que sirve más para el gusto que para el sustento. No estoy muy de acuerdo con la parte final y creo que las siguientes líneas ilustrarán el por qué de mi desacuerdo.

Creo que ya he contado otra vez que nuestro organismo es más de un 60% pura agua. Así que si nos meten en un horno de desecación nos quedamos en nada. Ese agua es tanto un medio de reacción de los procesos que ocurren en un ser vivo como un subproducto de dichos procesos. Pero no nos sirve de combustible. Como hemos visto en la entrada anterior romper una molécula de agua consume energía más que producirla. Así que son los alimentos que consumimos los que funcionan como combustibles de un “motor” que tiene que mover músculos y articulaciones, permitir los impulsos de los nervios y del cerebro, transportar iones y moléculas de un sitio a otro, etc. Entre esos alimentos, los llamados azúcares o carbohidratos suponen un combustible de consumo bastante inmediato. Hay quien dice que la necesidad de tal tipo de alimentos es la que ha configurado el que los humanos (y otros animales) identifiquen como agradable el sabor dulce característico de estas sustancias.

El término carbohidrato (carbón más agua) engloba a una vasta familia de moléculas constituidas por carbono, hidrógeno y oxígeno. Estos dos últimos están siempre en la proporción 2:1, la misma que en el agua, aunque en estos compuestos hidrógenos y oxígenos no están unidos entre si como en la molécula de agua. El amplio espectro de moléculas de carbohidratos comienza con moléculas sencillas como la glucosa (a la derecha), de fórmula C6H12O6 a la que podemos incluir en el grupo de los llamados monosacáridos (sacárido proviene de la palabra latina que significa azúcar), ya que tienen una molécula bien definida. Otro monosacárido es la fructosa, que proporciona su sabor dulce a muchas frutas, encontrándose también en la miel. Como puede comprobarse en la figura de la izquierda, la fructosa, a diferencia de la glucosa, tiene un anillo de cinco elementos, por seis de la glucosa. Otro azúcar o carbohidrato es la sacarosa, componente fundamental del azúcar de mesa, a la que denominaremos un disacárido puesto que su molécula está constituida por una molécula de glucosa y una de fructosa unidas entre sí por un enlace covalente. La misma categoría de disacárido la tiene la lactosa de la leche, constituida por la unión de una molécula de glucosa y una de galactosa (otro monosacárido). Y al mismo grupo pertenece la maltosa, constituida por dos moléculas de glucosa. Los monosacáridos se pueden unir también formando cadenas cortas u oligosacáridos o cadenas largas o polisacáridos, cuyos ejemplos más representativos son el almidón y la celulosa, de cuyas estructuras ya hablé en mi entrada sobre el pan. Las posibilidades de estructuras son infinitas. Sólo de los monosacáridos con fórmula C6H12O6 se conocen 32 distintos isómeros, dependiendo de cómo se unen los grupos -H y -OH a los carbonos, así como las posibilidades de moléculas quirales, de las que ya hablé en otra entrada. Las posibilidades se multiplican al usar todos estos isómeros en la consecución de disacáridos o polisacáridos.

Aunque ahora el azúcar de mesa (o azúcar refinado) nos parece tan cotidiano que casi no le damos importancia, las cosas no han sido siempre así. De hecho, y aparte del aporte en carbohidratos que siempre ha supuesto la lactosa de la leche, la otra fuente azucarada en la antigüedad ha sido la miel de las abejas, citada en las tablas de los sumerios, en el viejo Testamento (en el que el maná con el que Yahvé alimentaba a los israelitas era un azúcar producido por un árbol, rico en manitol) y en las refinadas civilizaciones griegas y romanas. Pero una aproximación a lo que hoy conocemos como azúcar sólo se produce en el siglo XII cuando empieza a haber un incipiente comercio de caña de azúcar transportado como consecuencia de las Cruzadas. Ahí también la Serenísima (Venecia) jugó un papel fundamental en el tratamiento del azúcar como una especia más, destinada a dar sabor a los alimentos y también como medicina o al menos como complemento de los preparados farmacológicos de la época eliminando, por ejemplo, el sabor amargo de algunos de esos preparados. La expansión de la caña se produjo a partir del siglo XV y el posterior descubrimiento, a mediados del XVIII, de la posibilidad de cristalizar azúcar a partir de un extracto de remolacha machacada, acabó con el aire de alimento refinado y lujoso que hasta entonces tenía el azúcar, democratizándolo y convertiéndolo en un alimento básico y barato.

El nivel de sensación dulce que todos estos carbohidratos proporcionan es muy distinto dependiendo de su estructura. Y así, estableciendo un índice de 100 para la sensación de dulzor de la sacarosa (azúcar convencional), por aquello de que es el más corriente, la fructosa contenida en muchas frutas o en la miel tiene un índice de 120, mientras que la lactosa de la leche sólo llega a 40.

El azúcar refinado tiene hoy mala prensa. Y las razones son fáciles de explicar a nivel divulgativo. Los carbohidratos de todo tipo, sobre todo monosacáridos como la glucosa que ya están a un nivel de moléculas pequeñas, son directamente asimilables por el organismo como fuente de energía. El problema es que en el mundo desarrollado, la gente está ingiriendo mucha más cantidad de azúcares de la necesaria, a veces de forma poco consciente, como es el caso de la bollería y de bebidas como la Coca-Cola u otras no alcohólicas. Al mismo tiempo, eso hace que se obvien otro tipo de alimentos que proporcionan otros nutrientes igualmente necesarios para nuestra salud. Se habla así del azúcar como un alimento calórico “vacío” ya que un azucarillo es casi 99.99% sacarosa y casi nada más, ni proteínas, ni grasas, ni minerales, etc. Por tanto, un consumo desmesurado de azúcar lo convierte en un “veneno” (hacía tiempo que no salía Paracelso en el blog) y pueden atribuírsele muchas de las morbideces que antes sólo se veían en los USA y que ahora invaden (como casi todo lo suyo) nuestros ambientes más próximos.

Además del problema de la carie dental ligado al consumo de azúcar, la glucosa generada por los carbohidratos es la causante de un problema importante de salud: la diabetes. Aunque ya hablamos algo del tema en la entrada del 18 de mayo, aquí corresponde decir que todos los carbohidratos ricos en moléculas de glucosa, como aquellos que contienen almidón o maltosa, que son descompuestos en nuestro metabolismo en moléculas de glucosa, son los mas peligrosos para los diabéticos incipientes o consolidados. El azúcar de mesa es algo menos peligroso y la fructosa bastante menos. Los galenos han ideado el llamado índice glucémico que mide esa capacidad de los azúcares para elevar el nivel de glucosa en sangre.

Así que una vez más no nos pasemos. Consumamos azúcar con moderación, como el alcohol, el aceite de oliva, la carne o el pescado. Y si no nos queda mas remedio que prescindir de él, pero no de la sensación dulce en boca que nos atrae, recurramos a los sustitutos del azúcar. Los llamados edulcorantes son moléculas químicas que tienen un índice de dulzor mucho más alto que los azúcares convencionales. Por ejemplo, la sacarina, una molécula puramente sintética, cuya estructura puede verse a la derecha tiene un índice de dulzor de 30.000 con respecto a un valor 100 de la sacarosa tomado como referencia. Y el aspartamo, una combinación sintética de dos aminoácidos tiene un valor de 18.000 en esa misma escala. Eso hace que se necesiten cantidades mucho mas pequeñas de estos edulcorantes a la hora de conseguir un similar nivel de dulzor.

También pueden emplearse otras alternativas al azúcar convencional cuando se necesite emplear cantidades más grandes, por ejemplo en pastelería. Por sólo poner un ejemplo, he podido asistir en más de una ocasión a demostraciones de un conocido pastelero de Elda, Paco Torreblanca, que emplea en sus preparaciones, mas propias de un escultor que de un pastelero, un compuesto comercializado bajo el nombre de Isomalt. Se trata de azúcares modificados en forma de alcohol, cuyos nombres acaban en el término itol. Y así, el citado Isomalt es una mezcla aproximadamente al 50% de Glucopiranosil-D-Manitol dihidratado (C12H24O11.2H2O) con Glucopiranosil-D-Sorbitol (C12H24O11). Y no me pegueis por los nombrecitos. Estas sustancias tienen dos características diferenciales con respecto a los carbohidratos convencionales. Por un lado, se absorben mucho menos por nuestro organismo con lo que su impacto en los niveles de glucosa es menor. Y segundo, por su estructura química no sufren las reacciones que sufren los azúcares convencionales en el llamado proceso de caramelización, con su clásico color parduzco y la génesis de nuevos aromas. En ese sentido se presentan como una alternativa diferenciada a aquéllos en ciertas preparaciones gastronómicas.

Y lo voy a dejar, que son casi las nueve y media de la noche y estoy al borde del coma hipoglucémico.

Leer mas...

lunes, 26 de junio de 2006

Pilas de combustible: un futuro deseable pero incierto

Casi veinte días sin dar un palo al agua en el blog. Alguno de mis habituales me protesta, pero c’est la vie...... Los junios siempre han sido para mi Rubicones estresantes. Los estudiantes se acuerdan de su viejo profesor cuando los exámenes les acucian, las Instituciones quieren los descargos de los proyectos, algunos colegas quieren irse con la conciencia tranquila de vacaciones y apuran los plazos. Y, además, junio y julio son los meses preferidos para las presentaciones de Tesis. En todo eso estoy a la vez estos días y, encima, con un aparato nuevo cuyo montaje duró gran parte de la semana pasada con un técnico alemán que quería que le dedicáramos “todas” las horas del día, para así volverse cuanto antes a sus cuarteles del norte. Así que mi pobre blog se ha quedado el último de la fila. Pero voy a aprovechar una Tesis que también me ha quitado tiempo para montarme una entrada que no requiere de mi muchas comprobaciones, porque todo lo que voy a contar lo tengo fresco.

Alberto Blázquez, es un doctorando que hemos compartido David Mecerreyes de CIDETEC y yo mismo y que estos días anda flotando en una nube pues, no en vano, presentó su Tesis el pasado viernes 23 de junio. En su trabajo, se ha dedicado a preparar nuevas membranas poliméricas que puedan funcionar como electrolitos sólidos en pilas de combustible de hidrógeno. Ya se que, probablemente, la frase anterior es indescifrable para quien no esté al loro del asunto, pero de alguna forma tiene que empezar uno a contar en formato caperucita cuestiones algo complicadas.

Una pila de combustible debe su nombre a que, como todas las pilas o baterías, produce energía eléctrica gracias a lo que los químicos llamamos una reacción de oxidación/reducción, un conjunto de dos reacciones que ocurren en los electrodos o polos de la pila. En este caso, la reacción global de ambos procesos es la síntesis de agua a partir de hidrógeno y oxígeno, una reacción sencilla e inocua para el medio ambiente, que proporciona una cantidad importante de energía, con un rendimiento mucho mayor que el pueda proporcionar un motor de combustión de gasolina o un motor diesel.

A diferencia de las pilas convencionales donde los reactivos están empaquetados en la pila y ésta funciona hasta que los mismos se gastan, en las pilas de combustible hay que suministrar a la misma, desde el exterior y de forma continuada, los combustibles (hidrógeno y aire con su oxígeno) para que funcionen. Igual que con las pilas convencionales, las de combustible pueden apilarse en serie, consiguiendo potencias que lo mismo valen para que funcione un teléfono móvil que un autobús.

Hasta aquí todo parece bonito. Pero la vida real es mucho más complicada que lo que parece indicar la teoría sobre el papel. De los dos combustibles que necesitamos, el oxígeno lo obtenemos sin problemas alimentando aire. Incluso si lo quisiéramos en estado puro, hace sólo dos entradas ya os contaba cómo se puede separar el aire en sus componentes fundamentales. Pero el problema está en el hidrógeno. Aunque está por todos los lados en la naturaleza, rara vez se le encuentra en estado puro. Lo normal es encontrarlo combinado. Fundamentalmente está en el agua, en los combustibles sólidos (recordar que las gasolinas son hidrocarburos, esto es carbono e hidrógeno) y en los seres vivos. Es decir, necesitamos producir hidrógeno para poderlo utilizar en las pilas de combustible.

En la actualidad, más de la mitad del hidrógeno producido se produce a través del gas natural en una reacción que al final proporciona CO2 e hidrógeno. Con este planteamiento a nadie se le escapa que este proceso tiene serias limitaciones. Primero, porque el gas natural está en fase de declive, no tan acusada como el petróleo, pero es otro combustible fósil. Y dos, porque el proceso produce CO2. Y la encrucijada energética en la que nos encontramos es, básicamente, escasez de combustibles fósiles y excesiva generación de CO2 con todo lo que ello acarrea en efecto invernadero. Aún y así, muchos analistas creen que si la humanidad va derivando paulatinamente a una energía basada en el hidrógeno, durante los primeros años, la obtención de hidrógeno se hará por esta vía.

La otra vía es la misma reacción de la pila de combustible que veis arriba pero al revés. Esto es, aprovechemos el enorme potencial de hidrógeno que nos suministra el agua omnipresente en mares y océanos y extraigamos el hidrógeno de ese agua. ¿Sencillo?. Pues no. Si bien la reacción que ocurre en las pilas y que veis arriba es espontánea y produce energía eléctrica y calor, la contraria, la electrolisis del agua, sólo ocurre si desde el exterior proporcionamos energía en cantidades respetables. Y aquí se nos cierra el ciclo mortífero. ¿De donde sacamos esa energía?. Recurrir a los combustibles fósiles no puede ser la solución, tal y como estamos. Así que no queda más que confiar en que una combinación de energías renovables proporcionadas por el viento (eólica), la luz del sol (fotovoltaica), en pantanos (hidroeléctrica) o las enormes cantidades de energía acumuladas en volcanes y en el interior de la tierra (geotérmica) sean capaces de entrar con fuerza en procesos de génesis de hidrógeno que luego se usen en la pilas de combustible. Bonito pero vamos a sudar. Aunque tampoco es ciencia ficción. Naciones con recursos geotérmicos importantes como Islandia llevan años trabajando en que su economía tenga como vector de funcionamiento al hidrógeno. Y no lo están haciendo mal. Por otro lado, las células fotovoltaicas, que recogen la energía que nos viene del sol van mejorando en sus rendimientos gracias a avances en nuevos materiales. Y la energía eólica se va poco a poco extendiendo.

No son sólo esos los problemas a resolver. Las membranas que se emplean como corazón de las pilas son caras y no aguantan tiempo. La reacción de obtención del agua necesita un catalizador de platino que si el hidrógeno ha sido obtenido del gas natural puede llevar cantidades muy pequeñas de monóxido de carbono, suficientes para envenenar el catalizador y dejarlo inservible en poco tiempo. Almacenar hidrógeno es peligroso y además ocupa mucho espacio. En fin, muchas cosas sobre las que investigar duro.

Aún y así, el interés en este momento por el tema es extraordinario. Hay grandes fabricantes de automóviles metidos en consorcios para desarrollar toda la tecnología necesaria para pasar de coches movidos por gasolina a coches movidos por hidrógeno. Hay gobiernos como el americano con programas específicos para el desarrollo de la economía basada en el hidrógeno. Hay empresas, como las de electrodomésticos ligadas al Grupo Mondragón que están desarrollando pilas de hidrógeno para uso casero, pensando incluso en que si produjéramos más electricidad que la necesaria, pudiéramos descargarla en una red eléctrica amiga, lo que nos proporcionaría pingües beneficios. En fin, que parece que algo se mueve, pero no me gustaría trasmitir aquí una opinión muy optimista. Hace ya años leí una predicción que aseguraba que en 2010 estaríamos al borde de la extinción de los pozos de petróleo y habría ya coches propulsados por hidrógeno. Ni una cosa ni otra se ha cumplido. Aunque hay coches y autobuses prototipo funcionando con hidrógeno, no creo que hayaís visto muchas hidrogeneras (las futuras gasolineras) por esas carreteras de Dios. Y es que no hay que hacer predicciones. Siempre me acuerdo de ese alto directivo de IBM (creo que llegó a Presidente) que en sus predicciones no veía que en cada casa tuviera que haber un ordenador.

Y pensar que la economía basada en el hidrógeno ya la contemplaba uno de los personajes de la novela de Julio Verne “Veinte mil leguas de un viaje submarino”......

Leer mas...

domingo, 11 de junio de 2006

Jabones, mayonesas y aliolis, pinturas.

Hay muchos trucos que un docente emplea para captar la atención de sus estudiantes. Entre los que yo uso de forma recurrente, alguno parece haber sido particularmente eficaz con mis alumnos, porque bastantes de ellos, en posteriores encuentros distendidos y, a veces, sazonados con cantidades relativamente importantes de alcohol, me han confesado que una de las cosas que asocian conmigo es mi pasión por el Fairy, ese detergente para vajillas que, junto a las cervezas, descubrí en Bélgica en el año 1981, cuando aquí todavía no se vendía. Suelo proporcionar en clase una receta para generar con él gigantescas pompas de jabón que engloban hasta niños. Me sirve en el laboratorio para explicar la tensión superficial y cómo pequeñas gotas de Fairy hacen disminuir dramáticamente la tensión superficial del agua. Y, finalmente, me ha servido muchas veces como introducción a la polimerización en emulsión de la que luego hablaré.

Una de la labores propias de mi sexo en la organización de mi vida conyugal es fregar los platos de las cenas o del fin de semana. Tenemos lavavajillas pero, para dos gatos que somos, el material a fregar es tan parco que, muchas veces, lo hago a mano y tengo que confesar que hasta me resulta relajante. Y ello, en parte, porque para hacerlo me armo de pequeñas dosis de Fairy que me ayudan a acabar con prontitud con los restos de grasa y aceite, probablemente los más engorrosos de eliminar. Es verdad que no hace falta sofisticarse tanto para fregar. Una pastilla de un jabón antiguo y popular como Lagarto, Chimbo o similares produce efectos parecidos en lo que a eliminación de grasas se refiere.

El aceite y otras grasas, debido a sus estructuras químicas, son casi incompatibles con una molécula de estructura radicalmente distinta como es el agua. Por ejemplo, añadiendo aceite de oliva, pongamos 4-5 gramos, a una cierta cantidad de agua (unos 25 cc) apreciamos que el aceite (menos denso) flota como un continuo sobre el agua, cosa que no ocurre al adicionar alcohol sobre agua. Si con una cucharilla agitamos ambos componentes, apreciaremos que el aceite se rompe en pequeñas gotas que se dispersan en el continuo de agua, mientras haya agitación. Pero si cesamos la misma, las gotas de aceite van colapsando poco a poco hasta de nuevo formar la fase de aceite sobre la fase de agua. Pero si antes de la agitación adicionamos unas pocas gotas de Fairy, el resultado de ésta es bastante diferente. Las gotas de aceite que se forman son mucho más pequeñas y la dispersión permanece como tal durante mucho más tiempo. En términos químicos decimos que el Fairy emulsifica la mezcla de aceite y agua.

Eso es lo que de forma fina se suele conocer como acción detersiva del jabón o cualquier otro detergente como el Fairy. Realmente, el jabón no es necesario para limpiar muchas cosas pero si para emulsificar las grasas y arrastrarlas fácilmente de la superficie de un plato o una sartén.

Muchos de estos detergentes son moléculas conocidas como anfifílicas, que es algo así como moléculas de doble alma. Se trata de sustancias obtenidas a partir de ácidos grasos de cadenas relativamente largas (14-18 grupos CH2) y bases como la sosa caústica o la potasa en una reacción conocida como saponificación.

En esta ola de sostenibilidad oficial que nos asola (nada que objetar a un Universo sostenible, pero si lo planifican los políticos es mejor mirar la letra pequeña) he visto hace poco un folleto divulgativo de la Diputación Foral de Gipuzkoa en el que se recomendaba a la población no adquirir detergentes comerciales y fabricarse en casa su propio jabón a partir de aceites usados, que contiene los ácidos grasos, y las bases arriba mencionadas. Mejor que no lo probéis. La cosa es un poco maloliente y, además, no es cuestión de almacenar en una casa normal reactivos tan peligrosos como la sosa caústica.

La saponificación nos proporciona pues moléculas cabezonas como la que se ve en la figura de arriba, con más apariencia de espermatozoide que de otra cosa, moléculas que tienen una cola larga de naturaleza orgánica o apolar (los CH2) y, por tanto, hidrofóbica (¿agua?, no gracias) junto con una cabeza que contiene un grupo iónico hidrofílico o polar (al que le gusta el agua como comer con los dedos). En ese doble carácter (anfifílico) radican las potencialidades de los detergentes para llevarse la grasa.

El mecanismo puede resultar interesante para quien lo oye contar por primera vez (o eso espero). Cuando ponemos jabón en agua, los “espermatozoides” jabonosos se encuentran ante una disyuntiva complicada. La parte orgánica huiría del agua cual gato persa. Y la colita iónica perdería el culo por la misma. Pero están indisolublemente unidos y hay que resolver el dilema.

Así que varias moléculas de ese tipo se asocian en estructuras supramoleculares conocidas como micelas, una de las cuales se muestra en la figura adjunta. En ellas, las cabezas se colocan en el exterior de una esfera cuya atmósfera interior está llena de las cadenas orgánicas. Las pequeñas cosas que vuelan fuera de esa esfera son moléculas de agua. Y el interior de esas supramoléculas, en tanto que un ambiente orgánico, es un sitio adecuado para albergar moléculas de aceites y grasas que huyen del agua y que una vez ahí albergadas pueden ser arrastradas en el proceso de limpieza. Me perdonareis una quizás excesiva vulgarización del tema pero creo que se entiende.

En gastronomía hay varios ejemplos de emulsiones que ayudan a entender un poco mejor lo que estoy contando. La emulsión por excelencia en cocina es la mayonesa. Cuando se añade aceite a una yema de huevo con un poco de vinagre y se agita convenientemente durante la progresiva adición del aceite, lo que se va obteniendo parece homogéneo pero, si se pone bajo un microscopio, se puede apreciar que gotas de aceite se dispersan en la pequeña cantidad de agua aportada por el vinagre y la propia yema. En Francia es habitual añadir mostaza que también aporta agua pues la propia mostaza se prepara con vinagre.

Si el aceite no se separa de ese agua es debido a la presencia en la yema de sustancias que juegan el papel de emulsificantes, tensoactivos o surfactantes (tres formas de decir más o menos lo mismo). Aunque la tradición popular pone al menos un huevo para hacer una cierta cantidad de mayonesa, lo cierto es que la cantidad de emulsificantes contenidos en una yema es suficiente para preparar cantidades mucho más grandes de mayonesa. Hervé This en su libro Casseroles & Éprouvettes habla de que con una yema se pueden preparar litros de mayonesa con la condición de añadir las cantidades adecuadas de agua.

En caso contrario, el aceite está en cantidad excesiva y acaba separándose como una fase diferenciada, esto es, la mayonesa “se corta”. En ese mismo libro, This propone nuevos tipos de mayonesa, empleando sólo la clara del huevo, que también contiene tensoactivos, aunque en menor proporción. Además la “mayonesa” resultante tiene mucho menos sabor.Los emulsificantes en estos casos son ligeramente distintos en estructura. De entre los que se encuentran en la yema del huevo el más importante es un fosfolípido llamado lecitina. Podría meterme en honduras químicas y describiros su estructura pero basta con mencionar que, de nuevo, se trata de cadenas largas de tipo orgánico con un extremo que este caso juega con la glicerina (por eso también se habla de un diglicérido) y que también tiene naturaleza iónica o amiga del agua. Estas moléculas pueden colocarse en la interfase entre el agua y el aceite y hacer que se mantengan juntos pero no revueltos.

Un primo de la mayonesa es el ali-oli, donde no hay huevo. Pero el ajo empleado en la preparación contiene emulsificantes suficientes para estabilizar la progresiva adición de aceite. De nuevo, trucos como adicionar una pequeña cantidad de agua o un poco de pan untado en leche, son formas de ajustar las proporciones adecuadas de agua y emulsificantes. Así que no hay misterios en estas preparaciones. Ni las fases de la luna, ni las mujeres con la regla ni el sentido de la agitación en contra o favor de las agujas del reloj. Pura estequiometría, palabreja que los químicos usamos para decir que al hacer una reacción tenemos que poner las cantidades adecuadas.

Y emulsiones son también nuestra queridas salsas para los pescados en cazuela, en las que una cocción a fuego lento y con movimiento extrae de la merluza o del bacalao ciertos componentes que actúan como emulsificantes del aceite que hemos puesto en la cazuela, además de proporcionar cantidades de agua, a veces insuficientes, en las que dispersar ese aceite.

Pero emulsión es también el nombre que recibe un procedimiento industrial muy extendido para preparar polímeros. Por sus contribuciones en este campo, mi amigo Txema Asua ha recibido este año el Premio Euskadi de Investigación. No os voy a dar un curso al respecto. Me fijaré sólo en los botes de pintura con los que barnizamos puertas o paredes. Muchos de ellos son emulsiones en agua de un polímero, adecuadamente estabilizado con un emulsificante. Probablemente alguna vez hayais visto un bote de pintura mantenido mucho tiempo en un sitio y que, al abrirlo, el agua o el disolvente está totalmente separado y el fondo queda una pintura superviscosa. Es que la emulsión se ha bufado, probablemente por cambios bruscos de temperatura.

En el procedimiento habitual de preparación de estas emulsiones, se coge una cantidad importante de agua a la que, con agitación, se añade el monómero o materia prima que va a dar lugar al polímero. Estos monómeros son sustancias orgánicas que no se disuelven en agua, por lo que estamos en un caso parecido al aceite. Hay que añadir emulsificantes para que formen estructuras (micelas) como las del dibujo de arriba, en cuyo interior se guarecen las moléculas de monómero. Ahí dentro llegan también pequeñas cantidades de unas sustancias que funcionan como iniciadores de la reacción por la que el monómero se transforma en polímero. Al final, cada micela es un pequeño reactor que, al concluir el proceso, está llena de polímero, al que tampoco gusta el agua y que hay que emulsificar para que no se separe del agua. El producto final, partículas de polímero emulsificadas y estabilizadas en el agua es lo que se llama un látex y, directamente, se envasa en botes y se vende como pintura.

No me digais que lo de la emulsión no da juego. Y algunos de vosotros sin enteraros todavía......

Leer mas...

jueves, 8 de junio de 2006

Descomponiendo el aire

En una anterior entrada homenajeaba la memoria de Fritz Haber con su síntesis del amoníaco, una forma de fijar y hacer accesible el nitrógeno del aire a las plantas y a los seres vivos que necesitan de él para mantener su propia existencia. Hoy nos vamos a dedicar de nuevo al aire, ese invisible que nos rodea y que ademas del nitrógeno mencionado (78%) lleva el oxígeno necesario para nuestra respiración (21%). El pequeño porcentaje restante lo comparten toda una serie de otros gases como el anhídrido carbónico, el argón y las contaminaciones gaseosas propias de cada lugar.

El propósito de la entrada es ilustrar cómo se consigue separar el nitrógeno y el oxígeno contenidos en el aire, las nuevas tecnologías existentes al respecto y los usos que a esos gases se les dan. La entrada tiene un componente de bajas temperaturas que viene al pelo en un día como el que hemos sufrido, viento sur, bochorno y demás inconvenientes derivados de un clima casi tropical.

Mis inteligentes lectores conocen por ciencia infusa que, a temperatura ambiente, oxígeno y nitrógeno son gases. Desde el punto de vista químico, se trata de sustancias de estructura muy sencilla, moléculas diatómicas representadas por las fórmulas O2 y N2. Para conseguir que esos gases se conviertan en líquidos hay que enfriar hasta temperaturas realmente bajas: -183ºC en el caso del oxígeno y hasta casi -196ºC para el caso del nitrógeno. O dicho también de otra manera, el oxígeno líquido hierve a -183ºC y el nitrógeno líquido a -196ºC. Los que hayáis visto un termo lleno de nitrógeno líquido habréis comprobado que está en perpetua ebullición debido a que el ambiente está mucho más caliente. Eso quiere decir que en el interior de ese líquido, la temperatura se mantiene en esos -196ºC, lo cual no es una broma. De hecho, los dermatólogos usan nitrógeno líquido para congelar de forma extrema y, por tanto, matar (el término quemar es algo equívoco) el tejido en la zona de pequeñas afecciones de la piel como verrugas y otras alteraciones.

Para separar el nitrógeno y el oxígeno existentes en el aire se ha usado tradicionalmente el método denominado destilación criogénica. Puestos a vulgarizar el tema, la cosa está chupada. Se coge aire, se enfría por debajo de -200ºC, con lo que los dos componentes esenciales se colocan en estado líquido y luego se empieza a subir lentamente la temperatura como cuando uno destila un orujo gallego. A -196ºC empieza a hervir el nitrógeno. Cuando éste cesa de salir, nuevos aportes de calor llevan al resto hasta -183ºC, temperatura a la que empieza a hervir el oxígeno puro. Al final, oxígeno casi puro por un lado y nitrógeno por el otro.

Contado así es un juego de niños, pero llevar el aire hasta -200ºC o más no es una cuestión baladí y, de hecho, hubo que esperar hasta 1872 para poderlo hacer en el laboratorio y hasta 1902 para hacerlo en gran escala. La teoría del proceso es, sin embargo, sencilla de explicar. Cuando un gas se comprime, aumentando su presión, y, posteriormente, se expande bruscamente a presiones mucho más bajas, el gas se enfría. Ese proceso es el que se repite de forma permanente en nuestros frigoríficos. El pequeño motor que llevan todos ellos es, en realidad, un compresor, que comprime el gas contenido en todo ese sistema de pequeñas cañerías que se ven en la parte trasera del frigorífico. Tras comprimirlo, el gas es expandido en ese mismo tipo de tuberías pero situadas en el interior del frigorífico. El gas así expandido se enfría, rebajando la temperatura de los alimentos contenidos en el frigorífico o congelador.

Si el proceso se repite muchas veces y se seleccionan las presiones de compresión y expansión adecuadas es posible licuar el aire que necesitamos como punto de partida para la destilación posterior que nos proporcione el oxígeno y el nitrógeno.

Los usos de estos dos gases son muy variados e importantes en nuestra actual civilización. La utilización del oxígeno está fundamentalmente basada en su imprescindible participación en los procesos de combustión, así como en aplicaciones en el ámbito médico. El oxígeno se usa puro o mezclado con aire, enriqueciendo así a este último en oxígeno, en procesos ligados a hornos y fundiciones de todo tipo, procesos de soldadura y corte de metal, etc. En muchas plantas químicas el oxígeno es una materia prima y en la fabricación de pulpa de papel puede emplearse como agente blanqueante. En hospitales, es un suministro obligado en la cabecera de muchas habitaciones como forma de salvar y proteger vidas.

El nitrógeno se usa sobre todo como gas en la citada síntesis del amoníaco. En estado líquido, se usa como refrigerante. Por ejemplo, en los equipos de Resonancia Magnética Nuclear empleados tanto en Medicina como en Química, el imán superconductor de los equipos tiene que trabajar a temperaturas que rondan el punto de ebullición del helio líquido (-268ºC). Con esa temperatura de ebullición, el helio se evapora a velocidades extremas y, para evitarlo, el tanque que lo contiene se encierra dentro de otro en el que el nitrógeno líquido actúa a modo de camisa térmica del anterior.

En los últimos tiempos, el uso de nitrógeno líquido en restaurantes con estrellas se ha convertido en una especie de fetiche de modernidad e innovación. Y en espectáculos con un aire de intriga se deja evaporar nitrógeno líquido mezclado con agua. La temperatura del nitrógeno que se evapora es tan baja que llega a licuar al vapor de agua que de forma continua se escapa del agua líquida, generando una niebla que todo lo invade.

Pero hoy las ciencias adelantan que es una barbaridad. Y frente a la opción de la destilación criogénica que he descrito más arriba, hay otras técnicas de separación de los gases fundamentales del aire que van poco a poco imponiéndose. En la foto del encabezado se ve a un operario de Air Products, una compañía americana, junto a largas fibras huecas de material polimérico empleadas como agentes de separación de gases y comercializadas bajo la marca PRISM. La idea básica de estos procesos de separación es fácil de explicar.

Los polímeros, cualquier polímero, no son impermeables a los gases. ¿La prueba?. Los globos y las ruedas se deshinchan, las botellas de Coca-Cola se quedan sin “chispa de la vida” si se almacenan durante mucho tiempo. Pero, dado un determinado polímero, la permeabilidad a través de él de diferentes gases puede cambiar bastante. Eligiendo adecuadamente el material, éste puede dejar pasar preferentemente a uno de los componentes de una mezcla como el y no a otros. Eso es lo que se hace con las fibras PRISM. Colocadas en módulos adecuados, éstos se alimentan con aire. El oxígeno entra por las fibras y atraviesa sus paredes hacia el espacio entre ellas, mientras el nitrógeno sigue la linea de las propias fibras. En un sólo módulo la separación no es total pero poniendo varios en serie se pueden conseguir purezas rayanas en el 100% para cada componente. El sistema es, por ahora, caro, pero mucho más sostenible que los procedimientos de destilación criogénica. Todo parece indicar que este tipo de membranas de separación se van a acabar imponiendo en muchos ámbitos.

Leer mas...

martes, 6 de junio de 2006

Viendo átomos y moléculas

Soy consciente de que, para gente sin una formación científica algo consistente, explicar las propiedades de la materia en términos de átomos y moléculas es casi como hablar del sexo de los ángeles. El grado máximo de comprensión al respecto no suele ir más allá de “cosas pequeñas que se mueven”. Algún amigo tengo (cuyo nombre no mencionaré) que en cuanto ve una foto obtenida con un microscopio, identifica cualquier cosa que allí aparezca con “moléculas”. Si le digo que, por ejemplo, lo que está viendo es una gota de agua con un poco de polvo ambiental y que en esa gota de agua (0.05 ml) hay 30000000000000000000000 moléculas de agua, la cosa entra ya en el reino de la magia, porque ¿dónde están las jodidas moléculas?.

Sospecho que la razón de mucha de la incomprensión que sufrimos los científicos en nuestra actividad cotidiana radica en que nuestros elementos fundamentales (átomos y moléculas) son tan intangibles como los sellos de Fórum Filatélico. Y, además, no se ven. Y todo lo que un humano no ve adquiere enseguida un aureola de fantasía que puede, casi inexorablemente, deslizarse hacia los dominios de la magia o la religión. Y eso es, y ha sido, aplicable a lo grande y a lo pequeño.

El Universo empezó a entenderse con los telescopios que comenzaron a aumentar la imagen que nuestros ojos tenían de él, permitiendo escudriñar cada vez más lejos, resolver cada vez mejor la forma y movimiento de las estrellas y acabar así concluyendo (¡anda que no les costó a Kepler, Galileo y otros!) que la idea mística de la Tierra como centro del Universo se caía por si sola al pozo de las mentiras religiosas.

La contrapartida a los telescopios la han proporcionado los microscopios. En la entrada sobre la síntesis de Wöhler de la urea (23 de abril) ya mencionaba que la reacción de los partidarios del “toque divino” en todo lo producido por los seres vivos ante la síntesis de productos “orgánicos” fue desviar su atención hacia los primeros descubrimientos sobre lo complejo que era lo pequeño (por ejemplo, un preparado de un tejido biológico), como forma de seguir manteniendo la imposibilidad de los científicos de resolver los enigmas de la vida.

Nuestro microscopio primario, nuestro ojo y su retina, tiene serias limitaciones para ver cosas pequeñas. Os podría pormenorizar aquí un sencillo cálculo basado en mis limitados conocimientos de óptica, pero vamos a irnos directamente al resultado. Un ojo humano normal, sin ayuda de antiparras, tiene un límite de resolución espacial en torno a 75 micras o, lo que es igual, 0.075 milímetros. Ir bastante más allá requiere de ayuda instrumental como la que proporcionan los microscopios. Otro cálculo sencillo permite deducir que, aproximadamente, una molécula de agua mide 0.3 nanometros, que es lo mismo que 0.0000003 milímetros, es decir, la molécula de agua es 250.000 veces más pequeña que lo que nosotros podemos apreciar mínimamente con nuestra retina.

Llegar hasta los límites de ver átomos y moléculas ha requerido todo un gigantesco esfuerzo cooperativo de muchos científicos, gracias a los que hoy podemos ver esas entidades.

Los microscopios se empezaron a desarrollar en el siglo XVII y, en los comienzos, eran en realidad lupas de una sola lente que, aunque con dificultades, empezaron a revelar la existencia de complejas estructuras en los tejidos, la existencia de pequeños insectos y microorganismos, etc. El avance sustancial se produjo con la introducción de lo que hoy conocemos como microscopios ópticos, un conjunto de dos lentes (ocular y objetivo) que ya permitían magnificaciones mayores y que contribuyeron al sostenido crecimiento de la fisiología, la botánica y otras ciencias en el siglo XIX. Como ya puso de manifiesto Abbé en 1873 la resolución de estos microscopios no puede ir más allá de la mitad de la longitud de onda empleada. Tomando la longitud media de la luz visible eso implica una resolución en torno a 0.3 micras, 250 veces la resolución del ojo humano.

La marea de física cuántica que se produjo en las primeras dos décadas del siglo XX fue fundamental para entender que, en lugar de luz, podían usarse flujos de electrones como radiación electromagnética similar a la luz para ver cosas más pequeñas. Ello hizo que en los primeros cincuenta años de ese siglo se desarrollaran toda una serie de microscopios electrónicos, con resoluciones en torno a unos pocos nanometros, lo que permitía ver estructuras poco complejas, pero no átomos.

Pero ahora hace algo más de 50 años, el 11 de octubre de 1955, un grupo de investigadores de la Pennsylvania State University, dirigido por Erwin E. Müller, utilizando una técnica conocida como FIM (Field Ion Microscopy) fue capaz de obtener una fotografía en la que se llegaban a distinguir átomos de wolframio (o tungsteno), un elemento en el que los hermanos Elhuyar y el Real Seminario de Bergara tienen algo que ver.

Posteriormente, otras técnicas como la microscopía electrónica (STEM) o la microscopía de efecto túnel (STM), a la que Pedro Etxenike ha realizado contribuciones fundamentales, han conseguido resoluciones atómicas similares a las de la FIM y, de hecho, han superado a ésta en sus implantaciones comerciales. Pero la primera foto de Müller y sus colegas quedó como un hito en la historia de visualizar los componentes esenciales de la materia. Todo el mundo pensaba que Müller se merecía el Nobel pero murió en 1977 sin conseguirlo. En 1986 el Premio Nobel de Física lo compartieron Ernest Ruska por el diseño del primer microscopio electrónico y Gerd Binning y Heinrich Rohrer por su trabajo sobre el microscopio de efecto túnel. No tengo conocimientos para poner objeción alguna a esa nominación y, además, Rohrer es un tipo que me cae bien, amante confeso de Donosti y con el que este setiembre pasado he compartido cervezas durante el Congreso sobre el Annus Mirabilis de Einstein. Pero, probablemente, Müller será uno más de los que se quedan en la cuneta de esa difícil carrera hacia el Nobel.

Leer mas...

sábado, 3 de junio de 2006

Vidrio y cristal

Esta entrada fue actualizada el 25 de febrero de 2015. Cualquier enlace que os dirija a la misma debe redirigirse a la actualizada.

Leer mas...

viernes, 2 de junio de 2006

Químicos italianos

El inicio de junio me pilla en Venecia. Nada de ciencia. Que mañana hace treinta años que mi chica y yo nos aguantamos en el sentido conyugal de la palabra y, en uso de sus atribuciones y sin posibilidad de discusión, me ha traido a la ciudad de los gondoleros. Yo argumenté que no había golf, pero ni por esas. Así que aquí estoy. Al menos me ha dejado traerme el Mac y, como en las habitaciones de los hoteles hay pocas cosas que hacer, mientras descansamos un poco del duro walking around, he decidido “decorar” un poco mi blog con una entrada escrita en Italia y dedicada a italianos.

Había pensado buscar algo sobre químicos italianos relacionados con la ciudad en la que estoy pero, para mi sorpresa, no he encontrado más que uno y sólo ligeramente relacionado con ella (tampoco puedo dedicar mucho tiempo a la búsqueda). Pero el personaje, al que no conocía, es jugoso y, en cierta manera, un adelantado a su época. Angelo Sala, que así se llama nuestro personaje, nació en Vicenza en 1576. Sus contados historiadores no han podido demostrar que realizara ningún tipo de estudio reglado (como se dice ahora). Sin embargo, ejerció como reputado médico y contribuyó con algunas ideas preclaras a los avances tanto de la propia Medicina como de la Química.

Sus autodidactas conocimientos de Química parece que los adquirió precisamente en Venecia, donde vivió por un corto período de tiempo. De sus actividades, que casi pudiéramos denominar alquimistas, su más importante contribución tiene que ver con el arranque de los avances que condujeron a la fotografía. Sala descubrió que la luz del sol era la causante del ennegrecimiento del nitrato de plata, así como del papel que estaba en contacto con él. Curiosamente, ese descubrimiento se suele atribuir a Robert Boyle, todo un personaje en la Historia de la Química y mucho mas mencionado que Sala. Pero Boyle tenía una idea errónea del proceso, que nunca hubiera conducido a la fotografía. Boyle creía que el ennegrecimiento era debido al aire. Sólo tras la corrección de Sala y tras los avances en el campo de la óptica que siguieron en los inmediatos siglos, la fotografía pudo, por fin, tomar carta de naturaleza en el primer tercio del siglo XIX.

Sala fué también un precursor en la idea de los átomos como entidades identitarias de las sustancias, algo que siguió dando vueltas en las mentes de los químicos durante casi tres siglos más, hasta que otros italianos, Avogadro y Cannizaro, tomaran el relevo de Sala en la consolidación de la hipótesis atómica. Pero esa es una historia que no tiene mucho que ver con Venecia y que da para más de una entrada posterior.

La idea, poco definida todavía, que Sala manejaba, era que algunas sustancias resultaban de la combinación química de otras. Por ejemplo, Sala afirmó que los procesos fermentativos como los que dan lugar al vino a partir de la uva, no eran sino un reagrupamiento de las particulas elementales que componían las sustancias de partida para dar lugar a otras nuevas.

Sala, que murió el 2 de octubre de 1636, tampoco parece haber estudiado Medicina en ninguno de los sitios clásicos del siglo XVI, como Bolonia. Pero ejerció de médico y adquirió una fama notable. Tanto es así que, cuando tuvo que exiliarse de Italia entre 1602 y 1612, acabó en Alemania de médico oficial de diferente miembros de la nobleza teutona. Fué un decidido seguidor de nuestro amigo Paracelso, casi Dios en este blog, razón por la cual se merece un sitio a su lado en este modesto cuaderno digital. Una entrada cortita, como corresponde a mis conocimientos sobre él y a que, además, estoy de minivacaciones.........

Leer mas...

Datos personales

Boredom is the highest mental state, según Einstein. Pero, a veces, aburrirse cansa. Y por eso ando en esto, persiguiendo quimiofóbicos.