sábado, 14 de mayo de 2011

Fotoceldas y materiales biomiméticos

Hace un par de semanas un grupo de investigadores daneses y americanos publicaron en la revista Nature Materials los resultados de una investigación muy interesante a la que los voy a introducir a continuación.

Revisemos un poco qué se busca en las celdas solares, tanto para producción de energía eléctrica como para electrólisis in situ. Todos sabemos que la luz visible es un tipo de radiación electromagnética, con longitudes de onda que van aproximadamente desde los 300 nm (azul-violeta) a los 700 nm (rojo). En las celdas fotovoltaicas muchas veces se busca algún material semiconductor que tenga un bandgap (energía entre la banda de conducción y la de valencia) acorde a la energía que poseen los fotones con longitudes de onda correspondientes a la luz visible. Eso se puede conocer fácilmente a través de la fórmula E=hc/λ, que indica que la energía es inversamente proporcional a la longitud de onda de los fotones. Así se explica por qué se utiliza el silicio en las celdas solares, su bandgap es de 1.12 eV, correspondiente a una longitud de onda λ=1100 nm, lo cual indica que con la luz roja es suficiente para promover los electrones a la banda de conducción y además proveer la fotocorriente necesaria, en este caso para producir la oxidación o reducción de los compuestos de interés. Otros materiales como el InP y el CdTe tienen bandgaps similares, pero su costo es mayor y son más susceptibles a la corrosión. Para aumentar la superficie del material y la eficiencia de la celda se producen superficies rugosas o constituidas por micro o nanoestructuras con mayor superficie (por ejemplo, pequeños pilares de silicio).

Pero para las celdas solares químicas necesitamos algo más: como no se hace circular corriente por un circuito externo, las reacciones se producen sobre un mismo sustrato, por lo que es necesario contar con una estructura, por ejemplo en forma de pilares, con una membrana semipermeable que separe a los pilares por la mitad: en una mitad se producirá la reacción de oxidación y en la otra la de reducción, y las especies participantes de las reacciones deberán migrar a través de la membrana. Además, es preciso contar con algún material, llamado catalizador, que facilite el proceso de evolución de hidrógeno y oxígeno a partir de la electrólisis del agua presente en la celda. El trabajo de estos muchachos consistió en encontrar un material que cumpliera el rol de catalizador para la reacción de evolución de hidrógeno (Hydrogen Evolution Reaction, HER), que consiste en una reducción de protones del lado del pilar con bajo gap, usando la luz roja del espectro. El platino y otros metales nobles cumplen muy bien esta función pero son demasiado escasos y caros para ser usados a escala industrial.



Acá es cuando se puso bueno. Los chicos pensaron que la cinética del proceso podía estar ligada a la energía de adsorción del hidrógeno sobre la superficie. Una energía de adsorción adecuada podría disminuir la barrera energética facilitando la salida o el "despegue" del hidrógeno del sustrato. Se les ocurrió entonces que los sulfuros de metales de transición presentes en catalizadores biológicos (enzimas nitrogenasas e hidrogenasas) podían servir para este propósito. Es una idea muy sabia porque se sabe que las enzimas operan con elevados rendimientos.

En efecto, resultó que los clusters de Mo3S4 similares en morfología al cubano (C8H8) lograban alcanzar una eficiencia similar a la del platino usado como co-catalizador. Esta eficiencia es de alrededor del 10%, lo cual se considera muy alto para las celdas fotoquímicas. Al ser iluminada la celda con luz roja (λ = 620 nm) con intensidad igual a la intensidad solar (1000 W/m2) se pudo observar que la corriente generada es debido a la HER y no a la reducción del cluster de Mo3S4. Esto prueba que está todo bien con la actividad electroquímica del catalizador.

Finalmente los grosos hicieron cálculos para evaluar la termoquímica de la reacción, considerando un diagrama de energía libre de tres estados: electrodo iluminado/oscuro (i), hidrógeno adsorbido (ii), e hidrógeno libre (iii). Según los cálculos, si bien el hidrógeno se adsorbe más fuertemente sobre el sulfuro de molibdeno, aumentando la energía libre, permite que exista una disminución de la energía libre entre el estado (i) y (ii), permitiendo una conversión espontánea y favorecida termodinámicamente.

Sin duda es un trabajo fantástico que combina estrategias y conocimientos de diversas áreas de la química, apuntando a resolver un problema de interés tecnológico. Si bien existen otros métodos para obtener hidrógeno en los que están involucrados hidrocarburos, todos ellos implican liberación de contaminantes. La electrólisis del agua, por el contrario, es totalmente limpia tanto en la producción de gases como en la posterior combustión de hidrógeno, para volver a formar agua. En lo particular me fascina el approach biomimético, muy bien ejemplificado en este trabajo que encuentra solución a un problema completamente inorgánico utilizando mecanimos presentes en sistemas biológicos creados espontáneamente con el correr de las eras. Es la ciencia que se viene.

Saludos a todos.

Imagen tomada del paper: Yidong Hou, et al. “Bioinspired molecular co-catalysts bonded to a silicon photocathode for solar hydrogen evolution.” Nature Materials, y adaptada originalmente de Lewis, N. S. & Nocera, D. G. Powering the planet: Chemical challenges in solar energy utilization. Proc. Natl. Acad. Sci. USA 103, 15729-15735 (2006) and Grey, H. B. Powering the planet with solar fuel. Nature Chem. 1, 7 (2009).

seguir leyendo "Fotoceldas y materiales biomiméticos"

viernes, 25 de marzo de 2011

Biología cuántica, o como cuatro ojos ven mejor que dos.

Hola a todos, mi nombre es Juan, estudio Licenciatura en Química en la Universidad Nacional de Córdoba, Argentina, y me estoy sumando a este blog para tratar de aportar un poco de mi punto de vista. Mi idea por ahora es invitarlos a aprender un poco más de ciencias, comentar algunos avances interesantes y, sobre todo, hacerlos pensar en las ciencias. Creo que el mejor modo de hacerme conocer ahora es mostrando un poco lo que yo pienso, así que here we go.

Hace unos días una página de divulgación a la que estoy suscripto me sugirió una nota en la revista Discover, de febrero de 2009. El título del artículo es “Entangled Life”, y está disponible aquí. Como podrán ustedes leer (y si no, se los comento), se trata de una recopilación de algunos casos en los que se demuestra o propone una solución que parte de la cuántica a preguntas de la química biológica. En primer lugar se describe un modelo en el que los electrones excitados durante la fotosíntesis transmiten esa energía no por un desplazamiento real (de orbital a orbital, como siempre se propuso), si no por entrelazamiento cuántico con electrones en otras moléculas. Esto también podría explicar mejor la gran eficiencia lograda por este proceso. Otro caso tratado en el artículo es la interpretación que se hace sobre el proceso del olfato, particularmente una explicación de por qué dos moléculas muy similares en forma producen olores muy distintos. La respuesta es sorprendente: Los electrones de los receptores olfativos interactuarían de distinto modo de acuerdo a los modos vibracionales de la molécula “olida”. Las moléculas olidas vibran de distintas maneras porque esto depende más fuertemente de su estructura que de su composición elemental. Estas pequeñas diferencias en la movilidad electrónica producirían así diferentes olores.

El artículo además deja abiertas las puertas al novedoso concepto de “biología cuántica” como un área revolucionaria. Este título combina dos conceptos usualmente aislados y tradicionalmente tratados por separado. Por un lado, la química biológica se dedica a entender la química de la vida como un todo, prefiriendo explicar los procesos metabólicos como una serie de reacciones que se suceden unas a otras, a veces escapando a los aspectos más finos y detallados de la física detrás de cada una de esas reacciones. Por el otro lado, la química cuántica se centra precisamente en los pequeños cambios a nivel atómico y subatómico, explicando el comportamiento de la materia basándose en la teoría cuántica. Las implicancias de relacionar los dos conceptos, como bien muestra el artículo citado, son impresionantes. Los que estamos familiarizados con escalas microscópicas sabemos que la cuántica trabaja en zonas muy puntuales, que al ser comparadas con las macromoléculas biológicas parecerían carecer de influencia directa. Sin embargo, estas experiencias demuestran lo contrario, y la relación entre estos campos nos brinda respuestas que no hubieran sido consideradas, pero que finalmente se ajustan mejor a los resultados observados. Esta reflexión es la que me lleva a escribir las ideas que expongo a continuación.

En los últimos años se han hecho grandes avances en el área de lo multidisciplinario, relacionando distintas zonas del conocimiento científico para explicar fenómenos cada vez más complejos e incrementar la comprensión sobre sucesos particulares. Sin embargo, en determinados círculos de investigación, esto dista de ser verdadero. En general, un alumno de ciencias es educado en una línea particular, coincidente con sus intereses y los de su casa de estudios, llevado por una elección que denominamos “especialización”. A la misma le dedicará seguramente unos cuantos años de su vida para comprenderla a fondo, y otros tantos para investigar al respecto. Y aquí es donde chocan los conceptos. Si estamos educando a una persona para que se enfoque en un pequeño punto de las ciencias, luego no debería sorprendernos que explique lo que observa desde el entorno en el que está mejor preparado, es más capaz y seguramente se siente más cómodo. Esto, evidentemente, no es un enfoque multidisciplinario. Sin embargo, una sola persona no puede ser especialista en muchas áreas distintas. Entonces, ¿Cómo procedemos para saltear este conflicto?

Allí es donde debe intervenir la formación del sujeto de ciencias. El dialogo entre distintas ramas de las ciencias siempre ha estado condicionado por muchos factores, pero si intentamos obtener explicaciones superadoras de las anteriores es necesario integrar los distintos enfoques en un solo punto. El sujeto de ciencias debe poseer una mente preparada para tomar conceptos nuevos con un enfoque distinto y aplicarlos con éxito a la circunstancia en estudio. El sujeto de ciencias tiene que ser capaz de comunicar las ideas que le surgen, y de interpretar las ideas de otros dentro del modelo propuesto. Esto no es solamente algo que debe ser inculcado por profesores e investigadores asociados, sino que debe ser puesto en práctica con los alumnos. Lo ideal sería que además el alumno y profesional lo tuviera presente durante su carrera. La búsqueda constante de explicaciones superadoras, la curiosidad por la cuestión de fondo que moviliza los distintos eventos, la capacidad de aceptar nuevas ideas y la posibilidad de integrar los distintos aportes dentro de un solo modelo deberían ser valores vitales para cualquier investigador que emprenda un camino en la frontera de dos ciencias. Por esto, insto a los lectores a trabajar en este aspecto, a tener en cuenta que los distintos enfoques de las ciencias cobran muchísimo valor en las situaciones en las que dos o más áreas tienen competencia. Esta diferencia de enfoques, condensadas en una única explicación, son las que hoy nos permiten entender fenómenos complejos como la fotosíntesis o los impulsos neuronales de modos que hace años no hubiéramos imaginado. Otra conclusión importante de esto último, y con esto me despido, es que para avanzar en las ciencias no siempre es necesario cruzar las fronteras externas hacia sucesos no explicados, sino que basta con buscar las conexiones que todavía no vimos en sucesos familiares y frecuentes. A tenerlo en cuenta. Saludos y gracias por su tiempo.

seguir leyendo "Biología cuántica, o como cuatro ojos ven mejor que dos."

miércoles, 23 de marzo de 2011

Algunas cosas sobre NanoCórdoba 2011

Para los que no estén al tanto, que han de ser varios dado el diverso público que lee mi blog (just kidding), esta semana, desde el 21 al 23 de marzo se realizó en la Facultad de Matemática, Astronomía y Física (FaMAF) de la Universidad Nacional de Córdoba, en conjunto con la Facultad de Ciencias Químicas (FCQ) y el Instituto Ferreyra, unas jornadas sobre nanociencia y nanotécnica que nuclearon grupos de investigación de las temáticas más variadas de ambas facultades y proveyeron al público (del cual formé parte) un buen panorama sobre el estado de la nanociencia en Córdoba.

Las charlas abarcaron cuestiones institucionales, técnicas y científcias. Fueron de lo más multidisciplinario que se puede encontrar en esta suerte de "workshops", pues apuntaba a "borrar" las fronteras de la química, la física y las simulaciones fisicoquímicas para lograr un ámbito esencialmente avocado a esto que está tan de moda como es la nanociencia.

Si nos inmiscuimos en el funcionamiento de los grupos de investigación en Córdoba, y particularmente en los temas que publican y la financiación que reciben por parte de las distintas instituciones que los financian (la SeCyT, el MinCyT, el CONICET, entre otros) todo lo "nano" hoy es algo sumamente provechoso. Lo nanoscópico, las cosas del orden de 10-9 m (en realidad un poquito más grandes) con formas raras, propiedades esotéricas y potenciales aplicaciones en casi todos los campos de las ciencias aplicadas están muy de moda. Es que son muy versátiles para ser estudiadas, se sabe bastante poco de su comportamiento y se relacionan con un montón de campos, así los que antes hacían dinámica molecular para metales en bulk hoy lo hacen para nanopartículas, los que funcionalizaban polímeros hoy funcionalizan nanotubos de carbonos, y los que medían espectros UV-Visible hoy buscan resonancias de plasmón localizadas para nanovarillas de plata y oro.

Muchos de los grupos que ya vienen investigando sobre un tema particular desde hace muchos años, buscan adaptarse un poco a estas nuevas tendencias para publicar más y tener más relevancia. Como dijo en la charla inaugural el Vicepresidente de Asuntos Científicos del CONICET, ex decano de la FCQ, Vicente Macagno, donde antes tu grupo decía "Preparación de superficies metálicas electroactivas como catalizadores de reacciones de relevancia biotecnológica" ahora dice "Funcionalización de superficies metálicas como sustrato para reacciones nanocatalizadas de relevancia biotecnológica". Hay que meter un poco de verso por ahí.

A mi entender se está haciendo un montón de nanociencia, aunque no tanta nanotecnología en Córdoba y fundamentalmente se está apostando a la creciente expansión de los trabajos, y solapamiento de trabajos en áreas complementarias, como un verdadero campo de miltidisciplinas científicas. El que hace simulaciones de Monte Carlo para ver cuán estable es un nanoalambre de oro puede comparar su trabajo con el que lo experimentó, y graciosamente ver que mientras la simulación arroja que el estado más estable del nanoalambre tiene una sección de tres átomos de oro, el que hizo el experimento vio claramente nanoalambres de un átomo de oro con sorprendente estabilidad. Y ahí se cuestionan cosas, y redefinen parámetros y vuelven a probar... Y así hasta que el que hizo el experimento confirma que su muestra estaba impura. Qué va a ser...

La cuestión es que la opinión general es que hay que avanzar más en estas áreas nano en las instituciones de investigación de Córdoba, para alcanzar en desarrollo a quienes ya vienen trabajando desde hace más tiempo en esto a nivel nacional, fundamentalmente el Centro Atómico Bariloche de la CNEA y las Universidades de Buenos Aires y de La Plata. Para esto será necesario seguir apostando al solapamiento de discplinas, a la inversión en equipos de medición (como el recientemente adquirido microscopio de barrido electrónico) y al impulso de los estudiantes en este tipo de áreas, y con esto vendrán más congresos, charlas y workshops fruto del trabajo de todos los argentinos en las tecnologías nano. Es trabajo de los actuales investigadorer seguir avanzando en ello y alisar el camino para los que planeamos dedicarnos a esto algún día. No muy distante.


seguir leyendo "Algunas cosas sobre NanoCórdoba 2011"

martes, 15 de marzo de 2011

La nación de la memoria

Sin ánimos de meterme en cuestiones políticas que escapan fuertemente a la objetividad con la que intento escribir estas cosas, me gustaría hacer una crítica abierta y pública sobre la sociedad actual. No reclamo, crítica. No juzgo a nadie. Es una opinión personal y el análisis que la trae a mi mente.

Todo el mundo seguramente coincide con la afirmación de que Argentina está pasando la "era de la memoria", desde hace ya varios años. El común de las masas, un poco orientadas por los gobiernos de turno, han mostrado más rechazo que nunca a las políticas y los partícipes de la dictadura de los años 70', y se han encolumnado bajo lemas como "Nunca más" y la creación del azueto por el "Día de la Memoria". Si eso está bien o mal, no hay forma certera de conocerlo. Todos tenemos nuestra opinión al respecto y nuestros fundamentos.

Pero esta invocación a la memoria tiene un lado más filosófico, más ligado a la forma de conocer el mundo, que si bien siempre ha existido, ahora se destaca considerablemente. Hemos dejado de ser una sociedad pensante para empezar a ser una sociedad memorizante. Quiero volver a aclarar, para evitar interpretaciones erróneas, que no quiero decir que invocar a la "Memoria" relacionada a las épocas dictatoriales vividas por el país implica no ser pensantes; algunos lo pensarán así, pero no me refiero a eso ahora. Apunto a las exigencias de los nuevos sistemas educativos, en los que, salvo instituciones que se sostienen rígidas en sus basamentos creados sobre la reflexión, el razonamiento y la crítica, en la mayor parte de los casos se persigue bajar la barrera mínima de suficiencia académica al facilitar la comprensión de temas por la mera memorización de los mismos.

Un caso que me sirve de ejemplo para mi punto es del CBC, el ciclo básico común de la Universidad de Buenos Aires, UBA. Un amigo que estudia en la UBA me comentó que en una de las materias comunes a todas las carreras del CBC, llamada Introducción al Pensamiento Crítico, se hace mucho más hincapié en la "comprensión" de autores, fechas y argumentos básicos de algunas corrientes filosóficas que en el uso de silogismos y razonamientos lógicos, que también se instruyen en esta materia. Esto sucede al punto que quien no tiene buena memoria o falla en recordar nombres de filósofos o diferenciar argumentos filosóficos, no puede aprobar el examen, en el que casi no se evalúan razonamientos inductivos, deductivos, analógicos y falacias. Esto es razonable? Desde luego que es necesario saber cuestiones fundamentales de filosofía, pero no considero, en absoluto, que eso sea más relevante que aprovechar un curso de pensamiento crítico para aprender a pensar.

Es un problema de los estudios universitarios? En absoluto. Es un problema de la educación desde los niveles iniciales, primario y secundario. Fundamentalmente es necesario instruir en pensamiento crítico a alumnos jóvenes para facilitar su entendimiento de las cosas y mejorar sus posibilidades de éxito futuro.

No sirve tener memoria si no se hace un análisis. Todo análisis surge de un razonamiento. Todo razonamiento surge del pensamiento crítico. Ergo, no sirve tener memoria si no existe pensamiento crítico. A ver si se entiende.
seguir leyendo "La nación de la memoria"

domingo, 13 de marzo de 2011

La ciencia detrás de Fukushima


Este es un post tomado de una entrada de blog llamada Why I'm not worried about Japan's nuclear reactors, escrita por el Dr. Josef Oehmen, un investigador del MIT, explicando cada detalle del funcionamiento de reactores nucleares y lo que realmente pasó en Fukushima, Japón. Notarán que es muy distinto a lo que informan los medios de comunicación. Read and learn.
I am writing this text (Mar 12) to give you some peace of mind regarding some of the troubles in Japan, that is the safety of Japan’s nuclear reactors. Up front, the situation is serious, but under control. And this text is long! But you will know more about nuclear power plants after reading it than all journalists on this planet put together.
There was and will *not* be any significant release of radioactivity.
By “significant” I mean a level of radiation of more than what you would receive on – say – a long distance flight, or drinking a glass of beer that comes from certain areas with high levels of natural background radiation.
I have been reading every news release on the incident since the earthquake. There has not been one single (!) report that was accurate and free of errors (and part of that problem is also a weakness in the Japanese crisis communication). By “not free of errors” I do not refer to tendentious anti-nuclear journalism – that is quite normal these days. By “not free of errors” I mean blatant errors regarding physics and natural law, as well as gross misinterpretation of facts, due to an obvious lack of fundamental and basic understanding of the way nuclear reactors are build and operated. I have read a 3 page report on CNN where every single paragraph contained an error.
We will have to cover some fundamentals, before we get into what is going on.
Construction of the Fukushima nuclear power plants
The plants at Fukushima are so called Boiling Water Reactors, or BWR for short. Boiling Water Reactors are similar to a pressure cooker. The nuclear fuel heats water, the water boils and creates steam, the steam then drives turbines that create the electricity, and the steam is then cooled and condensed back to water, and the water send back to be heated by the nuclear fuel. The pressure cooker operates at about 250 °C.
The nuclear fuel is uranium oxide. Uranium oxide is a ceramic with a very high melting point of about 3000 °C. The fuel is manufactured in pellets (think little cylinders the size of Lego bricks). Those pieces are then put into a long tube made of Zircaloy with a melting point of 2200 °C, and sealed tight. The assembly is called a fuel rod. These fuel rods are then put together to form larger packages, and a number of these packages are then put into the reactor. All these packages together are referred to as “the core”.
The Zircaloy casing is the first containment. It separates the radioactive fuel from the rest of the world.
The core is then placed in the “pressure vessels”. That is the pressure cooker we talked about before. The pressure vessels is the second containment. This is one sturdy piece of a pot, designed to safely contain the core for temperatures several hundred °C. That covers the scenarios where cooling can be restored at some point.
The entire “hardware” of the nuclear reactor – the pressure vessel and all pipes, pumps, coolant (water) reserves, are then encased in the third containment. The third containment is a hermetically (air tight) sealed, very thick bubble of the strongest steel. The third containment is designed, built and tested for one single purpose: To contain, indefinitely, a complete core meltdown. For that purpose, a large and thick concrete basin is cast under the pressure vessel (the second containment), which is filled with graphite, all inside the third containment. This is the so-called “core catcher”. If the core melts and the pressure vessel bursts (and eventually melts), it will catch the molten fuel and everything else. It is built in such a way that the nuclear fuel will be spread out, so it can cool down.
This third containment is then surrounded by the reactor building. The reactor building is an outer shell that is supposed to keep the weather out, but nothing in. (this is the part that was damaged in the explosion, but more to that later).
Fundamentals of nuclear reactions
The uranium fuel generates heat by nuclear fission. Big uranium atoms are split into smaller atoms. That generates heat plus neutrons (one of the particles that forms an atom). When the neutron hits another uranium atom, that splits, generating more neutrons and so on. That is called the nuclear chain reaction.
Now, just packing a lot of fuel rods next to each other would quickly lead to overheating and after about 45 minutes to a melting of the fuel rods. It is worth mentioning at this point that the nuclear fuel in a reactor can *never* cause a nuclear explosion the type of a nuclear bomb. Building a nuclear bomb is actually quite difficult (ask Iran). In Chernobyl, the explosion was caused by excessive pressure buildup, hydrogen explosion and rupture of all containments, propelling molten core material into the environment (a “dirty bomb”). Why that did not and will not happen in Japan, further below.
In order to control the nuclear chain reaction, the reactor operators use so-called “moderator rods”. The moderator rods absorb the neutrons and kill the chain reaction instantaneously. A nuclear reactor is built in such a way, that when operating normally, you take out all the moderator rods. The coolant water then takes away the heat (and converts it into steam and electricity) at the same rate as the core produces it. And you have a lot of leeway around the standard operating point of 250°C.
The challenge is that after inserting the rods and stopping the chain reaction, the core still keeps producing heat. The uranium “stopped” the chain reaction. But a number of intermediate radioactive elements are created by the uranium during its fission process, most notably Cesium and Iodine isotopes, i.e. radioactive versions of these elements that will eventually split up into smaller atoms and not be radioactive anymore. Those elements keep decaying and producing heat. Because they are not regenerated any longer from the uranium (the uranium stopped decaying after the moderator rods were put in), they get less and less, and so the core cools down over a matter of days, until those intermediate radioactive elements are used up.
This residual heat is causing the headaches right now.
So the first “type” of radioactive material is the uranium in the fuel rods, plus the intermediate radioactive elements that the uranium splits into, also inside the fuel rod (Cesium and Iodine).
There is a second type of radioactive material created, outside the fuel rods. The big main difference up front: Those radioactive materials have a very short half-life, that means that they decay very fast and split into non-radioactive materials. By fast I mean seconds. So if these radioactive materials are released into the environment, yes, radioactivity was released, but no, it is not dangerous, at all. Why? By the time you spelled “R-A-D-I-O-N-U-C-L-I-D-E”, they will be harmless, because they will have split up into non radioactive elements. Those radioactive elements are N-16, the radioactive isotope (or version) of nitrogen (air). The others are noble gases such as Xenon. But where do they come from? When the uranium splits, it generates a neutron (see above). Most of these neutrons will hit other uranium atoms and keep the nuclear chain reaction going. But some will leave the fuel rod and hit the water molecules, or the air that is in the water. Then, a non-radioactive element can “capture” the neutron. It becomes radioactive. As described above, it will quickly (seconds) get rid again of the neutron to return to its former beautiful self.
This second “type” of radiation is very important when we talk about the radioactivity being released into the environment later on.
What happened at Fukushima
I will try to summarize the main facts. The earthquake that hit Japan was 7 times more powerful than the worst earthquake the nuclear power plant was built for (the Richter scale works logarithmically; the difference between the 8.2 that the plants were built for and the 8.9 that happened is 7 times, not 0.7). So the first hooray for Japanese engineering, everything held up.
When the earthquake hit with 8.9, the nuclear reactors all went into automatic shutdown. Within seconds after the earthquake started, the moderator rods had been inserted into the core and nuclear chain reaction of the uranium stopped. Now, the cooling system has to carry away the residual heat. The residual heat load is about 3% of the heat load under normal operating conditions.
The earthquake destroyed the external power supply of the nuclear reactor. That is one of the most serious accidents for a nuclear power plant, and accordingly, a “plant black out” receives a lot of attention when designing backup systems. The power is needed to keep the coolant pumps working. Since the power plant had been shut down, it cannot produce any electricity by itself any more.
Things were going well for an hour. One set of multiple sets of emergency Diesel power generators kicked in and provided the electricity that was needed. Then the Tsunami came, much bigger than people had expected when building the power plant (see above, factor 7). The tsunami took out all multiple sets of backup Diesel generators.
When designing a nuclear power plant, engineers follow a philosophy called “Defense of Depth”. That means that you first build everything to withstand the worst catastrophe you can imagine, and then design the plant in such a way that it can still handle one system failure (that you thought could never happen) after the other. A tsunami taking out all backup power in one swift strike is such a scenario. The last line of defense is putting everything into the third containment (see above), that will keep everything, whatever the mess, moderator rods in our out, core molten or not, inside the reactor.
When the diesel generators were gone, the reactor operators switched to emergency battery power. The batteries were designed as one of the backups to the backups, to provide power for cooling the core for 8 hours. And they did.
Within the 8 hours, another power source had to be found and connected to the power plant. The power grid was down due to the earthquake. The diesel generators were destroyed by the tsunami. So mobile diesel generators were trucked in.
This is where things started to go seriously wrong. The external power generators could not be connected to the power plant (the plugs did not fit). So after the batteries ran out, the residual heat could not be carried away any more.
At this point the plant operators begin to follow emergency procedures that are in place for a “loss of cooling event”. It is again a step along the “Depth of Defense” lines. The power to the cooling systems should never have failed completely, but it did, so they “retreat” to the next line of defense. All of this, however shocking it seems to us, is part of the day-to-day training you go through as an operator, right through to managing a core meltdown.
It was at this stage that people started to talk about core meltdown. Because at the end of the day, if cooling cannot be restored, the core will eventually melt (after hours or days), and the last line of defense, the core catcher and third containment, would come into play.
But the goal at this stage was to manage the core while it was heating up, and ensure that the first containment (the Zircaloy tubes that contains the nuclear fuel), as well as the second containment (our pressure cooker) remain intact and operational for as long as possible, to give the engineers time to fix the cooling systems.
Because cooling the core is such a big deal, the reactor has a number of cooling systems, each in multiple versions (the reactor water cleanup system, the decay heat removal, the reactor core isolating cooling, the standby liquid cooling system, and the emergency core cooling system). Which one failed when or did not fail is not clear at this point in time.
So imagine our pressure cooker on the stove, heat on low, but on. The operators use whatever cooling system capacity they have to get rid of as much heat as possible, but the pressure starts building up. The priority now is to maintain integrity of the first containment (keep temperature of the fuel rods below 2200°C), as well as the second containment, the pressure cooker. In order to maintain integrity of the pressure cooker (the second containment), the pressure has to be released from time to time. Because the ability to do that in an emergency is so important, the reactor has 11 pressure release valves. The operators now started venting steam from time to time to control the pressure. The temperature at this stage was about 550°C.
This is when the reports about “radiation leakage” starting coming in. I believe I explained above why venting the steam is theoretically the same as releasing radiation into the environment, but why it was and is not dangerous. The radioactive nitrogen as well as the noble gases do not pose a threat to human health.
At some stage during this venting, the explosion occurred. The explosion took place outside of the third containment (our “last line of defense”), and the reactor building. Remember that the reactor building has no function in keeping the radioactivity contained. It is not entirely clear yet what has happened, but this is the likely scenario: The operators decided to vent the steam from the pressure vessel not directly into the environment, but into the space between the third containment and the reactor building (to give the radioactivity in the steam more time to subside). The problem is that at the high temperatures that the core had reached at this stage, water molecules can “disassociate” into oxygen and hydrogen – an explosive mixture. And it did explode, outside the third containment, damaging the reactor building around. It was that sort of explosion, but inside the pressure vessel (because it was badly designed and not managed properly by the operators) that lead to the explosion of Chernobyl. This was never a risk at Fukushima. The problem of hydrogen-oxygen formation is one of the biggies when you design a power plant (if you are not Soviet, that is), so the reactor is build and operated in a way it cannot happen inside the containment. It happened outside, which was not intended but a possible scenario and OK, because it did not pose a risk for the containment.
So the pressure was under control, as steam was vented. Now, if you keep boiling your pot, the problem is that the water level will keep falling and falling. The core is covered by several meters of water in order to allow for some time to pass (hours, days) before it gets exposed. Once the rods start to be exposed at the top, the exposed parts will reach the critical temperature of 2200 °C after about 45 minutes. This is when the first containment, the Zircaloy tube, would fail.
And this started to happen. The cooling could not be restored before there was some (very limited, but still) damage to the casing of some of the fuel. The nuclear material itself was still intact, but the surrounding Zircaloy shell had started melting. What happened now is that some of the byproducts of the uranium decay – radioactive Cesium and Iodine – started to mix with the steam. The big problem, uranium, was still under control, because the uranium oxide rods were good until 3000 °C. It is confirmed that a very small amount of Cesium and Iodine was measured in the steam that was released into the atmosphere.
It seems this was the “go signal” for a major plan B. The small amounts of Cesium that were measured told the operators that the first containment on one of the rods somewhere was about to give. The Plan A had been to restore one of the regular cooling systems to the core. Why that failed is unclear. One plausible explanation is that the tsunami also took away / polluted all the clean water needed for the regular cooling systems.
The water used in the cooling system is very clean, demineralized (like distilled) water. The reason to use pure water is the above mentioned activation by the neutrons from the Uranium: Pure water does not get activated much, so stays practically radioactive-free. Dirt or salt in the water will absorb the neutrons quicker, becoming more radioactive. This has no effect whatsoever on the core – it does not care what it is cooled by. But it makes life more difficult for the operators and mechanics when they have to deal with activated (i.e. slightly radioactive) water.
But Plan A had failed – cooling systems down or additional clean water unavailable – so Plan B came into effect. This is what it looks like happened:
In order to prevent a core meltdown, the operators started to use sea water to cool the core. I am not quite sure if they flooded our pressure cooker with it (the second containment), or if they flooded the third containment, immersing the pressure cooker. But that is not relevant for us.
The point is that the nuclear fuel has now been cooled down. Because the chain reaction has been stopped a long time ago, there is only very little residual heat being produced now. The large amount of cooling water that has been used is sufficient to take up that heat. Because it is a lot of water, the core does not produce sufficient heat any more to produce any significant pressure. Also, boric acid has been added to the seawater. Boric acid is “liquid control rod”. Whatever decay is still going on, the Boron will capture the neutrons and further speed up the cooling down of the core.
The plant came close to a core meltdown. Here is the worst-case scenario that was avoided: If the seawater could not have been used for treatment, the operators would have continued to vent the water steam to avoid pressure buildup. The third containment would then have been completely sealed to allow the core meltdown to happen without releasing radioactive material. After the meltdown, there would have been a waiting period for the intermediate radioactive materials to decay inside the reactor, and all radioactive particles to settle on a surface inside the containment. The cooling system would have been restored eventually, and the molten core cooled to a manageable temperature. The containment would have been cleaned up on the inside. Then a messy job of removing the molten core from the containment would have begun, packing the (now solid again) fuel bit by bit into transportation containers to be shipped to processing plants. Depending on the damage, the block of the plant would then either be repaired or dismantled.
Now, where does that leave us?
  • The plant is safe now and will stay safe.
  • Japan is looking at an INES Level 4 Accident: Nuclear accident with local consequences. That is bad for the company that owns the plant, but not for anyone else.
  • Some radiation was released when the pressure vessel was vented. All radioactive isotopes from the activated steam have gone (decayed). A very small amount of Cesium was released, as well as Iodine. If you were sitting on top of the plants’ chimney when they were venting, you should probably give up smoking to return to your former life expectancy. The Cesium and Iodine isotopes were carried out to the sea and will never be seen again.
  • There was some limited damage to the first containment. That means that some amounts of radioactive Cesium and Iodine will also be released into the cooling water, but no Uranium or other nasty stuff (the Uranium oxide does not “dissolve” in the water). There are facilities for treating the cooling water inside the third containment. The radioactive Cesium and Iodine will be removed there and eventually stored as radioactive waste in terminal storage.
  • The seawater used as cooling water will be activated to some degree. Because the control rods are fully inserted, the Uranium chain reaction is not happening. That means the “main” nuclear reaction is not happening, thus not contributing to the activation. The intermediate radioactive materials (Cesium and Iodine) are also almost gone at this stage, because the Uranium decay was stopped a long time ago. This further reduces the activation. The bottom line is that there will be some low level of activation of the seawater, which will also be removed by the treatment facilities.
  • The seawater will then be replaced over time with the “normal” cooling water
  • The reactor core will then be dismantled and transported to a processing facility, just like during a regular fuel change.
  • Fuel rods and the entire plant will be checked for potential damage. This will take about 4-5 years.
  • The safety systems on all Japanese plants will be upgraded to withstand a 9.0 earthquake and tsunami (or worse)
  • I believe the most significant problem will be a prolonged power shortage. About half of Japan’s nuclear reactors will probably have to be inspected, reducing the nation’s power generating capacity by 15%. This will probably be covered by running gas power plants that are usually only used for peak loads to cover some of the base load as well. That will increase your electricity bill, as well as lead to potential power shortages during peak demand, in Japan.
If you want to stay informed, please forget the usual media outlets and consult the following websites:
seguir leyendo "La ciencia detrás de Fukushima"

sábado, 12 de marzo de 2011

El principio de Le Châtelier aplicado a los mercados

Ayer en una conferencia para emprendedores a la que asistí con mis amigos/socios @matibonvin y @wihintz el disertante, Jorge (no voy a dar su apellido por cuestiones de falla de memoria), habló en un momento sobre el equilibrio de los mercados que se altera cuando ingresa un nuevo participante. Fue una de las pocas partes que encontré interesantes para seguir pensando, el resto de la conferencia fue dirigida a personas con vagas ideas de "negocios" (en realidad muchas eran sólo ideas, no tenían potencial para ser un negocio) y algunos pseudo-emprendedores de avanzada edad con necesidad urgente de sacar algo de provecho económico de esa idea que los ha motivado tanto a... seguir pensando en la idea. Por Dios, que no me toque vivir eso.

En fin, quizás no estén relacionados con el principio de Le Châtelier. El principio de Le Châtelier dice que cualquier sistema en equilibrio (dinámico), en particular un equlibrio químico, al ser perturbado su estado de equilibrio, reacciona para volver a alcanzar un estado de equilibrio dinámico. Una forma práctica de verlo es en una reacción en la que se generan gases a partir de un líquido. Si la reacción está en equilibrio, es decir, si se generan gases a partir del líquido y líquido a partir de los gases, y se comprime el sistema, disminuyendo el volumen y aumentando la presión, la reacción va a ocurrir más en el sentido en el que los gases reaccionan para dar líquido, así disminuyendo la cantidad de gases, ergo bajando la presión. Así se alcanza un nuevo estado de equilibrio.

Jorge me hizo pensar que en un mercado competitivo pasa algo parecido cuando ingresa un nuevo competidor. El market share, distrubuido entre las empresas que venden un cierto tipo de producto, se ve alterado cuando ingresa un nuevo competidor en la escena. En efecto, el competidor quiere un pedazo de la torta, y alguno, o más usualmente, algunos (si no todos) tienen que perder parte de su mercado que empieza a elegir al nuevo competidor. Cómo reacciona el sistema en este caso? Usa diversas estrategias para recuperar su pedazo de la torta, como sacar un nuevo producto, mejorar sus campañas publicitarias, mejorar la calidad de sus productos o incluso resignar su margen de ganancias bajando el precio de sus productos para captar o re-captar consumidores. Hoy en día esta batalla por el market share se enfoca en aprovechar las estrategias de llegada al consumidor que la competencia no utiliza, en especial las estrategias de social media, la interactividad con el cliente, la adaptación de la imagen corporativa a las nuevas modas sociales, entre otras. Eso marca la diferencia en quién se queda con el pedazo más grande de la torta en el nuevo estado de equilibrio dinámico.
seguir leyendo "El principio de Le Châtelier aplicado a los mercados"

lunes, 21 de febrero de 2011

Evolución y "agentes autoinmunes"

Pensemos un poco en la evolución. Por qué los organismos vivos evolucionan? Cuáles son los causantes de los cambios en el código genético? Revisemos un poco la teoría.

El DNA (ácido desoxirribonucleico, ADN si se quiere) está compuesto por billones de pares de bases nitrogenadas unidas a través de un azúcar (desoxirribosa) y grupos fosfato. Cada tantos pares de bases se pueden encontrar secuencias específicas que son las que un organismo usa como regla para sintetizar (elaborar) compuestos necesarios para la vida, fundamentalmente proteínas. Esas secuencias de ADN se llaman genes, y algunos genes codifican información que después será traducida en la síntesis de proteínas. Algunas de estas proteínas son enzimas, catalizadores (aceleradores) naturales de reacciones químicas, que intervienen en todos los procesos biológicos incluídos la degradación y síntesis de lípidos y carbohidratos, las otras sustancias súper importantes necesarias para el desarrollo de un organismo. Más o menos intenté resumir la idea básica por la que funciona un organismo vivo.

Ahora bien, pongamos de ejemplo esta planta y su evolución. El algodoncillo es básicamente un yuyo cuyas flores producen un néctar muy apetitoso para las mariposas, en especial la mariposa monarca. Esta planta, como muchos organismos, se defiende generando toxinas que consumen los insectos que las destruyen, y así mueren. Por esto es que muchos jardineros deciden plantar algo de algodoncillo, para proteger a otras plantas de estos insectos, como un insecticida natural, inocuo y barato.

La creciente cantidad de dióxido de carbono, CO2, en la atmósfera, ha provocado que ciertos organismos comiencen a mutar para adapatarse a las nuevas condiciones atmosféricas. En particular, esta planta ha disminuido su producción de cardenólidos ya que al tener más CO2 disponible puede crecer físicamente más rápido y fuerte. Tengo que aclarar que si bien algunos cambios pueden deberse a la modificación de la secuencia de genes, no necesariamente es necesario un cambio genético para adaptarse a nuevas condiciones como las que vengo mencionando. Pero con la modificación del genoma ocurre la evolución. Se dice que se ejerce una presión de selección cuando se impulsa o se favorece la evolución de un organismo y que los agentes que causan directamente esa presión, como las mariposas monarcas, son agentes de selección.

Ahora pensemos en las sociedades modernas. Se puede decir que las sociedades están evolucionando? Algunas personas afirman que no se puede hablar de evolución, que más bien las sociedades están involucionando o cambiando, no necesariamente hacia una mejor condición. Mentira. Las cuestiones políticas no tienen nada que ver con la esencia de la evolución. La ciencia hace que las sociedades avancen, evolucionen, y la gente pueda tener acceso a mejor calidad de vida. Entonces cuál es el agente de selección? Qué es lo que causa ulteriormente la selección? La sociedad misma. La gente muestra necesidades crecientes sobre la base de la satisfacción de viejas necesidades. Es el principio de la mejora continua. Y eso hace que la sociedad evolucione.

La sociedad produce la evolución de la sociedad? La sociedad se ataca a sí misma, y también la sociedad responde a esos ataques, mejorando? Al parecer sí. Es como si exisitiera una enfermedad autoinmune, la sociedad encuentra problemas en ella misma y reacciona. Sólo que la solución está en ella misma. No corticosteroids.


seguir leyendo "Evolución y "agentes autoinmunes""

viernes, 4 de febrero de 2011

Grafeno y otras cosas...

Hoy voy a escribir algo sobre el grafeno y algunas cosas relacionadas.
Para los que no son conocedores de toda la onda de los nuevos materiales y lo que se viene, les cuento que el grafeno es un polimorfo del carbono bastante chido que consiste en una sola lámina (bidimensional) de átomos de carbono enlazados en forma de hexágonos, como si fuera un panal de abejas. El grafito, constituyente de la mina de los lápices (no de todos los lápices en realidad) son varias capas de grafeno enlazadas por interacciones débiles una con otra, de manera que se pueden deslizar y así dejar el trazo de grafito, permitiendo la escritura con lápices.
El tema es que el grafeno per se, la lámina bidimensional, es súper resistente y tiene una altísima conductividad eléctrica y térmica, tal que casi ni siquiera disipa calor por efecto Joule. Además, es tan chido que dopándolo con ciertos metales se vuelve mejor semiconductor que el silicio, porque consume menos energía eléctrica para realizar una tarea similar.
Hay un montón de fenómenos cuánticos más para destacar, pero por ahora no me voy a meter en la pesada.
Y todo esto a qué viene? Bueno, los semiconductores son los materiales utilizados en muchos componentes electrónicos (prácticamente todos) que forman parte de los dispositivos electrónicos que todos usamos día a día, así que probablemente cuando se descubra la forma de producirlo y manipularlo en masa va a inundar la industria tecnológica con dispositivos mucho más avanzados.
Que el premio Nobel de física en el 2010 se lo hayan ganado investigadores que estudian el grafeno debería decirnos algo...
Como sea, está claro que el desarrollo de súper materiales va a dar lugar a una vertiginosa (aún más vertiginosa que ahora) explosión de los dispositivos tecnológicos, en concordancia con la ley de Moore. Es importante replantearse hasta qué punto esto es bueno o malo para la sociedad, aprender a leer entre líneas las noticias y artículos sobre tecnología, y empezar a estimar las consecuencias de un advenimiento progresivo de dispositivos inteligentes. No hablo precisamente de "la deshumanización que producen las telecomunicaciones", y esto de que se están perdiendo valores y contacto social, es parte del desarrollo y la evolución de las sociedades modernas. Cuestionar eso es bastante pointless. Lo importante es pensar hasta qué punto es conveniente llegar con la inteligencia artificial, y crear reglas (además de las famosísimas y por siempre válidas tres reglas de la robótica de Asimov) para no poner en riesgo el orden global.
Antes que las máquinas ataquen al hombre, es mucho más probable que el hombre ataque al hombre a causa de algo relacionado con las máquinas. Homo homini lupus. A pensar.
seguir leyendo "Grafeno y otras cosas..."