miércoles, 13 de febrero de 2013

Protegiendo edificios: manto de invisibilidad sísmica

Hace un tiempo se descubrieron metamateriales (de dimensiones menores a la longitud de onda de la luz visible) que hacen doblar la luz alrededor de sí mismos, lo cual los dota de una propiedad que la ciencia ficción ha explotado al extremo: la invisibilidad. Ahora bien, si la luz consiste en ondas electromagnéticas, sería lógico pensar que algo análogo puede hacerse con las ondas sísmicas.

Eso mismo se les ocurrió a investigadores australianos y coreanos, aunque ellos sólo desarrollaron y no lo probaron. Recientemente, investigadores del Institut Fresnel (Francia) y la división francesa de Menard, construyeron un manto de invisibilidad sísmica y lo probaron.

Cerca de Grenoble, los franceses simularon un sismo en un hueco de 200 m de profundidad, y usaron sensores acústicos para medir el movimiento. Luego crearon este "metamaterial" perforando tres filas de agujeros cilíndricos en ese hueco, de 5 m de profundidad y 30 cm de diámetro.



Cuando hicieron el experimento con los agujeros, la intensidad cerca de la fuente de vibración casi se duplicó, indicando que los agujeros reflejaban gran parte de las ondas. Como consecuencia, las ondas casi no pasaron de la segunda fila. El problema de esto si se aplicara en la vida real, es que si el sismo se origina cerca de una edificación, esta resultaría más damnificada, mientras que la que está protegida por los agujeros se salvaría.

Además de esta dificultad, todavía quedan otros factores por resolver. Por ejemplo, a diferencia de la luz, no puede predecirse la longitud de onda de las ondas sísmicas, lo cual hace imposible planear cuán separadas deberían estar las filas. Por otra parte, podría pensarse en una manera de que las ondas sean absorbidas en lugar de reflejadas. De cualquier modo, es un avance y un enfoque muy innovador para solucionar este grave problema que acecha en las regiones con mayor actividad tectónica del planeta.

Fuentes:
How to prevent earthquake damage: make buildings invisible
Seismic metamaterial: how to shake friends and influence waves?

seguir leyendo "Protegiendo edificios: manto de invisibilidad sísmica"

martes, 12 de febrero de 2013

Formar tornados para obtener energía.

Qué tienen en común PayPal, un tornado y una incubadora flotante para emprendedores? Complicado adivinarlo. Quien los reúne en una misma línea es Pether Thiel, excéntrico multimillonario que invierte en ideas locas y ambiciosas.


Su inversión más reciente es en la compañía canadiense del ingeniero Louis Michaud, AVEtec (de Atmospheric Vortex Engine), que planea aprovechar la energía de tornados para el uso humano. Thiel tiene pensado fondear inicialmente con u$s 300.000 este proyecto que, al contrario de perseguir tornados a lo Twister, sugiere crearlos artificialmente en lugares convenientes y producir energía eléctrica a partir de ellos.

AVE funciona introduciendo aire caliente en un cilindro hueco, en el cual se convierte en un vórtice controlado (tornado artificial) que se sostiene por la diferencia de temperatura entre el aire caliente en el cilindro y la atmósfera. Como te imaginarás, el tornado puede ser apagado si se deja de suministrar aire caliente, así que es perfectamente seguro. El trabajo generado por el aire en movimiento es capturado por turbinas cerca de la base. La fuente de calor para generar el aire caliente puede provenir de aguas cálidas (tropicales), la combustión de residuos o la energía solar.

AVE no tiene emisiones de dióxido de carbono (suponiendo que no se quema ningún residuo para generar el calor) ni requiere de almacenamiento de energía. Su costo sería muy bajo: tan sólo u$s 0,03 por kWh, transformándose así en una de las fuentes más baratas. Una central de 100 m de diámetro podría producir 200 MW de energía eléctrica, prácticamente lo mismo que una planta termoeléctrica de carbón.

Por qué sería útil? El calor latente del vapor de agua en la baja atmósfera tiene casi el doble de energía (13 x 10²¹ J) que las reservas remanentes de petróleo (7,3 x 10²¹ J) y se reabastece cada 10 días a través de la radiación solar. ¡Comparalo con los millones de años que lleva el proceso de producción natural del petróleo a partir de restos fósiles!

Actualmente Michaud está construyendo la prueba de concepto (con el apoyo de Thiel), un generador de 40 metros de alto y 8 metros de diámetro, en colaboración con Lambton College.



Fuentes:
Harnessing Tornados For Energy And More: The Radical Projects Funded By Peter Thiel 
Illustration by Charles Floyd
Eye of the Tornado
Science is Awesome


seguir leyendo "Formar tornados para obtener energía."

martes, 2 de octubre de 2012

Mirando el interior de los cristales fotónicos

En el futuro, la comunicación fotónica podría reemplazar a la electrónica. Los cristales fotónicos son ideales para este propósito, porque pueden guiar y doblar la luz en la escala nanométrica. Para poder estudiarlos, es necesario poder medir la distribución de intensidad de la luz en su interior. Como se reportó en un paper reciente, esto ahora es posible. Leé más y enterate de qué se trata.

Los cristales fotónicos son estructuras tridimensionales ordenadas en las que se puede manipular la dirección la luz, así como en los semiconductores pueden manipularse el flujo de los electrones. La periodicidad en el retículo (red tridimensional) de los cristales fotónicos es del orden de la longitud de onda de la luz visible (en un cristal iónico formado por átomos, esta periodicidad es del orden de la longitud de onda de los rayos X, de ahí la importancia de utilizar la difracción de rayos X para identificar la estructura cristalina).

En el estudio de los cristales fotónicos, el objetivo es lograr que interactúen con la luz de una manera suficientemente fuerte como para que se forme un band gap fotónico, un rango de colores que están prohibidos para propagarse en cualquier dirección. El band gap se origina de un desorden en el material, porque el desorden conduce a estados localizados que efectivamente atrapan a la luz. El control del band gap permite a los científicos aprovechar los haces de luz y maniobrarlos alrededor de chips ópticos.

Para obtener esta información, es útil conocer la distribución del campo electromagnético en el interior del cristal. Hasta ahora sólo se contaba con métodos superficiales de estudio, pero superficial no es suficiente.

Científicos holadenses de la Universidad de Twente lograron, recientemente, mapear la fuerza absoluta de cada componente individual del campo en el interior del cristal, o sea, pueden ver el campo en el interior, con un experimento muy simple. Colocaron un cristal fotónico en una cavidad entre dos espejos de aluminio, dentro de la cual la luz rebota en los espejos. Como la luz es una onda, sólo las longitudes de onda que encajen perfectamente en el largo de la cavidad tendrán interferencia constructiva, es decir, sólo un color puede existir dentro de la cavidad.

Luego de medir ese color resonante (que es de una dada frecuencia), investigaron cómo la frecuencia se altera si bajan una cuenta o perlita de 2 mm, colgando de un hilo de nylon, dentro del cristal. La cuenta difracta las ondas electromagnéticas cercanas, cambiando la frecuencia de una manera proporcional a la intensidad de la luz en ese punto. Ahora mueven la cuenta de lugar y voilá, un mapa de fuerza del campo electromagnético en todo el interior del metal se consigue.

El experimento se ve claramente en la siguiente imagen: la frecuencia natural (primer dibujo) dentro de la cavidad es tal que la luz resonante es de color azul. Colocando la cuenta en uno de los puntos del interior (segundo dibujo), la frecuencia cambia y la luz es verde. Cambiándola ahora a otro punto (tercer dibujo), la frecuencia se corre aún más, y la luz se vuelve roja. Aplicando la propiedad mencionada del cambio de frencuencia, se encuentra la distribución buscada.



Si bien el campo magnético en el interior del cristal tiene seis componentes, cada una de ellas puede ser medida cambiando las propiedades de forma, tamaño y orientación de la cuenta, tal que una sola de las componentes contribuya al corrimiento de frecuencia.

Las aplicaciones futuras de estos materiales son poderosísimas, dado que las comunicaciones en circuitos podrían ocurrir, literalmente, a la velocidad de la luz. Esto también produciría un gran ahorro energético. Si bien estos fenómenos están comenzando a comprenderse, no cabe dudas que la fotónica y la acústica en las nanoescalas son parte del futuro tecnológicos que podemos comenzar a vislumbrar a través de los desarrollos de la ciencia básica más novedosos.

Fuente: http://phys.org/news/2012-10-glimpse-photonic-crystal.html
seguir leyendo "Mirando el interior de los cristales fotónicos"

lunes, 30 de julio de 2012

Energía oscura... ¿Qué energía oscura?

Recientemente un profesor de la Universidad de Hofsra, Brett Brochner, presentó un modelo cosmológico en la 13th Marcel Grossman Meeting on General Relativity, Estocolmo, Suecia. Su modelo logra recrear las observaciones sobre la aparente expansión del Universo, pero no incluye la existencia de la misteriosa energía oscura. ¿Es posible ignorar la existencia de un ente que, si bien no es comprendido aún, abunda en la mayoría de las teorías?

La energía oscura se propuso en 1998 como un artilugio para explicar el fenómeno de aceleración del Universo, que no es consistente con la masa-energía conocida. Esto llevó a la idea de que podía existir una forma exótica de energía que empapa al Universo y provoca repulsión entre la materia existente a grandes escalas. Su influencia es antigravitatoria. Michael Tuener la llamó "energía oscura", en relación al término "materia oscura" acuñado por Fritz Zwicky en los años 30'. La materia oscura es un tipo de materia hipotetizado que no produce ningún fenómeno observable de manera directa, sino que sus efectos pueden ser inferidos a partir de efectos gravitacionales en la materia visible. La materia "ordinaria" constituye sólo el 4% del Universo observable, mientras que la materia oscura se supone que forma el 23%, y la energía oscura el 73%, de la materia restante.



Como nos podemos imaginar, el tratamiento de los modelos del Universo es extremadamente complejo, y las aproximaciones son inevitables. El trabajo de Brochner consistió en revisar las aproximaciones realizadas por otros modelos. Una de las aproximaciones más comunes es la de considerar a la materia como un ente uniformemente distribuido en el universo, lo cual es una suposición razonable, puesto que la observación lo confirma hasta un cierto porcentaje. Sin embargo, es completamente obvio que la uniforme distribución de la materia-energía no es completa, porque en ese caso no habría planetas diferenciables, ni galaxias diferenciables, por espacio vacío entre ellas. Por ejemplo, en el sistema solar el 99.85% de la materia está concentrada en el Sol, que ocupa un pequeño volumen en relación al sistema solar completo.

Algunos modelos precisos han mostrado que esta falta de uniformidad en pequeñas escalas se cancelan cuando se consideran grandes escalas, pero la relación precisa que existe entre aquellas a grandes y pequeñas escalas todavía no es bien conocida.

El modelo de Brochner propone una explicación para la expansión acelerada del universo sólo considerando formas de materia-energía conocidas previamente, y esto es lo llamativo. No es necesario crear ningún tipo de energía nueva y desconocida como la energía oscura. Según él, las pequeñas irregularidades en la distribución de materia tiene un efecto acumulativo a través del espacio, que produce la aparente aceleración en la expansión del Universo. Previamente se pensaba que el efecto de este fenómeno, que Brochner llama "causal backreaction", no era suficientemente para explicar la acelerada expansión del Universo; pero su modelo, más detallado, y combinado con el fuerte agrupamiento que existe entre la materia puede recrear los resultados del modelo "estándar", que tiene en cuenta a la energía oscura.

Ahora bien: es improbable que las ideas de Brochner logren reemplazar un paradigma mundialmente aceptado, por más que su modelo no incluya elementos desconocidos hasta el momento. Quiero decir, su modelo también tiene simplificaciones, y es cuestionable si esas simplificaciones son más aceptables que las simplificaciones comunes de la cosmología, como la de la uniformidad de la materia-energía. Pero lo impactante de esto es que, a pesar de ser mundialmente aceptada, la naturaleza de la energía oscura sigue siendo un misterio, al punto en que su existencia misma es cuestionable. Imaginen ustedes, que son científicos investigando a la misteriosa energía oscura, sin poder verla ni ver ningún efecto más que el de la velocidad de expansión del Universo, y que de pronto alguien cuestione si lo que ustedes investigan pueda tener existencia o no. A veces la ciencia juega con los paradigmas, más si se está indagando en la mismísima frontera del conocimiento.
Presentación de Brochner en .pptx.
Facebook de divulgación de la Universidad de Hofsra.

Siéntanse libres de comentar.
seguir leyendo "Energía oscura... ¿Qué energía oscura?"

miércoles, 4 de julio de 2012

La ciencia detrás del bosón de #Higgs y la nueva partícula

En el día de hoy científicos encargados de los proyectos ATLAS y CMS que se llevan a cabo en el CERN, anunciaron picos significativos, consistentes con el bosón de Higgs, la "partícula de Dios" para los sensacionalistas. Pero, ¿qué es en realidad?.

Muchas personas se imaginan a la materia como algo formado por pequeñas pelotitas que tienen masa y están pegadas entre sí por alguna fuerza enlazante. El modelo estándar de la física propone que las partículas per se no tienen masa y se mueven a la velocidad de la luz, y que la masa en realidad es un efecto de la interacción de algunas partículas con un campo que ocupa cada rincón del Universo, el campo de Higgs (o de Englert-Brout-Higgs, para no dejar a nadie sin crédito). Así las partículas se desaceleran y pueden interactuar entre sí, uniéndose y formando la materia como la conocemos. El bosón de Higgs es el resultado de una perturbación del campo de Higgs, producida por un aumento de la energía (de varios miles de millones de electronvoltios). La colisión entre partículas subatómicas, que se realizan en el LHC (Large Hadron Collider) del CERN, en el Tevatron de Fermilab, y en otros laboratorios, produce esa liberación de energía que los físicos necesitan para observar el bosón de Higgs. Para saber por qué se propuso esa descripción del Universo y no la de las "pelotitas con masa propia", ir al final del post.

En Diciembre del año pasado, CERN anunció que había eventos extra alrededor de los 124-126 GeV, lo cual sugiere la existencia de una partícula muy masiva como el bosón de Higgs (la masa se expresa en unidades de energía porque están relacionadas por la expresión E = mc2). Sin embargo, la información no era estadísticamente confiable, por lo que eran necesarios más experimentos para confirmarlo. En esa ocasión, el experimento ATLAS arrojó un resultado consistente con una partícula entre 125-126 GeV con un nivel estadístico de 3.6 sigma (desviación estándar), mientras que el CMS mostraba un evento a 124 GeV con 2.6 sigma. Es necesaria una confianza estadística de 5 sigma para confirmar la existencia de la partícula. Además, habían obtenido otras señales menores que provocaban confusión.

Hoy se anunció desde el CERN, en Ginebra, como cortina de la mayor conferencia de física de partículas, el ICHEP2012 (en Melbourne), que tanto para el experimento ATLAS como el CMS se obtuvieron resultados consistentes con una partícula como el Higgs. Fabiola Gianotti, la vocera del ATLAS, afirmó

“We observe in our data clear signs of a new particle, at the level of 5 sigma, in the mass region around 126 GeV. The outstanding performance of the LHC and ATLAS and the huge efforts of many people have brought us to this exciting stage, but a little more time is needed to prepare these results for publication.”

Mientras que Joe Incandela, vocero del CMS, expresó

"The results are preliminary but the 5 sigma signal at around 125 GeV we’re seeing is dramatic. This is indeed a new particle. We know it must be a boson and it’s the heaviest boson ever foundThe implications are very significant and it is precisely for this reason that we must be extremely diligent in all of our studies and cross-checks."

Lo sorprendente es la semejanza en los resultados de ambos experimentos, realizados por separado. Según los últimos resultados, entonces, el bosón de Higgs sería una partícula con una masa de 125-126 GeV. Pero todavía hay mucho por conocer sobre esta partícula.

El bosón según el modelo estándar tiene propiedades muy específicas: decae muy rápido en "partículas normales" que pueden ser medidas en el detector. El experimento llevado a cabo en el experimento ATLAS es una colisión entre dos protones, y el decaimiento observado puede ser en dos fotones de alta energía o 4 leptones (muones o electrones), como la animación (de un evento real) que se encuentra más abajo. Estas señales de decaimiento son huellas del bosón de Higgs. Experimentalmente, los detalles del decaimiento todavía no se conocen y es algo en lo que se continuará investigando, lo cual concluirá si se trata del bosón predicho en el modelo de Higgs, responsable de la fuerza electrodébil, u otro bosón (ver al final del post para entender esto).


En virtud de los resultados, el modelo estándar será confirmado o necesitará unos ajustes. Si bien se puede decir que se trata de un bosón por su gran masa, es más liviano que lo que se esperaba. De ser este el bosón buscado, debería inducir a una reinterpretación parcial del modelo estándar como se lo conoce hoy, porque cambiaría la forma funcional del potencial. Esto llevaría a una nueva física, ligeramente distinta a la intepretación actual.

Además del modelo estándar, existen otros modelos teóricos para explicar la naturaleza del Universo. Algunos de ellos pueden ser descartados por el resultado comunicado hoy, pero otros siguen en pie. Entre ellos está del modelo de la supersimetría, que propone la existencia de 5 bosones de Higgs en lugar de uno. Este modelo es simplemente una extensión del modelo estándar, tal como lo es la Relatividad General de Einstein a los trabajos de Gravitación Universal de Newton: el más abarcativo tiende al comportamiento "clásico" en las condiciones cotidianas.

Cómo sigue: lo próximo es checkear las propiedades de la partícula, para ver si es realmente consistente con el modelo estándar. En caso de serlo, deberían haber otras partículas similares, como las supersimétricas; esto se podría hacer detectando partículas de materia oscura, por ejemplo. El LHC también puede revelar la existencia de dimensiones extra, que provocarían que la gravedad sea mucho mayor a distancias muy cortas debido a la curvaturas de las demás dimensiones, lo cual llevaría finalmente a una teoría que englobe a la mecánica cuántica y a la relatividad general en un formalismo consistente. Todavía hay mucho por descubrir.

Espero que les guste! Siéntanse libres de comentar, corregir y preguntar.
Saludos!

---
Para saber más:
Cómo funciona el mecanismo propuesto por Higgs.
Todas las partículas fundamentales que forman la materia tienen masa. Además, la cuántica requiere que las fuerzas sean transportadas por partículas. Las partículas W y Z que producen la fuerza nuclear débil, responsable de la radioactividad, tienen masa, mientras que los fotones, que transportan la fuerza electromagnética, no la tienen. Esta es la raíz del problema de Higgs: cómo dotar de masa a las partículas fundamentales y romper la simetría entre las W y Z y los fotones. La naturaleza debe tener un mecanismo para corregir esta inconsistencia, si asignar o no masa a las partículas. Y allí es donde entra el mecanismo propuesto por Englert, Brout y Higgs.
De acuerdo al mecanismo propuesto, la propiedad que medimos como "masa" es el resultado de una interacción constante con algo que empapa el Universo, una suerte de "éter", que es el campo de Higgs. La existencia de este campo se prueba inmediatamente si se halla la partícula, que es una mera perturbación del mismo.
Originalmente, el mecanismo se desarrolló para explicar por qué una de las fuerzas (la débil) tiene un alcance muy pequeño, mientras que otra (la electromagnética) tiene un alcance infinito. Como las partículas al interactuar intercambian estos transportadores de energía, mientras más masivo sea el transportador, menos distancia podrá recorrer, y de allí su alcance más corto.
El modelo de Higgs es el más simple que explica estas diferencias en masa, y por extensión, explica por qué otras partículas tienen masa. De ser probado, las fuerzas débil y electromagnética podrían ser unificadas en una única teoría "electrodébil". Pero no confundirse, porque el campo de Higgs contribuye poco a la masa de los cuerpos, tal como la conocemos. Por ejemplo, del total de la masa de una persona, menos de 1 kg proviene de la interacción con el campo, mientras que el resto viene de la fuerza nuclear fuerte que une a los quarks en los nucleones (protones y neutrones).
Como los bosones de Higgs son pequeñas fluctuaciones del campo de Englert-Brout-Higgs, se producen cuando se inyecta gran cantidad de energía en el campo. Concentrando la energía de la colisión de dos partículas que resuena a la energía precisa correspondiente a la masa del Higgs. El bosón existe momentáneamente, y luego decae en otras partículas que pueden ser detectadas por el LHC. Para más información, visitar la fuentes que se citan al final.

Fuentes:
Video de ATLAS
NewScientist
CERN PR
CERN Bulletin
CERM FAQ: The Higgs!
PhysOrg


seguir leyendo "La ciencia detrás del bosón de #Higgs y la nueva partícula"

sábado, 14 de mayo de 2011

Fotoceldas y materiales biomiméticos

Hace un par de semanas un grupo de investigadores daneses y americanos publicaron en la revista Nature Materials los resultados de una investigación muy interesante a la que los voy a introducir a continuación.

Revisemos un poco qué se busca en las celdas solares, tanto para producción de energía eléctrica como para electrólisis in situ. Todos sabemos que la luz visible es un tipo de radiación electromagnética, con longitudes de onda que van aproximadamente desde los 300 nm (azul-violeta) a los 700 nm (rojo). En las celdas fotovoltaicas muchas veces se busca algún material semiconductor que tenga un bandgap (energía entre la banda de conducción y la de valencia) acorde a la energía que poseen los fotones con longitudes de onda correspondientes a la luz visible. Eso se puede conocer fácilmente a través de la fórmula E=hc/λ, que indica que la energía es inversamente proporcional a la longitud de onda de los fotones. Así se explica por qué se utiliza el silicio en las celdas solares, su bandgap es de 1.12 eV, correspondiente a una longitud de onda λ=1100 nm, lo cual indica que con la luz roja es suficiente para promover los electrones a la banda de conducción y además proveer la fotocorriente necesaria, en este caso para producir la oxidación o reducción de los compuestos de interés. Otros materiales como el InP y el CdTe tienen bandgaps similares, pero su costo es mayor y son más susceptibles a la corrosión. Para aumentar la superficie del material y la eficiencia de la celda se producen superficies rugosas o constituidas por micro o nanoestructuras con mayor superficie (por ejemplo, pequeños pilares de silicio).

Pero para las celdas solares químicas necesitamos algo más: como no se hace circular corriente por un circuito externo, las reacciones se producen sobre un mismo sustrato, por lo que es necesario contar con una estructura, por ejemplo en forma de pilares, con una membrana semipermeable que separe a los pilares por la mitad: en una mitad se producirá la reacción de oxidación y en la otra la de reducción, y las especies participantes de las reacciones deberán migrar a través de la membrana. Además, es preciso contar con algún material, llamado catalizador, que facilite el proceso de evolución de hidrógeno y oxígeno a partir de la electrólisis del agua presente en la celda. El trabajo de estos muchachos consistió en encontrar un material que cumpliera el rol de catalizador para la reacción de evolución de hidrógeno (Hydrogen Evolution Reaction, HER), que consiste en una reducción de protones del lado del pilar con bajo gap, usando la luz roja del espectro. El platino y otros metales nobles cumplen muy bien esta función pero son demasiado escasos y caros para ser usados a escala industrial.



Acá es cuando se puso bueno. Los chicos pensaron que la cinética del proceso podía estar ligada a la energía de adsorción del hidrógeno sobre la superficie. Una energía de adsorción adecuada podría disminuir la barrera energética facilitando la salida o el "despegue" del hidrógeno del sustrato. Se les ocurrió entonces que los sulfuros de metales de transición presentes en catalizadores biológicos (enzimas nitrogenasas e hidrogenasas) podían servir para este propósito. Es una idea muy sabia porque se sabe que las enzimas operan con elevados rendimientos.

En efecto, resultó que los clusters de Mo3S4 similares en morfología al cubano (C8H8) lograban alcanzar una eficiencia similar a la del platino usado como co-catalizador. Esta eficiencia es de alrededor del 10%, lo cual se considera muy alto para las celdas fotoquímicas. Al ser iluminada la celda con luz roja (λ = 620 nm) con intensidad igual a la intensidad solar (1000 W/m2) se pudo observar que la corriente generada es debido a la HER y no a la reducción del cluster de Mo3S4. Esto prueba que está todo bien con la actividad electroquímica del catalizador.

Finalmente los grosos hicieron cálculos para evaluar la termoquímica de la reacción, considerando un diagrama de energía libre de tres estados: electrodo iluminado/oscuro (i), hidrógeno adsorbido (ii), e hidrógeno libre (iii). Según los cálculos, si bien el hidrógeno se adsorbe más fuertemente sobre el sulfuro de molibdeno, aumentando la energía libre, permite que exista una disminución de la energía libre entre el estado (i) y (ii), permitiendo una conversión espontánea y favorecida termodinámicamente.

Sin duda es un trabajo fantástico que combina estrategias y conocimientos de diversas áreas de la química, apuntando a resolver un problema de interés tecnológico. Si bien existen otros métodos para obtener hidrógeno en los que están involucrados hidrocarburos, todos ellos implican liberación de contaminantes. La electrólisis del agua, por el contrario, es totalmente limpia tanto en la producción de gases como en la posterior combustión de hidrógeno, para volver a formar agua. En lo particular me fascina el approach biomimético, muy bien ejemplificado en este trabajo que encuentra solución a un problema completamente inorgánico utilizando mecanimos presentes en sistemas biológicos creados espontáneamente con el correr de las eras. Es la ciencia que se viene.

Saludos a todos.

Imagen tomada del paper: Yidong Hou, et al. “Bioinspired molecular co-catalysts bonded to a silicon photocathode for solar hydrogen evolution.” Nature Materials, y adaptada originalmente de Lewis, N. S. & Nocera, D. G. Powering the planet: Chemical challenges in solar energy utilization. Proc. Natl. Acad. Sci. USA 103, 15729-15735 (2006) and Grey, H. B. Powering the planet with solar fuel. Nature Chem. 1, 7 (2009).

seguir leyendo "Fotoceldas y materiales biomiméticos"

viernes, 25 de marzo de 2011

Biología cuántica, o como cuatro ojos ven mejor que dos.

Hola a todos, mi nombre es Juan, estudio Licenciatura en Química en la Universidad Nacional de Córdoba, Argentina, y me estoy sumando a este blog para tratar de aportar un poco de mi punto de vista. Mi idea por ahora es invitarlos a aprender un poco más de ciencias, comentar algunos avances interesantes y, sobre todo, hacerlos pensar en las ciencias. Creo que el mejor modo de hacerme conocer ahora es mostrando un poco lo que yo pienso, así que here we go.

Hace unos días una página de divulgación a la que estoy suscripto me sugirió una nota en la revista Discover, de febrero de 2009. El título del artículo es “Entangled Life”, y está disponible aquí. Como podrán ustedes leer (y si no, se los comento), se trata de una recopilación de algunos casos en los que se demuestra o propone una solución que parte de la cuántica a preguntas de la química biológica. En primer lugar se describe un modelo en el que los electrones excitados durante la fotosíntesis transmiten esa energía no por un desplazamiento real (de orbital a orbital, como siempre se propuso), si no por entrelazamiento cuántico con electrones en otras moléculas. Esto también podría explicar mejor la gran eficiencia lograda por este proceso. Otro caso tratado en el artículo es la interpretación que se hace sobre el proceso del olfato, particularmente una explicación de por qué dos moléculas muy similares en forma producen olores muy distintos. La respuesta es sorprendente: Los electrones de los receptores olfativos interactuarían de distinto modo de acuerdo a los modos vibracionales de la molécula “olida”. Las moléculas olidas vibran de distintas maneras porque esto depende más fuertemente de su estructura que de su composición elemental. Estas pequeñas diferencias en la movilidad electrónica producirían así diferentes olores.

El artículo además deja abiertas las puertas al novedoso concepto de “biología cuántica” como un área revolucionaria. Este título combina dos conceptos usualmente aislados y tradicionalmente tratados por separado. Por un lado, la química biológica se dedica a entender la química de la vida como un todo, prefiriendo explicar los procesos metabólicos como una serie de reacciones que se suceden unas a otras, a veces escapando a los aspectos más finos y detallados de la física detrás de cada una de esas reacciones. Por el otro lado, la química cuántica se centra precisamente en los pequeños cambios a nivel atómico y subatómico, explicando el comportamiento de la materia basándose en la teoría cuántica. Las implicancias de relacionar los dos conceptos, como bien muestra el artículo citado, son impresionantes. Los que estamos familiarizados con escalas microscópicas sabemos que la cuántica trabaja en zonas muy puntuales, que al ser comparadas con las macromoléculas biológicas parecerían carecer de influencia directa. Sin embargo, estas experiencias demuestran lo contrario, y la relación entre estos campos nos brinda respuestas que no hubieran sido consideradas, pero que finalmente se ajustan mejor a los resultados observados. Esta reflexión es la que me lleva a escribir las ideas que expongo a continuación.

En los últimos años se han hecho grandes avances en el área de lo multidisciplinario, relacionando distintas zonas del conocimiento científico para explicar fenómenos cada vez más complejos e incrementar la comprensión sobre sucesos particulares. Sin embargo, en determinados círculos de investigación, esto dista de ser verdadero. En general, un alumno de ciencias es educado en una línea particular, coincidente con sus intereses y los de su casa de estudios, llevado por una elección que denominamos “especialización”. A la misma le dedicará seguramente unos cuantos años de su vida para comprenderla a fondo, y otros tantos para investigar al respecto. Y aquí es donde chocan los conceptos. Si estamos educando a una persona para que se enfoque en un pequeño punto de las ciencias, luego no debería sorprendernos que explique lo que observa desde el entorno en el que está mejor preparado, es más capaz y seguramente se siente más cómodo. Esto, evidentemente, no es un enfoque multidisciplinario. Sin embargo, una sola persona no puede ser especialista en muchas áreas distintas. Entonces, ¿Cómo procedemos para saltear este conflicto?

Allí es donde debe intervenir la formación del sujeto de ciencias. El dialogo entre distintas ramas de las ciencias siempre ha estado condicionado por muchos factores, pero si intentamos obtener explicaciones superadoras de las anteriores es necesario integrar los distintos enfoques en un solo punto. El sujeto de ciencias debe poseer una mente preparada para tomar conceptos nuevos con un enfoque distinto y aplicarlos con éxito a la circunstancia en estudio. El sujeto de ciencias tiene que ser capaz de comunicar las ideas que le surgen, y de interpretar las ideas de otros dentro del modelo propuesto. Esto no es solamente algo que debe ser inculcado por profesores e investigadores asociados, sino que debe ser puesto en práctica con los alumnos. Lo ideal sería que además el alumno y profesional lo tuviera presente durante su carrera. La búsqueda constante de explicaciones superadoras, la curiosidad por la cuestión de fondo que moviliza los distintos eventos, la capacidad de aceptar nuevas ideas y la posibilidad de integrar los distintos aportes dentro de un solo modelo deberían ser valores vitales para cualquier investigador que emprenda un camino en la frontera de dos ciencias. Por esto, insto a los lectores a trabajar en este aspecto, a tener en cuenta que los distintos enfoques de las ciencias cobran muchísimo valor en las situaciones en las que dos o más áreas tienen competencia. Esta diferencia de enfoques, condensadas en una única explicación, son las que hoy nos permiten entender fenómenos complejos como la fotosíntesis o los impulsos neuronales de modos que hace años no hubiéramos imaginado. Otra conclusión importante de esto último, y con esto me despido, es que para avanzar en las ciencias no siempre es necesario cruzar las fronteras externas hacia sucesos no explicados, sino que basta con buscar las conexiones que todavía no vimos en sucesos familiares y frecuentes. A tenerlo en cuenta. Saludos y gracias por su tiempo.

seguir leyendo "Biología cuántica, o como cuatro ojos ven mejor que dos."