Pierre-Gilles de Gennes: El nobel desconocido

“Un viaje sentimental al país de las maravillas de la materia blanda”

—— Pierre-Gilles de Gennes, Discurso del Premio Nobel, 1991

El Contexto Histórico

¿Qué tienen en común un televisor LCD, el detergente, la sangre, la pintura y la arena? Un nombre: Pierre-Gilles de Gennes.

Pierre Gilles de Gennes fue un físico francés nacido en 1932. En 1955 se graduó de la École Normale. Fue miembro de la Academia Francesa de Ciencias, la academia Holandesa de Artes y Ciencias, la Royal Society, la Academia Americana de las Artes y las Ciencias y de la Academia Nacional de Ciencias de Estados Unidos. Desde 1976 a 2002 se desempeñó como director de la prestigiosa École Superieur de Physique et Chimie (ESPC). En 1991 recibió el premio nobel “por descubrir que los métodos desarrollados para estudiar fenómenos de orden en sistemas simples pueden ser generalizados a formas más complejas de la materia, en particular a los cristales líquidos y los polímeros.”

Sus aportes han sido muy relevantes en distintas áreas de la física y las ciencias aplicadas, especialmente considerando la relación interdisciplinaria con ciencias como la biología y la química, y con la industria. En su discurso de aceptación del Premio Nobel de Física, nos invita a un viaje sentimental a la tierra mágica de la Materia Blanda. ¿Pero? ¿Qué es la materia blanda?

La Ciencia Detrás de la Materia Blanda

Estados de la Materia

Si recordamos como nos explicaban los estados de la materia en el colegio, estos eran: sólido, líquido, gaseoso y plasma. Sabemos en la actualidad que hay un quinto estado de la materia, uno artificial creado en el laboratorio, conocido como Condensado de Bosé-Einstein.

Los 3 primeros los conocemos todos, el cuarto nos puede sonar de algo y el quinto no es muy conocido. Volviendo a los 2 primeros sólido y líquido, siempre aparecen algunas observaciones: ¿Y la gelatina qué es? ¿Y el gel para el cabello? ¿y la mayonesa?, parecen sólidos pero al esparcirlos parecen líquidos.

Desde un punto de vista técnico y formal, nos referimos a materia blanda como materiales que son fácilmente deformables debido a fluctuaciones térmicas y fuerzas externas. Esto incluye desde el helado y el shampoo que encuentras en casa, la pintura de nuestra habitación, hasta la sangre y los tejidos de nuestro cuerpo.

Comprensión Moderna

El Comportamiento a Diferentes Escalas

La materia blanda se comporta de manera diferente a los sólidos y los líquidos, y para descubrir cómo y por qué es necesario observar los materiales a distintas escalas. Si nos vamos a una escala muy pequeña, pareciera que las moléculas se comportan de manera aleatoria y desordenada como un líquido. Si nos alejamos y observamos estos materiales desde una escala un poco mayor, comenzamos a ver cómo se forman estructuras ordenadas. Si ahora observamos estos materiales con nuestros propios ojos veremos que aquellas estructuras ordenadas responden colectivamente.

Esto permite que la materia blanda sea estable sin embargo tenga características flexibles. En otras palabras, en los materiales “blandos” conviven e interactúan constantemente el orden y el desorden.

El Origen Histórico

Se podría remontar el origen de los estudios de la materia blanda a 1827 cuando el botánico Robert Brown observó el movimiento irregular de los granos de polen en el agua. Casi 80 años más tarde, el movimiento observado por Brown fue explicado por Albert Einstein y Marian Smoluchowski y se le otorgó el nombre de Movimiento Browniano.

La comprensión del movimiento Browniano generó una profundización en la comprensión del comportamiento de los sólidos, los líquidos y los gases, sin embargo, aún no había explicaciones claras para el comportamiento de la “materia blanda”. Fue en la década de los 70’s en que la comprensión de la materia blanda comenzó a cobrar importancia, gracias al aumento de las capacidades técnicas de los microscopios y computadores de esa época.

Fueron los trabajos pioneros de Sam Edwards y Pierre Giles de Gennes en cristales líquidos y polímeros los que finalmente confirmaron las sospechas de que las extrañas propiedades de variados materiales blandos provenían de la interacción entre el orden y el desorden a un nivel molecular, y así nació el concepto de “Matière Molle”, “Materia Blanda” o “Soft Matter”.

Aplicaciones Biológicas

A partir de ese momento un gran número de materiales comenzaron a ser estudiando a partir de las teorías de De Gennes, cementos, pegamentos, pinturas, polvos, granos, espumas y coloides (materia ultra dividida como a él le gustaba llamarle). Sin embargo, el interés científico por la materia blanda explotó cuando está se comenzó a aplicar a los materiales vivos.

El trabajo en esta área involucra física, química y biología. Nuestro cuerpo está hecho de diferentes tipos de polímeros: Carbohidratos, lípidos, ácidos nucleícos y una gran variedad de proteínas. Descubrir la compleja relación entre los distintos sistemas biológicos es una tarea muy desafiante, pero con la ayuda de la física de la materia blanda esto puede ser mucho más sencillo, debido a que todos los polímeros que componen nuestro organismo son largas cadenas de cuerdas o bolas que se mueven irregularmente.

El Legado de de Gennes

Dos son las características fundamentales de la materia blanda según Pierre de Gennes: la complejidad y la flexibilidad. A lo largo de su vida publicó variados libros que son la base de los estudios de los cristales líquidos (presentes en las pantallas que vemos todos los días), los polímeros (parte de nuestras células y tejidos), las propiedades de mojado y gotas, coloides (gelatinas) y surfactantes (que nos permiten proteger las superficies con capas muy finas de material, como los detergentes y las burbujas).

Sus aportes cubrieron un campo extraordinariamente amplio de la ciencia. Fue un gran divulgador y según algunos lo más parecido a un hombre del renacimiento de nuestros días. Incluso lo llamaron el “Newton de nuestra época”, a lo que él se refirió como “Lirismo Nórdico”.

Después de recibir el premio Nobel se dedicó a dar charlas de ciencia, innovación y sentido común a estudiantes de enseñanza media (secundaria). Visitó alrededor de 200 escuelas desde 1992 a 1994, cuya historia se encuentra en el libro “Los objetos frágiles” donde de Gennes homenajea sus colaboradores y destaca las investigaciones de quienes él consideraba que también merecían un premio Nobel.

Pierre Giles de Gennes falleció en 2007 a la edad de 74 años, dejando un legado importante para las ciencias en general. Un legado que seguimos algunos de nosotros.

Dos son las características fundamentales de la materia blanda según Pierre de Gennes: la complejidad y la flexibilidad. A lo largo de su vida publicó variados libros que son la base de los estudios de los cristales líquidos (presentes en las pantallas que vemos todos los días), los polímeros (parte de nuestras células y tejidos), las propiedades de mojado y gotas, coloides (gelatinas) y surfactantes (que nos permiten proteger las superficies con capas muy finas de material, como los detergentes y las burbujas).

Sus aportes cubrieron un campo extraordinariamente amplio de la ciencia. Fue un gran divulgador y según algunos lo más parecido a un hombre del renacimiento de nuestros días. Incluso lo llamaron el “Newton de nuestra época”, a lo que él se refirió como “Lirismo Nórdico”.

Después de recibir el premio Nobel se dedicó a dar charlas de ciencia, innovación y sentido común a estudiantes de enseñanza media (secundaria). Visitó alrededor de 200 escuelas desde 1992 a 1994, cuya historia se encuentra en el libro “Los objetos frágiles” donde de Gennes homenajea sus colaboradores y destaca las investigaciones de quienes él consideraba que también merecían un premio Nobel.

Pierre Giles de Gennes falleció en 2007 a la edad de 74 años, dejando un legado importante para las ciencias en general. Un legado que seguimos algunos de nosotros.

Referencias

  1. https://www.nobelprize.org/prizes/physics/1991/gennes/biographical/
  2. https://www.nobelprize.org/prizes/physics/1991/summary/
  3. https://www.iop.org/explore-physics/physics-stepping-stones/soft-matter-physics#gref
  4. De Gennes, P. G., Brochard-Wyart, F., & Quéré, D. (2004). Capillarity and wetting phenomena: drops, bubbles, pearls, waves (Vol. 336). New York: Springer.
  5. De Gennes, P. G., & Prost, J. (1993). The physics of liquid crystals (No. 83). Oxford university press.
  6. De Gennes, P. G., & Gennes, P. G. (1979). Scaling concepts in polymer physics. Cornell university press.
  7. De Gennes, P. G. (1992). Soft matter. Reviews of modern physics64(3), 645.

Este podcast fue apoyado en parte por la Agencia Nacional de Investigación y Desarrollo (ANID), Chile (ANILLO ATE220022; ALMA 31220004; FONDECYT 1211848) y Proyecto DGVM 3054 (PUCV).

Juan Maldacena y el Principio Holográfico

“La equivalencia entre una teoría de gravedad y una teoría cuántica de campos nos revela que el universo podría ser como un holograma, donde toda la información tridimensional está codificada en una superficie bidimensional.”

—— Inspirado en los conceptos de Juan Maldacena

El Contexto Histórico

La física moderna inicia con la mecánica cuántica y la teoría de la relatividad a principios del siglo XX, a partir de las ideas de Albert Einstein. Es preciso advertir que, actualmente, la física está en un estado más avanzado y que, por ello, el calificativo ‘moderno’ no debe interpretarse literalmente. Para entender el trabajo de Juan Maldacena, necesitamos explicar el contexto general y presentar los principales avances en física teórica.

La teoría de la relatividad que no considera los efectos gravitacionales se llama relatividad especial, y el marco teórico para describir la gravitación se llama relatividad general. La relatividad especial es una generalización de la mecánica newtoniana que nos permite estudiar la dinámica de sistemas físicos que se mueven a velocidades relativas comparables a la velocidad de la luz (esto es aproximadamente 300.000 km –casi la distancia a la Luna– por cada segundo).

Fundamentos Teóricos

Relatividad y Mecánica Cuántica

En el límite cuando la velocidad de la luz se considera infinita, se recupera la mecánica newtoniana. La relatividad general es la teoría para la interacción gravitacional, y se usa cuando los campos gravitacionales son fuertes, por ejemplo, en las proximidades de un agujero negro.

Por su parte, se puede decir de manera general que la mecánica cuántica es la teoría para describir los procesos físicos a nivel microscópicos, pero esto no excluye procesos macroscópicos donde los efectos cuánticos puedan ser importantes (cuando la temperatura es muy baja).

Así como la relatividad especial viene con una constante característica, la velocidad de la luz, la mecánica cuántica viene también con una constante característica, la constante de Planck. En el límite cuando la constante de Planck se considera cero, se recupera la mecánica newtoniana.

Agujeros Negros y Entropía

La relatividad general, por su parte, predice la existencia de agujeros negros, regiones del espacio delimitadas por un ‘horizonte de eventos’ desde las que ninguna partícula puede escapar, pero, cuando se considera efectos cuánticos (Hawking, 1975), en un límite conocido como la aproximación semiclásica, en la que se aplica las técnicas de la teoría cuántica de campos en espaciotiempos curvos, los resultados indican que los agujeros negros emiten radiación térmica.

En la misma década de los 70, se entendió que los agujeros negros tienen también una entropía, la entropía de Bekenstein-Hawking, que es proporcional al área del horizonte de eventos. Comparado con cualquier sistema termodinámico estándar, resulta inusual que la entropía de los agujeros negros sea proporcional a su área y no a su volumen.

Este hecho es una señal de que el principio holográfico puede ser fundamental para construir una teoría de gravitación cuántica, en el sentido de que toda la información del sistema está distribuida solamente sobre la superficie que lo envuelve. Explicar el origen microscópico de la entropía de los agujeros negros es un test teórico para cualquier propuesta de teoría fundamental para la gravitación cuántica.

El Trabajo de Maldacena

El trabajo más influyente de Maldacena consiste en una realización concreta del principio holográfico, conocida como la dualidad AdS/CFT o dualidad gauge/gravedad que relaciona una teoría de cuerdas en un espacio curvo conocido como Anti-de Sitter (AdS) en 5 dimensiones puesta sobre una esfera 5-dimensional y una teoría de campos con simetría conforme (conformal field theory, CFT) en 4 dimensiones.

Juan Maldacena es un físico teórico argentino. Se graduó con su doctorado en la Universidad de Princeton y actualmente es profesor en IAS, Princeton. Su tesis de doctorado trató sobre la entropía microscópica de los agujeros negros con temperatura cero (existen agujeros negros en la naturaleza que tienen temperatura muy pequeña).

Teoría de Cuerdas

La “teoría de cuerdas” es un marco teórico que unifica la gravitación con la mecánica cuántica sin modificar ninguno de sus principios fundamentales, pero al costo de que las partículas elementales tienen una estructura interna. Específicamente, todas las partículas elementales son un mismo objeto, a saber, una cuerda (con una tensión intrínseca) vibrando a diferentes frecuencias.

De esta manera, la teoría de cuerdas unifica todas las interacciones conocidas en la naturaleza; electromagnetismo (la luz y todo lo relacionado con la tecnología), interacción débil (decaimiento radioactivo, como el Uranio, que emite radiación), interacción fuerte (responsable de la estabilidad de los núcleos atómicos) y la gravitación.

La teoría de cuerdas no está en un estado completo y no ha realizado predicciones concretas a las escalas de energía alcanzadas en laboratorios. Sin embargo, los métodos matemáticos de la teoría de cuerdas pueden usarse para analizar empíricamente fenómenos físicos. En el límite cuando la tensión de la cuerda se considera infinita se recupera el modelo de partículas puntuales de la teoría cuántica de campos, que es una forma de verificar la consistencia de una teoría nueva.

Aplicaciones Fenomenológicas

Para terminar, vamos a presentar dos aplicaciones fenomenológicas concretas de este formalismo.

En los aceleradores de partículas, se puede obtener un estado nuevo de materia, llamado quark-gluon plasma, el que, para un intervalo de tiempo muy corto, se comporta como un fluido. Los quarks y los gluones son las partículas elementales involucradas en la interacción fuerte (así como los fotones y electrones lo son en la interacción electromagnética). Este es un ejemplo de un estado de materia acoplada muy fuertemente, en el que los métodos tradicionales perturbativos de teoría cuántica de campos no se pueden aplicar. Para salvar esta situación, se puede usar la dualidad AdS/CFT y calcular la viscosidad de este fluido en el marco de la gravedad clásica.

Una segunda aplicación consiste en evaluar la anisotropía de la temperatura del CMB (Cosmic Microwave Background), usando nuevos métodos propios de teoría de cuerdas. Maldacena en uno de sus más notables trabajos como autor único usa estas herramientas matemáticas para calcular la función de correlación de tres puntos para las fluctuaciones primordiales en un modelo inflacionario del universo. Las funciones de correlación son los objetos matemáticos que codifican dichas desviaciones de temperatura.

Referencias

  1. Maldacena, J. M. (1999). “The large-N limit of superconformal field theories and supergravity.” International Journal of Theoretical Physics, 38(4), 1113-1133.
  2. Hawking, S. W. (1975). “Particle creation by black holes.” Communications in Mathematical Physics, 43(3), 199-220.
  3. Bekenstein, J. D. (1973). “Black holes and entropy.” Physical Review D, 7(8), 2333.
  4. Maldacena, J. (2003). “Non-Gaussian features of primordial fluctuations in single field inflationary models.” Journal of High Energy Physics, 2003(05), 013.

Este podcast fue apoyado en parte por la Agencia Nacional de Investigación y Desarrollo (ANID), Chile (ANILLO ATE220022; ALMA 31220004; FONDECYT 1211848) y Proyecto DGVM 3054 (PUCV).

Fred Hoyle y la Panspermia

“Ya somos hijos del cosmos. El origen de la vida podría haber estado en cualquier parte de la galaxia y en cualquier momento de su historia. La pregunta no es si la vida vino del espacio—ya sabemos que sí, puesto que la Tierra misma viene del espacio—sino si los ORÍGENES de la vida fueron terrestres.”

—— Fred Hoyle, 1978

El Contexto Histórico

Nuestra relación con el universo y nuestra comprensión de nuestro lugar dentro de él ha evolucionado dramáticamente a lo largo de la historia registrada. En tiempos premodernos, tendíamos a proyectar nuestra autoimagen en el cosmos: ya sea ubicándonos en el centro (por ejemplo, el modelo geocéntrico aristotélico) o poblándolo con inteligencias similares a la nuestra (por ejemplo, los mundos apilados de la cosmología védica antigua).

Mientras la literatura nunca dejó de explorar estos conceptos, la ciencia moderna adoptó una visión más pesimista. A medida que comenzamos a comprender la inmensidad del universo, su naturaleza en gran parte hostil para la vida, y particularmente la esterilidad de otros planetas en nuestro sistema solar, la idea del contacto con formas de vida extraterrestre se volvió cada vez más improbable.

La Ciencia Detrás de la Resolución

Elementos CHON en el Espacio

El medio interestelar contiene los elementos básicos de la vida, principalmente el cuarteto CHON (Carbono, Hidrógeno, Oxígeno y Nitrógeno). Las abundancias relativas de estos elementos después del H y He están determinadas por la nucleosíntesis estelar:

C:H:O:N ≈ 1:4:3:1

en nubes moleculares típicas (por cada Carbono tienes cuatro Hidrógeno, tres Oxígeno y un Nitrógeno).

La temperatura del medio interestelar en las nubes densas frías puede caer por debajo de los 100 K, permitiendo la formación de moléculas complejas durante millones de años.

Comprensión Moderna

De las Esporas al Espacio

Fred Hoyle y su estudiante Chandra Wickramasinghe hicieron contribuciones significativas a este campo en la década de 1970. Su trabajo fue inspirado por el desarrollo de la astronomía infrarroja y el estudio del medio interestelar. Propusieron que los granos de polvo interestelar podrían contener esporas bacterianas, sugiriendo que los componentes de la vida ya estaban presentes en las nubes preestrellares.

Referencias

  1. Hoyle, F. & Wickramasinghe, N. C., “Lifecloud: The Origin of Life in the Universe” (1978)
  2. Arrhenius, S., “Worlds in the Making” (1908)
  3. Hoyle, F. & Wickramasinghe, N. C., “Astronomical Origins of Life: Steps towards Panspermia” (2000)
  4. Wickramasinghe, N. C., “Formaldehyde Polymers in Interstellar Space” (1974)
  5. Weber, P. & Greenberg, J. M., “Can Spores Survive in Interstellar Space?” (1985)

Este podcast fue apoyado en parte por la Agencia Nacional de Investigación y Desarrollo (ANID), Chile (ANILLO ATE220022; ALMA 31220004; FONDECYT 1211848) y Proyecto DGVM 3054 (PUCV).

David Fried y la predicción fallida de Asimov

“Hacer telescopios aún mas grandes será inútil, pues la absorción de la luz y las fluctuaciones de temperatura de la atmósfera terrestre son lo que limita nuestra habilidad de ver los detalles más finos. Si se van a construir telescopios más grandes, tendrá que ser en un observatorio sin aire, tal vez uno en la Luna.”

—— Isaac Asimov, 1970

El Contexto Histórico

Esta predicción fallida no está hecha al azar, como buen escritor de Ciencia Ficción—de la clásica—estaba al tanto del estado del arte en el mundo de los Astrónomos. Hasta entrados los 70s el trabajo del astrónomo estaba dominado por la fortuna de las buenas condiciones nocturnas. Apostaba a tomar muchas fotografías del objeto de interés y que una de ellas fuera buena, y con mucha, pero mucha suerte excelente.

Para esa década la tecnología se había desarrollado enormemente (habíamos llegado a la luna), y los telescopios terrestres ya comenzaban a superar con facilidad diámetros superiores a los tres metros. Sin embargo, al menos durante unos treinta años preocupaba que a pesar de estos tamaños la calidad no se acercara a lo que la teoría predecía.

La Ciencia Detrás de la Resolución

Criterio de Rayleigh

La Óptica establece una relación simple para determinar la resolución de un telescopio (o cualquier sistema óptico). El criterio de Rayleigh establece que nuestra capacidad para distinguir (resolver angularmente, θ) dos objetos lejanos es inversamente proporcional al diámetro del espejo (apertura), D, del telescopio:

donde λ es la longitud de onda de la fuente de luz puntual muy alejada del observador (una estrella).

La longitud de onda promedio de una fuente de luz en el visible es 550 × 10⁻⁹ m, si suponemos que tenemos un telescopio de 3 m, la resolución teórica es de 0.0462″

El Problema del Astrónomo Moderno

El problema del astrónomo moderno es tener un telescopio lo suficientemente grande para capturar la luz de galaxias o estrellas cuyo brillo es infinitamente menor (10⁵ veces menos o aún más) que el Sol. Estos objetos requieren tiempos de captura de fotones (exposición) de 2 o incluso 30 minutos.

El Concepto de "Seeing"

Es seeing indica cuán cerca estamos del ideal teórico. Entre los años 1940 y 1960 se desarrollaron varias técnicas para estimar el seeing. Primero, se observó que el factor dominante en el deterioro de las imágenes era producto del efecto de la atmósfera.

Trabajos precursores, como el de E. Gaviola en Argentina, describen las contribuciones de las diferentes capas atmosféricas al seeing astronómico o la diversidad de técnicas empleadas para su determinación. En este último punto hasta fines de los 60s la definición de seeing era dispar o se basaba en el bailoteo (“wandering”) de la imagen de una estrella de referencia sobre la superficie fotográfica (en un telescopio pequeño) o en el la extensión de la mancha de esta estrella en un tiempo de exposición largo en un telescopio grande.

La Crisis de la Resolución

En este punto era claro que aumentar el tamaño del telescopio no mejoraría la detección de objetos lejanos si el seeing no se podía reducir lo suficiente, y su valor dependía de l estado de la atmósfera y no del telescopio. Por eso la visión crítica de Asimov. Un buen valor de seeing era 1″, uno excelente 0.5″—en la experiencia del astrónomo: un criterio meramente cualitativo. Con este criterio es que se escogieron lo primeros sitios en Chile.

El Trabajo Revolucionario de Fried

David L. Fried había terminado su doctorado en 1961 y había sido contratado por la North American Aviation para estudiar la propagación de lasers en la atmósfera ¡Recordemos que el primer laser funcional fue creado por Maiman (basado en el trabajo teórico de Townes) recién en 1960!—trabajando para Hughes Aircraft Company.

Dos grandes contribuciones de científicos rusos existían hasta entonces sobre el problema. La teoría de turbulencia atmosférica libre de Kolmogorov, y el análisis de propagación de una onda plana (fuente de luz muy lejana) a través de este tipo de medios. No parece mucho, pero lo suficiente para que en 1962 comenzará su aventura.

El Parámetro de Fried

La razón de Strehl:

Nos indica en cuánto empeoró nuestro telescopio por efecto de las aberraciones introducidas por la turbulencia.

r0=[0.42k20LCn2(z)dz]3/5

El parámetro de Fried (r₀) es la base en el diseño de los grandes telescopios de los últimos cuarenta años y los que vendrán.

El Nacimiento de la Óptica Adaptativa

Esto resultó en la publicación “Optical resolution through a randomly inhomogeneous medium for very long and very short exposures,” J. Opt. Soc. Am. 56, 1372–1379, 1966. Que sentó las bases de la astronomía del s. XXI introduciendo una relación cuantitativa entre el seeing y la turbulencia atmosférica. Este articulo ha recibido 1,212 citas y es fundamental en el desarrollo de la Óptica Adaptativa (ing., Adaptive Optics). Esta disciplina desarrolla técnicas para predecir y compensar los efectos de la turbulencia atmosférica, de este modo finalmente llevar los telescopios modernos a valores cercanos a su resolución teórica.

Referencias

  1. I. Asimov and J. Shulman, “Isaac Asimov’s book of science and nature quotations” (Weidenfeld & Nicolson, 1988)
  2. Wikipedia, “Resolución Óptica”, 2021
  3. E. Gaviola, “On seeing, fine structure of stellar images, and inversion layer spectra,” Astronomical J 54, 155 (1949)
  4. Alfred H. Mikesell, “Seeing as considered by astronomers” en Evaluation of Motion-Degraded Images: Proceedings, NASA SP (1969)
  5. D. L. Fried, “Adaptive Optics: in the beginning,” presentado en ESO (2013). Gentileza de Szymon Gladysz.

Este podcast fue apoyado en parte por la Agencia Nacional de Investigación y Desarrollo (ANID), Chile (ANILLO ATE220022; ALMA 31220004; FONDECYT 1211848) y Proyecto DGVM 3054 (PUCV).