Examen de grado de Magíster: Oriana Rebeca Labrín Zapata

Oriana Rebeca Labrín Zapata defendió su tesis “Hamiltonian symmetries on the null boundary of gauge theories” durante la jornada de ayer, jueves 26 de junio, a las 14:30 horas en la Sala 208 del Instituto de Física PUCV.

Los directores de tesis fueron los profesores Olivera Mišković (PUCV) y Hernán González (Universidad San Sebastián), mientras que la comisión evaluadora estuvo compuesta por los académicos Radouane Gannouji y Ayan Mukhopadhyay del Instituto, junto a Francisco Rojas de la Universidad Adolfo Ibáñez.

El examen fue aprobado con la calificación máxima de 7,0, reconociendo el alto nivel de profundidad teórica y el dominio del tema por parte de la estudiante.

Compartimos el resumen de la tesis:

This thesis examines the asymptotic symmetries of massless field theories in flat spacetime, using the Hamiltonian formalism adapted to null foliations.  This framework captures the radiative structure of such theories at null infinity. We begin with a real scalar field, recovering known asymptotic symmetries within the Hamiltonian approach.

We then discuss electromagnetism, constructing canonical generators and showing that they form a Kac-Moody algebra with a non-trivial central extension. Extending the analysis, we consider a scalar field coupled to electromagnetism via a Pontryagin term. In the weak-coupling limit, we obtain explicit generators and find that the asymptotic structure is preserved. Remarkably, electromagnetic duality at null infinity emerges when the scalar is constant. Finally, we generalize the construction to non-Abelian Yang-Mills theories.

Our results demonstrate that asymptotic symmetries are intrinsic to all massless field theories at null boundaries and can be systematically derived in the Hamiltonian approach.


Tras la defensa de su tesis, conversamos con Oriana para conocer más sobre sus motivaciones, el proceso de creación y aspiraciones futuras.

—¿Qué fue lo que más te motivó a investigar este tema tan específico dentro de la física teórica?

Lo que más me interesó fue estudiar temas como simetría, porque son un tópico bastante interesante en física. Los puedes usar para obtener mucha información de las teorías, información que incluso puedes medir. La idea era, ¿qué pasa si te vas a un límite y estudias esas simetrías? Y lo que obtuvimos fue que se generan infinitas cargas conservadas, que podrían incluso contribuir a construir nuevas teorías en el borde. Me llamó mucho la atención el significado físico de encontrar esas estructuras matemáticas en las teorías.

—¿Cómo explicarías en simples palabras qué son las simetrías y los principales conceptos que trabajaste en tu tesis?

En simples palabras, las simetrías son transformaciones que uno puede hacer en sistemas o configuraciones, tal que permanecen iguales. Entonces puedes, en principio, rotar un círculo, y va a estar siempre igual. En física, usamos muchas simetrías porque nos permiten describir los sistemas. Además, estas transformaciones tienen información física relevante que podemos medir, como la energía o el momentum.

—¿Qué aprendizajes personales te deja este proceso de tesis y defensa de grado?

Me deja muchas cosas. Más que cerrar una etapa, siento que estoy abriendo otra, en la que se expande mi curiosidad por seguir indagando en estos temas y continuar investigando.


Revisa algunas imágenes de la jornada:

Felicitamos a Oriana por este gran logro y le deseamos mucho éxito en su vida profesional.

“Boris Padilla se incorpora al Instituto de Física PUCV con una mirada innovadora a la formación pedagógica en ciencias”

Con una trayectoria vinculada al sistema escolar y a la docencia universitaria, busca aportar al proceso de formación de profesores y fortalecer el nexo entre la universidad y su entorno educativo.

Tras más de una década dedicado a la enseñanza de la física en el sistema escolar, Boris Padilla Gaete se integró formalmente como académico al Instituto de Física de la Pontificia Universidad Católica de Valparaíso, casa de estudios de la cual egresó en el año 2011. Si bien ha estado vinculado esporádicamente con la docencia universitaria, tanto en la PUCV como en otras instituciones, fue en 2016 cuando comenzó a tener mayor continuidad en su participación dentro del Instituto, mediante la supervisión de prácticas profesionales.

En esta entrevista, conversamos sobre su trayectoria como profesor, los desafíos que ha enfrentado en el camino, su mirada sobre la formación docente y la enseñanza de la física en Chile, además de los proyectos que tiene en mente.

De la práctica al aula

– ¿Qué lo motivó a integrarse a la PUCV?

– Yo creo que más que nada fue la confianza que depositaron en mí. Asumir el trabajo de supervisar las prácticas, que es una parte importante de la formación. Entonces, eso me motivó a proyectarme en esa área.

– ¿Qué es lo que más destaca en el ámbito humano y académico?

– Yo creo que por el lado humano hay harto en el sentido de que, en la práctica de profes de física, se ven muchas cosas que en la formación, digamos, formal, no aparecen. Tienen que ver con la dimensión emocional sobre todo. Lo que tiene que ver con un profe estando dentro de una sala de clase, relacionándose con otro grupo de personas que son sus estudiantes. Entonces, ahí aparecen un montón de cosas. La frustración, si no te resulta algo, o ese encanto que genera conectar con los estudiantes y hacer que se sorprendan de alguna cosa que tú les estás contando.

Proyectos y formación

–  ¿Cuál ha sido el foco principal de su investigación en los últimos años?

– Hace poco terminé el magíster en Didáctica de las Ciencias y mi tesis se enfocó en el conocimiento pedagógico del contenido, específicamente en las orientaciones hacia la enseñanza. Esto tiene que ver con las creencias y decisiones que toma un profesor sobre la educación científica, que pueden ir desde un enfoque más técnico hasta una perspectiva más transformadora. En la tesis desarrollé un instrumento para caracterizar esas orientaciones, y en general, mi foco ha estado en la formación de profesores.

–  ¿Tiene proyectos en carpeta que le gustaría desarrollar desde la PUCV?

– En términos formales todavía no, pero tengo hartas ganas de hacer cosas. Una de las primeras es fortalecer el vínculo entre la Universidad y el Instituto de Física con el sistema escolar, ya que es algo que creo en lo que estamos un poco al debe.

– Y pensando a futuro, ¿le interesaría conectar su trabajo con otras áreas?

– Sí, me interesa desarrollar las perspectivas pedagógicas, para que los estudiantes de pedagogía las exploren desde temprano. Además, junto a un colega queremos revivir la asignatura de “Física y Humor” como un ramo de formación general, incorporando elementos actuales, como los memes, para facilitar el aprendizaje. También hemos trabajado en un proyecto con profesores del sistema escolar para el lanzamiento de cohetes de agua, que además de la parte técnica, genera una conexión afectiva importante entre los estudiantes.

Panorama actual y consejos para el futuro

– ¿Cómo evalúa la situación de la física en Chile?, ¿existen desafíos? 

– La situación de la enseñanza de la física en Chile atraviesa un momento complejo. En el currículum escolar se han reducido las horas destinadas a esta asignatura, lo que ha afectado su presencia en las aulas. Además, muchas veces se percibe como una materia fría o despersonalizada, lo que aleja a los estudiantes. Por eso es importante rescatar el componente afectivo en su enseñanza. La física no es resolver problemas, identificar, despejar la X y encontrar un resultado, sino que la física se trata de entender, con una expresión matemática, qué significa eso que está ahí.

A esto se suma una baja en el interés por estudiar Pedagogía en Física, con cifras críticas de ingreso en algunas universidades. Aunque siempre hay demanda laboral para profesores de física, somos muy pocos los que egresamos. Se requiere no solo enseñar contenidos, sino también fomentar el pensamiento crítico y el diálogo. No basta con saber física para llegar a hacer clases, eso lo hace una carga difícil. Se juntan dos cosas que, en general, no están en su mejor momento. La física, que suele no ser una disciplina que le guste a mucha gente y, ser profe, que tampoco. 

– ¿Qué mensaje le daría a los estudiantes que recién se están acercando a la física como disciplina?

– Primero, es que para la física, lo importante, es sacar ese manto de que es solo para genios. Ninguna disciplina exige que seas más inteligente que el resto de las personas. Lo que sí se requiere es dedicación, y eso es para cualquier cosa de la vida. Entonces, en la medida en que tú tengas ganas de aprender, de conocer, hay que echarle para adelante. No importa el ritmo de avance, no hay que compararse con el resto, hay que compararse con uno mismo. Si uno quiere desarrollarse en un área, yo creo que eso es lo fundamental. 

La incorporación del docente al Instituto de Física de la PUCV representa un valioso aporte para fortalecer la enseñanza de la disciplina. Además, su experiencia en el aula y su visión pedagógica conectada al área emocional permitirán abrir nuevas oportunidades para conectar la universidad con el sistema escolar y enriquecer el aprendizaje científico.

La relatividad especial

Continuamos con nuestra serie, y hoy, tercer episodio, tercer artículo: la relatividad especial. En 1905, y no solo por ser el año milagroso de Einstein, se trata también de una revolución conceptual. Con este artículo fundacional, transformó nuestra manera de ver el mundo y de comprenderlo. Con un razonamiento muy contraintuitivo, que no fue aceptado de inmediato por la comunidad científica, su propuesta es radical. Lo que llamamos espacio y lo que llamamos tiempo deben ser profundamente reformulados. Einstein sienta así las primeras bases de la noción de espacio-tiempo y ofrece un marco conceptual totalmente inédito, cuya trascendencia sigue sorprendiendo hoy en día.

Contexto historico

Al alba del siglo XX, la física parecía estar completa de forma impresionante, pero una línea de fractura la atravesaba de lleno. De un lado, se encontraba la mecánica newtoniana, basada en el espacio absoluto, el tiempo absoluto y la regla simple de que las velocidades se suman. Del otro, la electrodinámica de Maxwell, cuyas ecuaciones de campo predecían que las ondas electromagnéticas se propagan en el vacío con una velocidad fija c, independiente del movimiento de la fuente. Ambas imágenes no podían ser correctas al mismo tiempo, pero en 1900 la mayoría de los físicos seguía confiando en que podrían reconciliarse sin alterar los cimientos establecidos por Newton y Galileo. Esa confianza se apoyaba en el concepto de éter: un medio que se pensaba transportaba la luz de la misma forma que el aire transporta el sonido.

Detectar el movimiento a través del éter se convirtió en un objetivo experimental central. El intento más famoso fue el del interferómetro de Michelson y Morley en 1887. No observaron nada. Ese resultado nulo no fue el primer experimento fallido para detectar el éter, pero sí el más preciso.

Para salvar la idea del éter, los teóricos introdujeron nuevas hipótesis. En 1889, el físico irlandés George Francis FitzGerald sugirió que los cuerpos materiales se contraen en la dirección del movimiento; el físico neerlandés Hendrik Lorentz desarrolló esta idea cuantitativamente en 1892 y de nuevo en 1904. Las matemáticas de Lorentz, que luego se llamarían transformaciones de Lorentz, preservaban las ecuaciones de Maxwell, pero seguían tratando las coordenadas transformadas como simples artificios contables: detrás de ellas permanecían un tiempo absoluto inalterado y un éter invisible.

Henri Poincaré también exploraba esa misma tensión. En su obra Science et Hypothèse de 1902 y especialmente en una famosa conferencia en Saint Louis en 1904, elevó lo que llamó el principio de relatividad al rango casi de axioma: las leyes de la física podrían ser exactamente las mismas para cualquier observador en movimiento uniforme. Poincaré reconoció que las transformaciones de Lorentz formaban un grupo matemático, refinó su estructura y señaló que todos los experimentos relacionados con el éter podían explicarse si este fuera, en principio, indetectable. Sin embargo, incluso él mantuvo el éter como un constructo conveniente en segundo plano; estaba demasiado entretejido en la física del siglo XIX como para descartarlo por completo.

Ese era el ambiente científico preciso en el que Einstein, trabajando por las noches en la Oficina de Patentes de Berna, comenzó a preguntarse si las contradicciones no surgían de experimentos fallidos, sino de las propias suposiciones sobre el espacio y el tiempo que Newton había formulado y que todos habían aceptado desde entonces. Su artículo de 1905 demostraría que, al abandonar la simultaneidad absoluta y tratar la velocidad de la luz como una constante universal para todos los observadores inerciales, era posible mantener intacta la teoría de Maxwell, prescindir por completo del éter y derivar las transformaciones de Lorentz, ahora con un significado físico claro, en lugar de imponerlas como una solución de emergencia.

Recepción

El artículo fue recibido inicialmente con silencio, pero ese silencio fue roto, el año siguiente, por la voz más prestigiosa de la física alemana: Max Planck. Planck inicio conferencias sobre la teoría en Berlín. Laue, Mosengeil y Born abordaron el tema en el seminario de Planck.

El entusiasmo, sin embargo, distaba de ser universal. En diciembre de 1905, Walter Kaufmann anunció que sus nuevas mediciones de la desviación de los rayos β contradecían la ley de la masa en función de la velocidad. Este debate impulsó a los experimentadores a alcanzar una mayor precisión. En 1908, Alfred Bucherer obtuvo datos que coincidían con la teoría de Einstein.

Mientras se desarrollaba esta lucha en los laboratorios, la relatividad ganó un poderoso aliado conceptual. El 5 de noviembre de 1907, Hermann Minkowski presentó la idea de que las transformaciones de Lorentz describen rotaciones rígidas en un continuo de cuatro dimensiones, y en su conferencia de Colonia del 21 de septiembre de 1908 proclamó que

  • De ahora en adelante, el espacio por sí solo y el tiempo por sí solo se desvanecen en meras sombras.

Su formalismo geométrico hizo transparente la cinemática, atrajo a los matemáticos y proporcionó el lenguaje con el que Einstein construiría más tarde la relatividad general.

Fuera de Alemania, la aceptación fue más lenta. En Francia, las reivindicaciones de prioridad de Poincaré complicaron la recepción. Poincaré había efectivamente publicado sobre el principio de relatividad y sobre las transformaciones de Lorentz antes de 1905, y algunos científicos franceses consideraban que el trabajo de Einstein no era suficientemente novedoso o que no daba el debido reconocimiento a Poincaré. Esta rivalidad, de carácter nacionalista o intelectual, provocó dudas o resistencias a la hora de adoptar la versión de la teoría propuesta por Einstein en Francia, a pesar de que sus implicaciones eran más radicales.

En Gran Bretaña, los físicos matemáticos G. F. Cunningham y E. T. Whittaker explicaban las nuevas ideas hacia 1910, pero muchas figuras de peso, como J. J. Thomson y Joseph Larmor, se mantuvieron al margen hasta después de la Primera Guerra Mundial. Al otro lado del Atlántico, la relatividad entró en las revistas estadounidenses principalmente a través del círculo de Robert Millikan en Chicago.

Para la primera conferencia Solvay de 1911, la teoría especial se situaba en el centro del discurso teórico, y la cuestión ya no era si la cinemática de Einstein era correcta, sino hasta qué punto podían extenderse sus principios.

Consecuencias

En la década que siguió, todos los dominios relacionados con el movimiento, la energía o la radiación tuvieron que ser reconstruidos sobre esta nueva base, y en una generación la teoría había transformado la tecnología, la filosofía e incluso la estructura de las instituciones científicas.

El primer impacto fue interno a la física: el abandono del éter y la sustitución de la cinemática galileana por la lorentziana obligaron a los teóricos a reinterpretar todas las cantidades dinámicas como componentes de cuadrivectores que viven en un único continuo de cuatro dimensiones. La geometrización propuesta por Hermann Minkowski entre 1907 y 1908 mostró que los campos eléctricos y magnéticos no son entidades separadas, sino diferentes manifestaciones de un único tensor electromagnético.

La unión de la relatividad especial con la mecánica cuántica dio lugar a la teoría cuántica de campos, que desembocó finalmente en el Modelo Estándar. El diseño de aceleradores, los sistemas de temporización de detectores e incluso la radiación sincrotrón que alimenta las fuentes de luz modernas dependen de la dinámica relativista de haces; sin el factor de Lorentz no existirían ni el CERN ni el SLAC.

La astrofísica también fue transformada. Las fórmulas relativistas del efecto Doppler y de la aberración convirtieron los desplazamientos espectroscópicos al rojo en herramientas precisas para medir velocidades, abriendo el camino al descubrimiento de la expansión cósmica por parte de Hubble. Las lluvias de rayos cósmicos, las ondas de choque de supernovas y los chorros de núcleos galácticos activos requieren la cinemática relativista para ser modelizados.

Culturalmente, el colapso de la simultaneidad absoluta desestabilizó doctrinas filosóficas largamente establecidas. La durée de Bergson, el tiempo narrativo elástico de Proust y las perspectivas fragmentadas de la pintura cubista reflejaban la nueva física, aunque a veces de forma caricaturesca.

En Les Peintres cubistes (1913), Guillaume Apollinaire hablaba de los cubistas evocando una “cuarta dimensión” que les permitía representar “momentos sucesivos del tiempo en una misma imagen”.

Desde el punto de vista institucional, la relatividad modificó el mapa del prestigio científico. Alemania se convirtió en el epicentro de una nueva cultura teórica, atrayendo talento de todas partes. La relatividad adquirió un aura pública, reconfiguró las prioridades de financiación e inspiró las primeras conferencias multinacionales dedicadas exclusivamente a la física teórica (Solvay 1911).

R. Goldschmidt, M. Planck, H. Rubens, A. Sommerfeld, F. Lindemann, M. de Broglie, M. Knudsen, F. Hasenöhrl, G. Hostelet, E. Herzen, J. H. Jeans, E. Rutherford, H. Kamerlingh Onnes, A. Einstein, P. Langevin. W. Nernst, M. Brillouin, E. Solvay, H. Lorentz, E. Warburg, J. Perrin, W. Wien, M. Curie, H. Poincaré.

Bibliografía

Primera Luz del Observatorio Vera C. Rubin se transmitirá desde la PUCV

Este lunes 23 de junio a las 11:00 horas, se llevará a cabo una actividad especial en la Sala de Astronomía del Edificio de Ciencias (cuarto piso) de la Pontificia Universidad Católica de Valparaíso, con motivo de la transmisión en vivo de la Primera Luz del Observatorio Vera C. Rubin.

Ubicado en el cerro Pachón, Región de Coquimbo, Rubin contiene uno de los telescopios más avanzados del mundo y tiene como objetivo realizar el LSST (Legacy Survey of Space and Time), tomando fotografías de la totalidad del cielo nocturno del hemisferio sur durante 10 años, creando el video más largo del universo.

Este observatorio tiene 4 objetivos principales:

  • La comprensión de la materia oscura
  • Catalogar el sistema solar
  • Cartografiar la Vía Láctea
  • Estudiar eventos transitorios como supernovas

La actividad marcará el comienzo de una nueva era para la astronomía y representa una oportunidad única para la comunidad científica chilena, que contará con acceso privilegiado a los datos generados por este ambicioso proyecto.

Extendemos la invitación a la comunidad del Instituto de Física y al público interesado a participar de este evento.

Encuentra más información en: 

https://rubinobservatory.org/es

El movimiento browniano

En su primer artículo de 1905, Einstein ya había revolucionado la física al proponer la hipótesis de los cuantos de luz; en el segundo [1], se ocupa esta vez de la materia. Su teoría del movimiento browniano constituye la primera demostración cuantitativa del carácter atómico de la materia, todavía discutido en aquella época. Einstein muestra que la agitación entrecortada de diminutos corpúsculos, por ejemplo, granos de polen en suspensión en agua, se debe a los choques incesantes que sufren por parte de las moléculas del fluido, invisibles al microscopio.

Durante casi un siglo, los científicos habían observado al microscopio esos desplazamientos erráticos sin poder explicarlos. Basándose en la mecánica estadística esbozada por Bernoulli y desarrollada por Maxwell y Boltzmann, Einstein da un paso decisivo.

Su idea fue que, observando esas fluctuaciones, por ejemplo la posición de la partícula, se podría determinar cuántos átomos hay y cuál es su tamaño. Para ello relaciona las fluctuaciones de la posición de una partícula browniana con las propiedades del fluido (temperatura, viscosidad) y deduce así la estructura atómica subyacente. Midiendo el desplazamiento cuadrático medio de un corpúsculo a lo largo del tiempo, se puede estimar el número de Avogadro y el tamaño de un átomo. De esta forma, el estudio de las fluctuaciones deja de ser un simple detalle y se convierte en una auténtica lupa que permite ver la estructura molecular invisible de la materia.

Contexto histórico

El movimiento browniano fue observado por muchas personas. Ya en 1784-1785, Jan Ingenhousz, médico y fisiólogo neerlandés, advirtió el vaivén de diminutas partículas de carbón en alcohol; algunos historiadores consideran que se trata de la primera observación del fenómeno. En 1824, Adolphe-Théodore Brongniart, botánico francés, señaló el movimiento de granos de polen. Puesto que todos los seres vivos están compuestos de materia orgánica, esta agitación se interpreta como una manifestación de la vitalidad de las sustancias observadas.

Robert Brown, botánico escocés, cita a Brongniart en sus trabajos: no fue, pues, el primero en verlo, pero sí el primero en estudiarlo de forma sistemática (1827-1828). Al principio pensó que era un fenómeno propio de los seres vivos; cambió de idea tras repetir el experimento con polvo mineral. Incluso tomó pequeños fragmentos de la Gran Esfinge y observó que se desplazaban del mismo modo. Constató que ni el tamaño del grano ni su naturaleza (orgánica o no) influían, y realizó un estudio experimental del fenómeno, que siguió sin explicación durante mucho tiempo.

Desde mediados del siglo XIX, algunos científicos intentaron explicar el movimiento browniano. Algunos veían en esta agitación los efectos de fenómenos de atracción y repulsión eléctricas entre los granos. Para otros, los granos eran empujados por el fluido, dentro del cual aparecían corrientes generadas por una causa externa. Entre estas últimas se mencionaban los movimientos del observador, las corrientes de aire o la iluminación del microscopio que, al calentar el fluido, debía favorecer su evaporación y, al mismo tiempo, los movimientos internos asociados, o bien provocar diferencias de temperatura que dieran lugar a movimientos de convección. Sin embargo, el fenómeno siguió siendo marginal en la física dominante: su complejidad y el hecho de que la teoría cinética se centrara ante todo en respaldar las leyes termodinámicas, y no en revelar fluctuaciones, lo relegaron a un segundo plano.

En el siglo XIX, abundantes pruebas, sobre todo químicas, mostraban que toda la materia está formada por moléculas y éstas, a su vez, por átomos. Pero, un grupo significativo de científicos, encabezados por el físico Ernst Mach y el químico Wilhelm Ostwald, seguía aferrado a la teoría del continuo y a la termodinámica como única vía válida para describir el comportamiento de los materiales macroscópicos. Según ellos, no sólo era imposible observar los átomos, sino que recurrir a una teoría atómica carecía de necesidad e interés, puesto que la descripción se refería únicamente a propiedades macroscópicas como volumen, presión o densidad.

Resultados de Einstein

Einstein demostró que una partícula micrométrica, sometida al azar de los choques con las moléculas del líquido circundante, obedece a una ley estadística según la cual la distancia recorrida crece únicamente como la raíz cuadrada del tiempo. El coeficiente que aparece en dicha relación es el coeficiente de difusión.

Pero ¿cómo calcular ese coeficiente de difusión? Aquí, nuevamente, Einstein aportó una contribución decisiva al demostrar que dicho coeficiente depende del cociente entre la temperatura y el coeficiente de fricción entre la partícula y el líquido.

Este resultado elegante se conoce hoy como la relación de Einstein. El coeficiente de fricción depende del tamaño de la partícula browniana y de la viscosidad del fluido, pero, sorprendentemente, la velocidad de la partícula no figura en la expresión. El coeficiente que aparece en la relación de Einstein incluye dos constantes: la constante de los gases ideales y el número de Avogadro. Así, la relación de Einstein ofrecía un método directo para medir el número de Avogadro a partir de la observación del movimiento de las partículas brownianas.

El obstáculo teórico anterior residía en centrarse en la velocidad en vez del desplazamiento; Einstein cambió esa perspectiva. Su teoría permitió por fin comprender por qué los físicos que intentaban medir la velocidad de los granos obtenían valores muy dispersos. De hecho, para calcular esas velocidades dividían los desplazamientos efectuados por los granos entre sus respectivas duraciones. Eso habría sido válido si el desplazamiento fuese proporcional a la duración. Pero Einstein acababa de demostrar que no es así: la velocidad calculada al dividir el desplazamiento observado por su duración es inversamente proporcional a la raíz cuadrada de la duración. Por lo tanto, al repetir las mediciones para distintos intervalos de tiempo, los físicos solo podían obtener valores diferentes.

Es importante señalar que Marian Smoluchowski, físico polaco, obtuvo al año siguiente la misma expresión, aunque con un factor numérico incorrecto.

Verificación experimental de Perrin

Mucho antes de Einstein ya existían estimaciones experimentales del número de Avogadro. Sin embargo, tras la publicación de su trabajo de 1905, se emprendieron varias medidas muy precisas, sobre todo entre 1908 y 1911, que culminaron con los experimentos del físico francés Jean Perrin. Sus estudios constituyeron la prueba decisiva de la teoría einsteiniana del movimiento browniano y, al mismo tiempo, una confirmación directa de la existencia de átomos y moléculas. Por ello Perrin recibió el Premio Nobel de Física en 1926.

En su libro [2], Perrin fotografió la posición de una misma partícula cada 30s y analizó la irregularidad de su trayectoria. Escribió:

Por supuesto, tampoco se puede trazar una tangente en ningún punto de la trayectoria, ni siquiera de la manera más grosera.

Esa observación inspiró a Norbert Wiener, animado por Bertrand Russell, a estudiar matemáticamente tales caminos, lo que desembocó en la medida de Wiener y el proceso de Wiener que más tarde generalizaría Paul-Pierre Lévy. Detrás de estos trabajos nació una rica teoría matemática con innumerables aplicaciones posteriores.

Cien años después de Einstein: implicaciones y aplicaciones actuales

Langevin entra en escena tres años después de Einstein [3]. Su contribución decisiva consiste en formular una ecuación dinámica explícita para la partícula, que enlaza la mecánica newtoniana ordinaria con procesos estocásticos y tiende un puente intuitivo entre lo microscópico (choques) y lo macroscópico (difusión). Esta idea resultó muy influyente en la física y las matemáticas del siglo XX.

Einstein y, luego, Langevin ponen la piedra angular de una disciplina muy rica que será profundizada por Pierre-Gilles de Gennes, premio Nobel en 1991. De Gennes construyó el edificio de la materia blanda, utilizando el movimiento browniano como lenguaje universal para describir virus, genes, espumas, plásticos, flujos en rocas, etc.

El trabajo de Einstein sobre el movimiento browniano abrió asimismo todo un campo nuevo de la teoría de probabilidades dedicado a los procesos estocásticos. En las últimas décadas, gran parte de la investigación se ha centrado en procesos que conducen a una difusión anómala, es decir, a distancias que crecen más rápido (superdifusión) o más lento (subdifusión) que la raíz cuadrada del tiempo. La superdifusión aparece, por ejemplo, cuando los pasos de la marcha del borracho no son uniformes y pueden ser muy grandes. Tales procesos aleatorios, llamados vuelos de Lévy (por el ingeniero y matemático francés Paul-Pierre Lévy), se han observado en la manera en que ciertas aves buscan alimento. Otros ejemplos de procesos aleatorios anómalos se han identificado en fenómenos tan diversos como las fluctuaciones meteorológicas, la permeación del agua a través de las rocas o las irregularidades del ritmo cardíaco.

El movimiento browniano ramificado (branching Brownian motion) es un modelo introducido en los años treinta (Kolmogórov, Fisher, McKean…) y sigue muy estudiado. Combina la difusión aleatoria de una partícula (browniano clásico) con el ramificado/replicación: cada partícula puede duplicarse o desaparecer con ciertas probabilidades. Este marco matemático describe la propagación de un virus o una enfermedad, las partículas representan infecciones que se desplazan al azar de un huésped a otro mientras se replican, y la difusión de un gen ventajoso en una población: los individuos portadores se desplazan (difusión) y se reproducen más rápido (selección), lo que conduce a la invasión de la mutación en el espacio.

En conclusión, en este artículo, al igual que en su primer trabajo, Einstein abre todo un mundo nuevo para la física y las matemáticas, un campo que sigue siendo muy activo.

Pero la existencia de las moléculas y de los átomos quedó demostrada.

Bibliografía

[1] https://www2.stat.duke.edu/courses/Spring12/sta357/refs/Eins1905EN.pdf
[2] Cap. 13, Mouvement brownien et réalité moléculaire, Jean Perrin.
[3] Sur la théorie du mouvement brownien, Comptes rendus, 1908

Examen de grado de Magíster: Daniel Marcelo Lisperguier Retamales

Daniel Marcelo Lisperguier Retamales defendió su tesis “Aplicación y Evaluación del Método SORT usando Datos Reales del GAMA Survey para la Medición de Redshift Cosmológico” hoy, viernes 13 de junio a las 10:00 horas en la Sala 208 del Instituto de Física PUCV.

El director de tesis fue el profesor Nicolás Tejos, mientras que la comisión estuvo compuesta por los académicos Cristóbal Sifón y Räphael Gobat del Instituto, junto a Aldo Rodríguez-Puebla de la Universidad Nacional de México.

Compartimos el resumen de la tesis:

En este trabajo, se evalúa la eficacia de SORT al aplicarlo a datos reales del Galaxy And Mass Assembly Data Release 4 (GAMA DR4) y se compara su desempeño con métodos tradicionales, como EAZY. A través de análisis estadísticos y métricas de desempeño, se observa que la técnica SORT logra reducir la dispersión de errores inherente a la estimación de redshift fotométrico.

Revisa algunas imágenes de la jornada:

El Efecto fotoeléctrico

En 1905 [1], Albert Einstein se preguntó cómo era posible que la luz, considerada una onda, pudiera interactuar con un átomo que existe solo en un punto. Einstein propuso una idea revolucionaria: la luz está formada en realidad por pequeños granos que llamó cuantos de luz, más tarde denominados fotones, y afirmó que, aunque en muchos aspectos se comporta como una onda, bajo otros se comporta como una partícula. En 1916, esta noción daría el impulso inicial a la mecánica cuántica.

El artículo se titula “Sobre un punto de vista heurístico relativo a la producción y transformación de la luz”. Es un título bastante sorprendente: el término “heurístico” no suele emplearse en el lenguaje científico. Es posible que Einstein lo utilizara porque la visión de Planck era todavía incompleta. Planck fue el primero en introducir la noción de cuanto, en 1900, para resolver el problema del cuerpo negro. Sin embargo, para Planck se trataba de un simple artificio matemático: cuando la luz y la materia intercambian energía, dicho intercambio se produce en paquetes de energía llamados cuantos. Ese paquete de energía es proporcional a la frecuencia de la luz, y la constante de proporcionalidad es la famosa constante de Planck. Einstein fue el primero en considerar que esta cuantización no era solo una propiedad de la interacción entre materia y luz, sino una característica intrínseca de la propia luz.

Contexto histórico

Los primeros estudios cuantitativos, es decir, verdaderamente científicos, sobre la luz comenzaron en el siglo XVII con Galileo, Huygens y Fermat, entre otros, quienes desempeñaron un papel fundamental. Entonces se enfrentaban dos tesis opuestas.

Huygens, figura dominante, sostenía que la luz estaba formada por ondas que se propagaban en un medio y que podían interferir entre sí; así explicaba las propiedades del paso de la luz de un medio transparente a otro. Newton, en cambio, consideraba que la luz estaba compuesta por partículas y que esos granos luminosos se propagaban en línea recta, desviándose al atravesar un nuevo medio.

Ambas teorías hacían predicciones contradictorias sobre la velocidad de la luz en un material. Con su hipótesis ondulatoria, Huygens afirmaba que la luz viaja más despacio en un medio material, como el agua, que en el aire. Newton predecía lo contrario: creía que la luz sería “atraída” por el medio y se movería allí con mayor rapidez. Los experimentos posteriores mostraron que Huygens tenía razón. A partir del siglo XVIII, y hasta Maxwell e incluso después, la tesis ondulatoria se impuso; su triunfo culminó con las ecuaciones de Maxwell, que demostraron que la luz es una onda electromagnética, combinación de un campo eléctrico y uno magnético que se propaga a la velocidad de la luz. Esta teoría predecía la existencia de “luces” invisibles, radiación infrarroja por un lado, ultravioleta por otro, y todos los descubrimientos de finales del siglo XIX consolidaron la idea de la luz como onda.

Einstein llegó a reconciliar a Newton y a Huygens, pero esa reconciliación abrió un abismo vertiginoso: la caja de Pandora de la física cuántica.

Descubrimiento del efecto fotoeléctrico

A mediados de la década de 1880, un joven profesor de Karlsruhe, Heinrich Hertz, animado por su antiguo director de tesis, Helmholtz, se propuso verificar la predicción de Maxwell de que las ondas electromagnéticas podían propagarse por el espacio.

En un laboratorio oscurecido construyó un oscilador: dos varillas metálicas rematadas por esferas, unidas a una bobina de Ruhmkorff. Cuando saltaba una chispa entre las esferas, las cargas oscilaban y emitían radiación. Para detectar esa radiación, Hertz empleaba un sencillo anillo de cobre abierto, terminado en una diminuta ranura llena de aire; cada vez que se producía la chispa principal aparecía una microchispa en el anillo, aun sin existir conexión eléctrica con la antena emisora, situada en el extremo opuesto de la sala. Con solo 31 años, Hertz se hizo célebre como descubridor de las ondas de radio.

En su primera serie de experimentos se topó con un fenómeno curioso. El emisor producía más luz que el anillo detector, y para ver mejor la descarga del anillo colocó un pequeño escudo que lo dejaba en penumbra. Aunque la luz, como onda, debería rodear el obstáculo, observó que el tamaño de la chispa disminuía. Incluso con una placa de vidrio delante del detector la chispa se hacía más pequeña. Sabiendo que, a diferencia del vidrio, el cuarzo transmite la luz ultravioleta, sustituyó el vidrio por una placa de cuarzo y la chispa recuperó su tamaño inicial. Aquella observación desconcertante llevó a su alumno Wilhelm Hallwachs a estudiar sistemáticamente el fenómeno.

Hoy sabemos que la UV tiene una longitud de onda tan pequeña que casi no se difracta en el obstáculo y viaja en línea recta; así, la onda de radio llega al anillo, pero la UV no. La UV, mediante efecto fotoeléctrico, expulsa electrones del metal y ioniza levemente el aire de la ranura, reduciendo la tensión necesaria para la microchispa. Sin UV, esa ionización falta y la chispa se debilita; con cuarzo, la UV pasa y la chispa mantiene su intensidad.

La observación de Hertz despertó el interés de muchos físicos. Philipp von Lenard profundizó en el efecto y, en 1902, descubrió que la intensidad de la luz solo cambia la cantidad de electrones emitidos, no su energía, y que las longitudes de onda más cortas producen electrones más energéticos. Aunque no estableció la relación exacta entre longitud de onda y energía, obtuvo el Nobel en 1905.

Einstein escribiría a Mileva, en mayo de ese mismo año, que se sintió “transportado de alegría” al leer un artículo de Lenard sobre el efecto fotoeléctrico.

El cuerpo negro

El artículo de Einstein apareció cinco años después del trabajo de Planck sobre el cuerpo negro. Si se introduce un trozo de hierro en el fuego, se vuelve rojo; Planck investigaba precisamente ese problema, pues, según la teoría de la época, un cuerpo caliente debería emitir principalmente en el ultravioleta, fuera cual fuese su temperatura. Por ejemplo, una taza de café debería emitir tanto UV que cada sorbo nos broncearía.

Planck, especialista en termodinámica que había realizado su tesis sobre el segundo principio, intentó describir el fenómeno asignando una entropía al propio campo de radiación. Tanteó qué factores intervenían, examinó la segunda derivada de la entropía respecto de la energía y su inversa, y estudió su comportamiento en los distintos dominios de longitud de onda. Además, adoptó algo que él mismo había criticado: la teoría estadística de Boltzmann, desarrollada para la cinética de gases. La aplicó a la radiación, describiendo así la entropía estadística del cuerpo negro. Con todo ello halló la condición matemática que explica dicha radiación: la energía debe estar cuantizada y presentarse como el producto de una constante, la hoy famosa constante de Planck, por la frecuencia.

Aceptación de la teoría

El cuanto de luz de Einstein fue recibido con desprecio por la comunidad científica. Max Planck, cuando propuso a Einstein como miembro de la Academia Prusiana de Ciencias en Berlín en 1913, consideró necesario defenderlo en su carta de recomendación escribiendo [2]:

Que [Einstein] se haya dejado llevar en ocasiones, por ejemplo en su hipótesis de los cuantos de luz, por sus especulaciones, no debería serle reprochado con demasiada severidad.

En su discurso de aceptación del Premio Nobel en 1922, Niels Bohr, quien había desarrollado la primera teoría cuantificada del átomo, expresó su rechazo al concepto de cuanto de luz declarando [3]:

La hipótesis de los cuantos de luz… no es capaz de arrojar luz sobre la naturaleza de la radiación.

El físico de Chicago Robert Millikan no aceptaba la hipótesis del cuanto de luz de Einstein, que consideraba un ataque contra la teoría ondulatoria de la luz. Entre 1912 y 1915, Millikan concentró todos sus esfuerzos en medir el efecto fotoeléctrico. En 1915, tuvo que reconocer que había verificado exactamente la ecuación de Einstein. Publicó sus resultados en 1916, calificando la hipótesis de Einstein como [4]

Una hipótesis audaz, por no decir temeraria, de un corpúsculo electromagnético de luz con energía hν, que contradice hechos firmemente establecidos sobre la interferencia y que ahora ha sido bastante generalmente abandonada.

Así, aunque no logró refutar la ecuación de Einstein, Millikan logró medir la constante h con una precisión del 0,5 % respecto al valor propuesto por Planck. Su consuelo fue recibir, en 1923, el Premio Nobel por sus trabajos sobre el efecto fotoeléctrico y la determinación de la carga electrónica.

Incluso después de que Einstein recibiera el Premio Nobel en 1922, los físicos seguían sin aceptar su concepto de fotón; prácticamente solo su amigo Paul Ehrenfest lo apoyaba. Fue en ese momento cuando Arthur Compton inició sus investigaciones experimentales, primero en San Luis en 1920, y luego en Chicago en 1923, para estudiar el comportamiento peculiar de los rayos X al incidir sobre una lámina de aluminio.

Niels Bohr, recientemente galardonado con el Nobel por su teoría atómica, rechazó la explicación de Compton. Diseñó experimentos destinados a demostrar que el efecto Compton no era más que un promedio de muchas interacciones entre rayos X y electrones. Sin embargo, ya en 1925, varios experimentos demostraron de forma concluyente que la energía y la cantidad de movimiento se conservaban para cada pareja rayo X / electrón por separado. Al conocer estos resultados, Bohr escribió a un amigo [5]:

Parece… que no queda más que dar a nuestros esfuerzos… un funeral lo más honorable posible.

En 1926 se inventó el término fotón para designar al cuanto de luz. El experimento de Compton y la teoría que desarrolló para explicarlo aportaron un apoyo decisivo a la hipótesis del fotón de Einstein, que desde entonces fue generalmente aceptada. Einstein escribió a Ehrenfest [6]:

Nosotros dos nunca tuvimos dudas al respecto.

 


Bibliografía

[1] https://inters.org/files/einstein1905_photoeff.pdf
[2] https://arxiv.org/abs/physics/0512034
[3] https://www.nobelprize.org/prizes/physics/1922/bohr/lecture/ (p. 14)
[4] Millikan, R. (1950). The autobiography of Robert A Millikan. (p. 355)
[5] Bohr, N, Vol. 5. The emergence of quantum mechanics (p. 82)
[6] Martin J. Klein, The First Phase of the Bohr-Einstein Dialogue (p.35)

1905: Annus mirabilis de Einstein

Fotografía tomada por su amigo, Lucien Chavan, en 1905.

 

Albert Einstein nació el 14 de marzo de 1879 en Ulm, en el Reino de Wurtemberg. Su padre, Hermann, era comerciante de equipos eléctricos; su madre, Pauline, pianista, fomentó su amor de por vida por la música. Cuando Albert tenía un año, la familia se mudó a Múnich, donde Hermann y su hermano fundaron una empresa, efímera, que instalaba iluminación por corriente continua. En 1888 Albert ingresó en el Luitpold-Gymnasium, regido por católicos: destacó en matemáticas, pero detestaba el aprendizaje mecánico y la disciplina prusiana. A finales de 1894 el negocio familiar quebró y los Einstein se trasladaron a Milán y Pavía; Albert, dejado atrás para acabar el curso, abandonó la escuela a los quince años sin diploma, se reunió con sus padres en Italia y se preparó por su cuenta para la universidad.

Para retomar una educación formal se matriculó en 1895 en la escuela cantonal de Aarau (Suiza). El ambiente liberal le favoreció; ese año concibió el famoso experimento mental de perseguir un rayo de luz. En enero de 1896 renunció a la ciudadanía de Wurtemberg para evitar el servicio militar y, pocos meses después, ingresó en el Politécnico de Zúrich (hoy ETH Zürich). Allí estudió en la sección de formación de profesores de matemáticas y física, discutiendo vivazmente con su compañera serbia Mileva Marić. Obtuvo las máximas notas en física pero medias en otras asignaturas y se graduó en julio de 1900 sin perspectivas laborales inmediatas. En 1901 adquirió la ciudadanía suiza.

Tras un año infructuoso de suplencias y cartas insistentes a profesores en busca de recomendaciones, Einstein consiguió, gracias al padre de un amigo, un puesto júnior (Experto Técnico de tercera clase) en la Oficina Federal de Patentes de Berna, donde empezó a trabajar el 23 de junio de 1902. El empleo, poco exigente pero estable (examinar patentes eléctricas), le dejaba las tardes libres para la física teórica.

Como funcionario federal suizo cumplía unas ocho horas diarias, seis días a la semana, y bromeaba diciendo que eso le dejaba “ocho horas de diversión al día, y además está el domingo”. Los expedientes de patentes eran repetitivos, pero le permitían soñar ecuaciones mientras pagaban los gastos de vida.

Vivía con frugalidad, sostenía económicamente a su madre y a su hermana, y en 1902 tuvo una hija extramatrimonial, Lieserl, con Mileva; la niña desaparece de los registros, probablemente dada en adopción. Einstein y Mileva se casaron el 6 de enero de 1903; les siguieron los hijos Hans Albert (n. 1904) y Eduard (n. 1910).

En Berna Einstein formó la “Academia Olympia”, un club de discusión de tres miembros con el matemático-filósofo Maurice Solovine y el ingeniero Conrad Habicht; leían a Poincaré, Mach, Hume, Helmholtz y Boltzmann. Aquellas charlas afilaron su crítica del espacio y el tiempo absolutos y afianzaron su pensamiento estadístico. En 1905, trabajando en un pequeño apartamento de la Kramgasse y garabateando en papel de la oficina de patentes durante los descansos, produjo cuatro artículos revolucionarios para Annalen der Physik:

  1. sobre el efecto fotoeléctrico (enviado el 18 de marzo), donde introdujo los cuantos de luz;

  2. sobre el movimiento browniano (11 de mayo), que ofreció la primera vía empírica al número de Avogadro;

  3. Sobre la electrodinámica de los cuerpos en movimiento (30 de junio), con la que forjó la relatividad especial;

  4. y una nota de tres páginas, ¿Depende la inercia de un cuerpo de su contenido energético? (27 de septiembre), en la que obtuvo E=mc².

Al terminar el año, aquel joven de 26 años seguía siendo un funcionario oscuro, con un sueldo anual de 3 500 francos, pero la física moderna había quedado irreversiblemente transformada.

Durante los próximos días repasaremos estos cuatro artículos para comprender mejor la importancia de este año milagroso.

El Instituto de Física PUCV inaugura su Año Académico

El martes 20 de mayo, se inauguró el año académico 2025 del Instituto de Física en el Auditorio Otto Zollner de la Facultad de Ciencias, Campus Curauma. Durante la ceremonia, que contó con académicos y estudiantes de la escuela, se dictó la charla “Inestabilidades mecánicas como explicación de la anti-adherencia vascular”, la cual fue conducida por el Dr. Enrique Cerda Villablanca. 

En su exposición, el Dr. Cerda abordó un mecanismo que evita que elementos como trombos o calcio se adhieran a las arterias. A través de un enfoque físico, explicó cómo la inyección de energía puede contrarrestar esa adhesión y despegar los contaminantes del sistema vascular.

El director del Instituto de Física, Joel Saavedra, resaltó el impacto positivo que tiene en la realización de este tipo de instancias. “El objetivo de esta charla es que los estudiantes conozcan de primera línea un tema de investigación cambiante con un científico de renombre mundial, y quedamos muy contentos de ver la posibilidad de avanzar en esta línea de investigación que está conectada con la biofísica, una de las áreas del Instituto”, señaló.

Sumado a esto, Manuel Bravo, decano de la Facultad de Ciencias de la PUCV, se sintió sumamente satisfecho con la jornada del pasado martes, destacando el valor que tiene realizar este tipo de actividades para mostrar la profundidad del quehacer científico. “Acabamos de presenciar una charla muy, muy interesante que no solo plantea los principios de la disciplina como la física, sino que también muestra cómo esta disciplina, desde un  tema muy básico y una visión muy particular, puede expandirse y avanzar hacia otras disciplinas”, agregó. 

Por otro lado, Monserrat Miranda, estudiante de primer año de Magíster en Física, valoró la realización del evento y destacó la relevancia de poder contar con invitados de trayectorias en áreas interdisciplinares. “Creo que fue una excelente charla. Me agradó mucho que invitaran a un físico de área interdisciplinar, porque eso también es una puerta para todos los estudiantes, para ver otras áreas en las que podemos investigar como físicos más a futuro”, mencionó. 

Al finalizar, los presentes tuvieron la oportunidad de formular preguntas sobre los temas tratados en la charla, lo que permitió un diálogo entre el público y el expositor. Las intervenciones reflejaron el interés de los alumnos por profundizar en los aspectos científicos de la investigación presentada, consolidando así la fomentación de un espacio de aprendizaje activo.

A continuación, dejamos algunas imágenes destacadas de la jornada.

60 años del Fondo Cósmico de Microondas

Hoy se cumplen 60 años de la publicación de uno de los descubrimientos científicos más importantes de la historia. El 13 de mayo de 1965 se publicaron conjuntamente en la revista The Astrophysical Journal dos artículos que marcaron una nueva era en el estudio del Universo. El primero de los artículos fue escrito por Arno Penzias y Robert Wilson mientras buscaban desarrollar una antena de comunicación que tuviera la menor interferencia posible. Luego de evaluar todas las posibles fuentes de ruido – incluyendo un nido de palomas que habían hecho de la antena su hogar – descubrieron que persistía una señal no identificada que, como no dependía de la dirección en que miraran, no podía ser de origen terrestre. El segundo artículo, liderado por Robert Dicke de la Universidad de Princeton (incluyendo al reciente ganador del Premio Nobel, James Peebles), entregaba una explicación para la observación de Penzias y Wilson. Esta señal, explicaron Dicke y sus colaboradores, corresponde al brillo del Universo mismo, consecuencia de la expansión posterior al Big Bang.

Penzias y Wilson determinaron que esa fuente de luz tiene una temperatura de -270 °C o 3 grados sobre el cero absoluto. Dicke y su equipo explicaron que ésa es la temperatura del Universo. Tal como el cuerpo humano, a una temperatura de 36,5 °C, emite calor mayormente en forma de luz infrarroja, con una longitud de onda de unos 0.01 milímetros. La temperatura del Universo corresponde a una energía mucho menor, por lo que la emisión ocurre principalmente con longitudes de onda más largas: de aproximadamente 1 milímetro – microondas. A esa radiación se le conoce hoy por lo tanto como el Fondo de Radiación Cósmica o Fondo Cósmico de Microondas.

Robert Wilson (izquierda) y Arno Penzias (derecha) frente a la antena de microondas con la que descubrieron el Fondo Cósmico de Microondas en los Laboratorios Bell, Nueva Jersey, EE.UU. Crédito: Sociedad Astronómica del Pacífico.

La importancia de este descubrimiento es enorme y les valió a Penzias y Wilson el Premio Nobel de Física en 1978. Aunque el equipo de Dicke no recibió tal reconocimiento (Peebles lo ganó en 2019 por sus contribuciones generales al estudio del Universo durante más de dos décadas, no específicamente por la explicación de Fondo Cósmico de Microondas), fue la explicación de estos últimos la que reveló la trascendencia del descubrimiento. La idea de un Big Bang propone que el Universo como lo conocemos proviene de un instante en que la densidad (y por lo tanto la temperatura) era infinita y que el espacio ha estado expandiéndose desde entonces y fue presentada por primera vez por el ruso Alexander Friedmann en 1922, como una consecuencia de la Teoría General de la Relatividad de Einstein. Sin embargo, fue el equipo de Dicke el que mostró que, si hubo un Big Bang, tenía que haber dejado un resplandor que sería visible en todas las direcciones y desde todas las ubicaciones, tal como encontraron Penzias y Wilson.

Una breve explicación permite entender el origen de este resplandor. Luego del Big Bang, el espacio comenzó a expandirse y, por lo tanto, la temperatura del Universo empezó a bajar. Inicialmente, las partículas se movían tan rápido que la fuerza electromagnética no era capaz de atraer a los protones y electrones, que generaban una pantalla opaca impidiendo que la luz viajara, como las moléculas de agua lo hacen en una neblina densa. Recién unos 380.000 años después del Big Bang la temperatura bajó lo suficiente – a unos 3500 °C – para que la fuerza electromagnética ganara y los electrones fueran capturados por los núcleos atómicos. En ese momento, la luz pudo por fin viajar e iluminar el Universo. Es como cuando la neblina se convierte en lluvia: sigue habiendo agua pero ya no bloquea la vista. Eso es lo que vieron por primera vez Penzias y Wilson. Esos rayos de luz llevan 13.800 millones de años viajando por el Universo y ahora algunos de ellos impactan nuestros telescopios. En estos 13.800 millones de años el diámetro del espacio ha multiplicado su tamaño por 1000 y su volumen por mil millones, de manera que la temperatura ha caído a los -270 °C que medimos.

Tres décadas después de su descubrimiento, los telescopios espaciales COBE (1990-1993), WMAP (2000-2009) y Planck (2009-2013) midieron con extrema precisión la temperatura y distribución de la luz del Fondo Cósmico de Microondas. Estas mediciones nos permiten entender con detalle la composición y geometría del Universo: gracias a esos tres satélites sabemos que la temperatura del Universo es -270,73 °C, que un 84% de la materia del Universo es de una forma que aún no entendemos pero que llamamos “oscura” porque no ilumina ni refleja luz, y que el espacio es plano, lo que significa que dos líneas que son paralelas en un punto del espacio son paralelas en todo el espacio.

Mapa de diferencias de temperatura en el Fondo Cósmico de Microondas producido por el telescopio espacial Planck. La diferencia entre las zonas azules y las rojas es de diez millonésimas de grado Celsius. Crédito: Agencia Espacial Europea (ESA) y Colaboración Planck.

Poco antes de finalizar la misión WMAP, en 2007, comenzaron a operar los primeros telescopios terrestres de larga duración, cuyo objetivo era similar al de los espaciales: caracterizar la primera luz del Universo. Al estar en la Tierra, estos telescopios pueden ser más grandes que los espaciales, lo que les da la capacidad de observar con mayor detalle. Observar el Fondo Cósmico de Microondas desde la Tierra presenta una dificultad muy alta, ya que la luz de las longitudes de onda en las que el Fondo Cósmico es más intenso es fácilmente absorbida por moléculas de agua, las que – ¡por suerte! – abundan en la atmósfera. Por esto, existen solo dos lugares en nuestro planeta desde donde se puede observar el Fondo Cósmico de Microondas en detalle por la extrema aridez de la atmósfera: las alturas del Desierto de Atacama y el Polo Sur. En efecto, gracias al Telescopio Cosmológico de Atacama (ACT en inglés), instalado en las cercanías de San Pedro de Atacama entre 2007 y 2022, Chile ha sido un polo de investigación de punta sobre los orígenes del Universo. Junto al Telescopio del Polo Sur (SPT) ha entregado las observaciones más detalladas de esta luz primordial. Pero además ese mayor detalle nos permite trazar los caminos que ha seguido esa luz desde que se emitió hasta llegar a nuestros telescopios. En ese camino ha interactuado con las galaxias que hoy pueblan el Universo y la materia en general, lo que nos permite estudiar también la evolución del Universo desde un punto de vista único usando las mismas observaciones.

El sitio donde una vez brilló – o más bien capturó el brillo – ACT ahora se encuentra su sucesor, el Observatorio Simons, cuya primera fase se construyó entre 2023 y 2024 y que ya está realizando sus primeras observaciones y pronto nos maravillará con más descubrimientos sobre el origen y la evolución del Universo. Este observatorio tiene una vida planificada de diez años pero ya tiene un sucesor: el llamado CMB-S4, que unirá a las comunidades del Fondo Cósmico de Microondas actualmente operando en Chile y en el Polo Sur, y que por el momento estará íntegramente ubicado en el Desierto de Atacama. Así, Chile seguirá siendo el principal polo de la investigación sobre el origen y la evolución del Universo a través de los ojos del Fondo Cósmico de Microondas durante las próximas dos décadas y posiblemente más.

Cristóbal Sifón

Profesor Auxiliar, Instituto de Física, Pontificia Universidad Católica de Valparaíso

Investigador Asociado al Centro de Astrofísica y Tecnologías Afines – CATA

Doctor en Astrofísica, Universidad de Leiden, Países Bajos