Reflexión final de las clases teóricas

Terminaron las clases teóricas de la materia. Por la pandemia tuvimos un cuatrimestre extraño, que nos obligó a cambiar la forma de trabajar. Algunas cosas que usamos durante este cuatrimestre serán bienvenidas en el repertorio de herramientas para el aula. A otras, cuando llegue el momento, las dejaremos felizmente atrás. La virtualidad que nos impuso COVID-19 tiene ciertas ventajas, que todos apreciamos a lo largo del curso: ahorramos horas de viaje, ustedes pueden ver las clases muchas veces, y podemos ilustrar los temas de las clases con simulaciones y material audiovisual. Así, la virtualidad nos permitió probar cosas nuevas que parecen haber facilitado el aprendizaje (o que, tal vez, lo hicieron más llevadero). Pero, al menos desde mi punto de vista, también tiene dos grandes desventajas: se pierde la gestualidad del aula, y para los profesores es difícil saber cuándo ustedes entienden y cuándo no (o, mejor dicho, cuándo no estamos siendo claros en las explicaciones). Pero, más importante aún, es que hay un conjunto importante de conocimientos que no forman parte explícita de los contenidos de las materias, pero que se aprenden informalmente, y no pueden compartirse ni enseñarse en forma virtual.

Existe un conjunto de normas, una ética científica, que esperamos que aprendan a lo largo de la carrera. No hay una materia específica para esto, se aprende en los pasillos, en las conversaciones con compañeros y docentes, en indicaciones mínimas que se dan en el aula. Cuando cursaron Laboratorio 1, les dijeron que nunca debían falsificar o inventar un dato. En algún final les habrá llamado la atención que los dejaron escribir sus notas solos: esperamos que sepan que en ciencia es inaceptable copiarse. En alguna materia les habrán dicho que es importante reconocer lo que uno no sabe, o los errores que uno comete. Y en esta materia, tan vasta en sus aplicaciones, uno de los contenidos no escritos es aprender los límites de lo que sabemos, las limitaciones de las aproximaciones, y cómo aplicarlas correctamente desde nuestro lugar como físicos. A lo largo de la materia vimos, en las clases o en la página web del curso, aplicaciones en economía, en biología y epidemias, meteorología, teoría de la información, cosmología, astrofísica, dinámica de fluidos, física de altas energías, y materia condensada. Es claro que las últimas aplicaciones pertenecen al área del conocimiento abarcada por la física. Las primeras no. ¿Significa eso que sabemos de esos temas? ¿O que podemos opinar como expertos?

En los últimos meses, la pandemia de COVID-19 puso a muchos científicos en una disyuntiva similar. Tal vez en el futuro se encuentren en una situación parecida trabajando en la academia. O se encuentren trabajando para una empresa que evalúa riesgo bursátil, o colaborando con colegas de otras áreas en grupos interdisciplinarios. La tentación de, usando un conjunto de herramientas que sabemos que funcionan en muchísimos casos, opinar como expertos, es grande. Pero la ciencia a lo largo de los siglos generó un conjunto de buenas prácticas que nos guían sobre cómo debemos comportarnos en esas situaciones. Y nos enseñan a defender con seguridad lo que sabemos, pero también a escuchar a los expertos de otros temas en sus áreas del conocimiento. Y sobre todo, a comunicar (tanto a nuestros colegas, como al público general) primero lo que no sabemos, para luego poder informar responsablemente lo que aprendimos.

Esto probablemente sea aún más importante para las generaciones futuras de científicos, como ustedes. Que vivamos en una sociedad moderna, con problemas complejos, y en los que la ciencia juega un rol central, no significa que la ciencia o los científicos deban ser los instauradores de la verdad. En una sociedad democrática el rol de la ciencia es (entre otros) el de asesorar a la sociedad en la toma de decisiones, pero no tomar decisiones por ella, ignorar la opinión de otros expertos, o ubicarse en una posición de privilegio. La lucha contra las noticias falsas no puede implicar acallar las opiniones, o negarlas solo con argumentos de autoridad. Esto no significa que ustedes no puedan o deban involucrarse en causas sociales, políticas, religiosas o culturales que los interpelen. Pero es importante aclarar desde qué lugar hablan en esos casos, y no mezclar sus deseos o creencias con el trabajo que puedan hacer o la opinión que puedan dar como científicos.

Así, en este cuatrimestre, lo que yo extrañé más del aula fue el ejercicio de poder conversar con ustedes estos contenidos extra-curriculares, que como dice Feynman en algún discurso, esperamos que aprendan “por osmosis”. Se que a algunos estudiantes esto les gusta, y a otros les molesta, pero creo que una parte importante del trabajo en el aula involucra justamente esto: enseñar, con las limitaciones que cada uno de los profesores tenemos, cómo se hace ciencia, cuáles son las buenas prácticas científicas, qué cosas no se hacen, qué cosas nos preguntamos, y cuales están fuera de nuestra área del conocimiento y son conversaciones de café. Esto incluye el manejo honesto de los datos, aceptar el error, aprender a no engañarnos a nosotros mismos, no exagerar la relevancia de nuestros resultados, ser cuidadosos en la comunicación de la ciencia, y muchas otras prácticas que son centrales para sostener la credibilidad de la ciencia en general, y de nuestro trabajo en particular.

Como la modalidad de este cuatrimestre no permitió hacer esto informalmente, elegí cerrar la materia planteando estos temas formalmente en este último mensaje. Y mucho mejor que cualquier cosa que yo pueda escribir sobre buenas prácticas científicas, es leer a Feynman. Así que les recomiendo fuertemente que lean el discurso que Feynman dio a los graduados de Caltech en 1974:

Aunque todo su discurso no tiene desperdicio, solo voy a resaltar cuatro párrafos que me parecen relevantes, y que traduzco a continuación:

  • Esa es la idea que esperamos que hayan aprendido al estudiar ciencias: nunca les dijimos explícitamente cuál es, pero esperamos que lo hayan descubierto a partir de todos los ejemplos de investigación científica. Es interesante, por lo tanto, mencionarla ahora y hablar de esto explícitamente. Es un tipo de integridad científica, un principio de pensamiento científico que corresponde a un tipo de honestidad absoluta, y tomando distancia. Por ejemplo, si están haciendo un experimento, deben informar todo lo que creen que podría invalidarlo, no solo lo que creen que es correcto.
  • El primer principio es que no debes engañarte a ti mismo, y eres la persona más fácil de engañar. Así que debes tener mucho cuidado con esto. Después de que no te hayas engañado, es más fácil no engañar a otros científicos.
  • Me gustaría agregar algo que no es esencial para la ciencia, pero es algo que creo: no debes engañar a la persona común cuando hablas como científico. No estoy tratando de decirte que no engañes a tu esposa o a tu novia cuando no estás tratando de ser científico. Esos son problemas para ustedes y sus rabinos. Estoy hablando de un tipo específico de integridad adicional que consiste no solo en no mentir, sino en hacer el esfuerzo de tomar distancia para mostrar cómo tal vez estás equivocado, y que debes hacer cuando actúas como científico. Y esta es nuestra responsabilidad, ciertamente para con los otros científicos, y creo que también al hablar con la gente común.
  • Así que solo tengo un deseo para ustedes: que tengan la buena suerte de estar en un lugar donde sean libres de mantener el tipo de integridad que he descrito, y donde no se sientan forzados a perder la integridad para mantener su posición en una organización, o el apoyo financiero, u otras cosas. Ojalá tengan esa libertad.

Como dijo Ben Parker, “con grandes poderes vienen grandes responsabilidades” (y admitamos que saber contar microestados tampoco es un poder tan grande). No hagan daño, sean honestos, trabajen y esfuércense, colaboren, compartan con transparencia sus datos, no sean soberbios, no usen argumentos de autoridad ni se proclamen expertos, y no se pongan a ustedes mismos en situaciones en las que tengan que faltar a la ética científica.

Si esta es la última Física Teórica que cursan, es probable que no nos volvamos a encontrar en un aula (al menos mientras sean estudiantes de grado). Les agradezco la paciencia en este cuatrimestre, y espero que hayan disfrutado la materia. Para mí, es la materia más linda de toda la carrera. Y a todo el resto, espero verlos nuevamente en algún aula. Mucha suerte en el parcial, y a todos los que aprueben los veré en el examen final. Cuídense, y no defrauden nunca a la vocación que los llevó a elegir una carrera científica.

La soledad y la cima

A los solitarios ganadores de premios Nobel, y a todos nosotros que estamos aislados en esta pandemia, va dedicado el video con cuadros de Edward Hopper. Hopper retrató la soledad como pocos artistas de su época. Los personajes en sus cuadros reflejan aburrimiento, hastío, resignación, nostalgia o melancolía. Tal vez las cimas, y las pandemias, estén reservadas para los personajes solitarios.

La teoría de fenómenos críticos marcó buena parte de la física de los últimos 50 años. No tiene sentido hacer una competencia entre áreas que obtuvieron más premios Nobel, o considerar que la importancia de un área o de un resultado depende de si sus autores están listados entre los laureados con un premio (“¡Messi no ganó ningún mundial, es un pecho frío!“). Hacer esto ignoraría la cantidad de resultados cruciales para la física que fueron valorados mucho más tarde, o que permearon la física tan profundamente que los olvidamos (la física tal como la conocemos no existiría sin el cálculo infinitesimal, y sin embargo, Newton es conocido popularmente por la gravedad y la manzana). También, que estos premios están reservados para un puñado solitario de personas.

Sin embargo, hacer el ejercicio inverso sí tiene algún sentido: mirar la lista de premios Nobel da información sobre algunos temas que marcaron épocas en la física (de la misma forma que mirar la lista de selecciones que ganaron mundiales da información sobre estilos de fútbol y jugadores que marcaron épocas). Y desde 1982 hasta la fecha, muchos premios Nobel tuvieron que ver con el desarrollo de la mecánica estadística, y con el estudio directo o indirecto de las transiciones de fase. Comencemos el repaso de estos premios con Wilson:

Image result for Wilson outcast

El uso del grupo de renormalización para comprender fenómenos críticos fue introducido en la segunda mitad del siglo 20 por Leo Kadanoff, Kenneth Wilson y Michael Fisher. Wilson ganó el premio Nobel en 1982 por su teoría de fenómenos críticos en conexión con transiciones de fase (Kadanoff bien podría ser el Messi de esta historia). Wilson falleció en junio de 2013, y en conmemoración de esa fecha la American Physical Society publicó en 2019 este breve artículo que resume varias de sus contribuciones:

Al final del artículo van a encontrar la referencia al paper original de Wilson de 1971 por el que ganó el premio. Los dos artículos de Wilson de 1971 sobre grupo de renormalización y su relación con fenómenos críticos están disponibles (con acceso abierto) en Physical Review B:

Desde 1982 a la fecha al menos en otras seis ocasiones se entregaron premios Nobel en temas relacionados con mecánica estadística y transiciones de fase. El más reciente, a David Thouless, Duncan Haldane, y Michael Kosterlitz (que estuvo conversando con estudiantes del DF hace unos años) se otorgó en 2016 por avances teóricos en el estudio de transiciones de fases topológicas de la materia. Las transiciones de fases topológicas involucran un cambio en el orden topológico del sistema: por debajo de una temperatura crítica los “defectos” (por ejemplo, vórtices cuantizados en un superfluido en dos dimensiones) se ordenan en pares (de vórtices con signos opuestos), mientras que por arriba de dicha temperatura se encuentran solitarios y libres. Los interesados en esta transición pueden leer la descripción técnica del premio Nobel, que usa herramientas de la materia (el modelo de Ising, el parámetro de orden, y la energía libre de Landau):

Yendo hacia atrás en el tiempo y solo llegando en la lista hasta 1982, el premio Nobel de 2003 se entregó a avances en la teoría de superconductores y superfluidos, el de 2001 a los experimentos que obtuvieron los primeros condensados de Bose-Einstein gaseosos en el laboratorio, el de 1996 a la transición de He-3 a la fase superfluida, el de 1991 a avances en el estudio de fases ordenadas en cristales líquidos y polímeros, y el de 1987 a la observación de superconductividad en materiales cerámicos. Los interesados en algunos de estos temas pueden mirar las páginas del premio Nobel, donde encontrarán más información.

Nos vemos el próximos lunes para la última clase teórica del curso. Los apuntes para la clase están disponibles acá.

Abre tu ojo

Propuse varias soluciones; todas, insuficientes. Las discutimos; al fin, Stephen Albert me dijo:
- En una adivinanza cuyo tema es el ajedrez ¿cuál es la única palabra prohibida? Reflexioné un momento y repuse:
- La palabra ajedrez.
- Precisamente —dijo Albert—. El jardín de los senderos que se bifurcan es una enorme adivinanza, o parábola, cuyo tema es el tiempo; esa causa recóndita le prohíbe la mención de su nombre.
Jorge Luis Borges, El jardín de los senderos que se bifurcan (1941).

Si este post fuera una adivinanza, no podríamos mencionar la palabra “autosemejanza”. Vamos a hablar de fractales y de senderos que se bifurcan. Los fractales son objetos matemáticos que, por construcción, son invariantes de escala (es decir, se prescriben con un conjunto de reglas, usualmente recursivas, que generan una figura o un conjunto autosemejante). Es importante notar que el fenómeno de autosemejanza que se observa en los sistemas físicos cerca del punto crítico no se genera de esta forma, con pasos que se repiten infinitamente. Y en este sentido, los fractales no nos pueden brindar una explicación a la causa de la invariancia de escala. Sin embargo, como objetos matemáticos, pueden servir para estudiar propiedades generales de sistemas que son invariantes de escala, para generar datos sintéticos que tengan esta propiedad (o para generar terrenos o texturas que parezcan realistas en videojuegos), o para crear métodos para cuantificar la posible autosemejanza de un conjunto de datos.

Uno de los ejemplos más sencillos y conocidos está dado por el conjunto de Cantor. Se construye tomando el segmento [0,1], partiéndolo en 3, y removiendo el segmento del medio. Esto nos deja dos nuevos segmentos: [0,1/3] y [2/3,1]. La operación se repite en cada uno de los nuevos segmentos. La figura a continuación muestra el resultado de repetir este procedimiento diez veces (hagan click en la imagen para ver un zoom):

En términos coloquiales, un fractal es una figura construida con pequeñas partes que son similares a la figura completa, en cualquier escala en la que se observe. La construcción recursiva del fractal (que puede ser determinista, o tener componentes aleatorias) asegura que la figura resultante sea autosemejante. Y su “fractalidad” puede cuantificarse de diferentes formas; por ejemplo, calculando funciones de correlación y sus exponentes críticos. O calculando la dimensión fractal o la dimensión de Hausdorff, que están relacionadas con el exponente crítico de la función de correlación a dos puntos.

El término “fractal” fue introducido por Benoit Mandelbrot, que formalizó varias ideas previas de otros matemáticos (especialmente, durante el siglo XX, de Lewis Fry Richardson, que también hizo contribuciones importantes a la meteorología y a la turbulencia). Y fueron usados por Mandelbrot para, entre otras aplicaciones, calcular el perímetro de regiones costeras. Aunque la costa irregular de un país no es generada por una persona que repite reglas como en el conjunto de Cantor (pero en The hitchhiker’s guide to the galaxy pueden opinar distinto), calcular la dimensión fractal de la costa permite obtener buenas estimaciones de la longitud de curvas muy rugosas, y en ciento sentido, autosemejantes. Los que estén interesados en los detalles pueden leer el paper (lindo, clásico, y muy breve) de Mandelbrot sobre este tema:

De la misma forma que conocer la longitud de correlación en el modelo de Ising nos permite inferir propiedades del tamaño de los dominios magnéticos, estimar la dimensión fractal le permitió a Mandelbrot resolver una aparente paradoja al intentar calcular la longitud de curvas autosemejantes: al medir la longitud de una costa, cuando más detalle se tiene sobre su forma, más aumenta su longitud.

Los fractales también pueden generar imágenes visualmente interesantes, como el famoso conjunto de Mandelbrot:

Los que estén interesados en generar fractales con Python pueden ver los siguientes links con instrucciones paso a paso (recomiendo fuertemente el primero), y muchos ejemplos de códigos que pueden cortar y pegar en sus computadoras o en un Google Colab:

Como mencioné más arriba, los fractales pueden tener componentes aleatorias. Y aunque los fractales no brindan una explicación a la causa de la autosemejanza en ciertos sistemas naturales, pueden ser usados para caracterizarla. Además, cumplen teoremas muy interesantes que nos permiten descubrir relaciones sorprendentes entre procesos autosemejantes. Por ejemplo, los ceros de un camino al azar unidimensional de tiempo contínuo (es decir, cada vez que el caminante al azar vueve a pasar por su punto de origen) forman un conjunto fractal. Esto tiene que ver con otro teorema muy extraño que se aplica a un proceso llamado evolución de Schramm-Loewner: una curva al azar en dos dimensiones que sea invariante conforme (una forma más fuerte de la invariancia de escala, en la que la curva no es solo invariante frente a cambios de escala, sino también invariante frente a transformaciones que preserven los ángulos localmente) tiene una relación directa con un proceso de movimiento browniano en una dimensión. Este teorema puede usarse para calcular exponentes críticos en modelos de Ising y de percolación en dos dimensiones, a partir de propiedades del movimiento browniano unidimensional que vimos al principio del curso. ¡Todo se conecta con todo! De pronto, un tema de esta materia viajó al pasado y tuvo un hijo (¡en tu cara, famosa serie de Netflix!).

Como siempre, en la página de la teórica van a encontrar el video de la última clase, y los apuntes para la próxima clase. Y en este y este post, anuncios importantes sobre la práctica.

Opalescencia crítica

¡El público del Criticalpalooza lo pidió, y volvieron las bandas al escenario principal! En este (¿breve?) post discutimos la opalescencia crítica (que no es el título de un disco de Björk, pero que bien podría serlo) y algunos temas extra. Comencemos con un aporte de Pablo Groisman (@pgroisma) que en las redes sociales me pasó este paper en el que los autores demuestran la existencia de una fase nemática en un modelo de cristales líquidos formados por barras en una red bidimensional.

Escuchemos ahora el último tema del festival, inspirado en una pregunta de Francisco Szlafsztein en el Campus Virtual. La opalescencia crítica es un fenómeno que ocurre cuando una mezcla de líquido y gas llega a su temperatura crítica (Tc). A temperaturas mayores a Tc no hay una distinción discontinua entre las dos fases (líquida y gaseosa). La substancia se comporta como un gas (por ejemplo, se expande hasta ocupar todo el recipiente), pero también tiene propiedades de un líquido (su densidad puede ser alta, y puede disolver otras substancias). La imagen a continuación, tomada de Wikipedia, ilustra el cambio al cruzar el punto crítico en una mezcla de etano líquido y gaseoso: a la izquierda se ven las dos fases (líquido y gas), en el medio se ve el sistema en el estado crítico, y a la derecha no se ve ninguna distinción entre las fases.

Pero lo interesentante es que la substancia se vuelve opalescente en la imágen del medio, es decir, a la temperatura Tc. ¿Por qué? Responder esto va a darnos un tema difícil para cerrar el festival de autosemejanza, juntando conceptos de esta materia con conceptos de óptica y electromagnetismo. El equivalente a juntar en el escenario una banda con tres baterías, dos guitarras, un bajo y un saxo.

Sorprendentemente, el fenómeno de opalescencia crítica es causado porque la mezcla gas-líquido se vuelve autosemejante en el punto crítico. Las fluctuaciones de densidad se vuelven arbitrariamente grandes, las regiones ocupadas por la fase líquida pueden tener cualquier tamaño, y la longitud de correlación diverge. ¿Cómo causa esto que la substancia se vea blanca? Cuando la luz incide sobre la substancia, es dispersada por el fenómeno de scattering de Rayleigh. Las partículas más pequeñas que la longitud de onda de la radiación incidente se polarizan, e irradian un campo electromagnético en todas direcciones. Al orden más bajo, la amplitud del campo de desplazamiento eléctrico resultante del proceso de scattering está dada por

donde las primas denotan que los operadores actúan sobre la variable de integración x, E(0) es el campo eléctrico de la onda plana incidente, y χe(x) es la susceptibilidad eléctrica de la substancia (que depende de la posición, porque tenemos cambios en la densidad entre el líquido y el gas). Noten que el campo eléctrico dispersado está relacionado con la transformada fr Fourier de las variaciones espaciales de la susceptibilidad eléctrica (o de una función del índice de refracción del medio; los que solo hayan cursado óptica recuerden que el campo de difracción en una red también es una transformada de Fourier, en ese caso de la función de trasmisión de la red). ¡Pero entonces, si la densidad del medio varía en forma aleatoria y en escalas espaciales muy diferentes, vamos a ver radiación con un espectro electromagnético muy ancho, casi blanco! Los primeros en notar esto fueron Marian Smoluchowski y Albert Einstein, aunque el argumento basado en la aproximación de Rayleigh no es válido para las fluctuaciones de densidad de la substancia en escalas similares o mayores a las de la longitud de onda de la luz incidente.

De hecho, en cierto sentido, cuando miramos al material volverse opalescente cerca del punto crítico, estamos “viendo” la función de correlación y la divergencia en la longitud de correlación. Para una señal aleatoria estacionaria m(x) que tenga transformada de Fourier (indicada abajo con el gorro), del teorema de Wiener–Khinchin se sigue que la transformada de Fourier de su espectro de potencia es la función de correlación:

Así, el fenómeno de opalesencia cerca de la temperatura crítica tiene que ver justamente con el comportamiento autosemejante de las fluctuaciones entre la fase líquida y gaseosa. Como nota de color, el universo temprano puede haber sido opalescente en forma crítica (sabemos que el universo no era transparente hasta el momento en el que se formaron los primeros átomos).

En las encuestas alguien comentó que era difícil navegar la página, y separar los anuncios de los posts con temas de la teórica. Para facilitar esto marqué todos los posts de la teórica en una nueva categoría. En el menú de la derecha (no en el de arriba) van a ver dos categorías (Novedades y Teórica). Apretando en cada una de esas categorías pueden ver solo los posts de cada una.

¡Se viene el Criticalpalooza!

Llegó el festival anual psicodélico de la autosemejanza en la física y en áreas afines. Tenemos entradas para ver ejemplos de fenómenos críticos en física de materiales, sistemas biológicos, fluidos, cosmología, y hasta en neurociencias (¡gracias a sugerencias invaluables de Enzo Tagliazucchi!). Los links de bandas que tocaron en un festival de nombre similar llevan a videos en YouTube, para escuchar música el fin de semana.

Comencemos con el lineup. En el escenario principal, después de Guns N’ Roses, tenemos dos ejemplos de física de materiales y materia condensada. Ya conocemos las transiciones de fase asociadas a los cambios de estado de la materia (sólido, líquido y gaseoso). Así que veamos el show de bandas menos conocidas (y con ejemplos recientes de publicaciones en física). Primero tenemos a los cristales líquidos. Los cristales líquidos están formados por moleculas anisótropas (generalmente alargadas, por ejemplo con forma de largos cilindros), por lo que se comportan con propiedades intermedias entre los líquidos y los sólidos de acuerdo a en que dirección del material se aplican los esfuerzos. Y tienen al menos dos fases: en la fase nemática (a mayor temperatura) las moléculas están más desordenadas, pero se alinean a lo largo de sus ejes principales. En cambio, en la fase esméctica (a menor temperatura) las moléculas se acomodan en capas más ordenadas, y dentro de cada capa las moléculas están inclinadas con el mismo ángulo. El cambio entre ambas fases es una transición de fase con propiedades críticas. Los interesados pueden mirar un paper reciente (Gim, Beller & Yoon, Nat. Commun. 8, 15453, 2017), donde encontrarán esta figura alucinante con cambios morfológicos del material durante la transición (para temperatura creciente, de izquierda a derecha):

Los que quieran leer otro ejemplo de transiciones de fase en materiales, pueden mirar este artículo sobre transiciones sólido-sólido que ocurren por cambios en la forma de partículas coloidales.

Vayamos a otro escenario del Criticalpalooza, y mientras escuchamos The Flaming Lips veamos ejemplos recientes de transiciones de fase y autosemejanza observados en sistemas biológicos. Ciertas células cambian sus patrones de movimiento de acuerdo a la densidad de células en su entorno. A baja densidad muestran un movimiento desordenado, mientras que a alta densidad muestran patrones de movimiento colectivo y ordenado. La transición entre ambos comportamientos ocurre como una transición de fase. Pueden ver un ejemplo en Szabó et al., Phys. Rev. E 74, 061908 (2006) (el preprint está diponible en este link). La siguiente figura, de ese paper, muestra los patrones de movilidad al aumental la densidad de las células (de izquierda a derecha). Noten el cambio en el orden del sistema:

Los que tengan interés por ver más aplicaciones en biofísica, pueden mirar también un paper sobre fenómenos críticos en membranas lípidas (¡donde estiman exponentes críticos!).

En el mismo escenario donde toca Metallica tenemos una variedad de fenómenos autosemejantes que se observan en fluidos. El más conocido es el fenómeno de la turbulencia, que es heavy metal. Los fluidos más viscosos (donde la viscosidad se mide con un número adimensional, el número de Reynolds) fluyen en forma ordenada y laminar. Pero al aumentar el número de Reynolds (y reducirse la importancia de la viscosidad), generan flujos muy desordenados que tienen propiedades de invariancia de escala. En la siguiente figura, noten como zooms sucesivos en el flujo parecen repetir los patrones:

Esta es una transición extraña, porque los flujos turbulentos tienen propiedades de criticalidad y autosemejanza, pero son un sistema fuera del equilibrio. Pueden ver más imágenes de flujos turbulentos aquí. Y pueden ver un ejemplo de una transición de fase en turbulencia en un condensado de Bose-Einstein en este paper.

Los que tengan interés por cosmología pueden ir al escenario donde tocan Empire of the SunLee Smolin, y leer este artículo, donde se discuten diversos problemas (como la formación de galaxias espirales, la estructura de gran escala del universo, o el universo temprano) desde el punto de vista de fenómenos críticos. Bastante más difícil de leer (¡gracias a Gastón Giribet que me mencionó este resultado el año pasado!), pero que sirve como ilustración, es este paper donde se estudia una transición de fase al compactificar una dimensión en teorías de gravedad (compactificar es “enrollar” una dimensión sobre si misma, y hacer tender ese “rollo” a cero).

Para cerrar el festival, este Criticalpalooza no tendrá a The Strokes, pero tiene ejemplos de fenómenos críticos en el cerebro (¿lo entendieron?). Las funciones cognitivas involucran procesos que van desde las neuronas individuales hasta regiones grandes del cerebro, y en los últimos años se encontró evidencia creciente de que el cerebro funciona en el borde entre el orden y el desorden, con propiedades de fenómenos críticos. Los interesados en ver ejemplos de criticalidad y autosemejanza en el cerebro pueden mirar este paper o este paper.

Terminado el festival pueden tomar Red Bull © y mirar el video de la última teórica, o revisar los apuntes para la próxima clase.

Don’t panic!

Antes de comenzar con el último tema de la materia, hagamos una pausa para discutir un tema muy poco serio, pero que no podía quedar afuera de Física Teórica 3: el propulsor de improbabilidad infinita. Así que tomen sus toallas y prepárense para un viaje por la galaxia.

El propulsor forma parte de The Hitchhiker’s Guide to the Galaxy, una serie de novelas humorísticas de ciencia ficción, radionovelas, programas de TV, y películas escritas por Douglas Adams. La novela narra (con ligeros cambios en los otros medios) las aventuras de un humano (Arthur Dent) acompañado por dos extraterrestres (Ford Prefect y Zaphod Beeblebrox) luego que la Tierra es destruida. Deben tener en cuenta que la primer radionovela fue emitida por la BBC en 1978, cuando todavía estaba activo Monty Python, por lo que esta no es una típica historia de ciencia ficción. Entre otras nociones memorables, The Hitchhiker’s Guide to the Galaxy nos dijo que la respuesta a la pregunta final sobre la vida, el universo y todo lo demás es “42″ (¡prueben escribir “What is the answer to the ultimate question of life the universe and everything?” en Google!).

El tema que nos convoca es el poco probable uso de las probabilidades que hace esta saga. En The Hitchhiker’s, los personajes viajan en una nave espacial que cruza el universo (violando todas las leyes de la física) gracias al propulsor de improbabilidad infinita. El propulsor se presenta como un método nuevo y maravilloso para cruzar distancias interestelares en forma instantánea, sin “tediosas tonterías en el hiperespacio”. Fue descubierto por casualidad, y su funcionamiento se basa en aumentar la improbabilidad de ciertos sucesos hasta alcanzar valores infinitos. La fuente de aleatoriedad del propulsor es un productor de movimiento browniano (es decir, una taza de té caliente). Una vez encendido, la nave pasa por cada punto concebible de cada universo concebible, simultáneamente. Como resultado del viaje, también pueden ocurrir otras cosas altamente improbables.

Esto es solo un breve resumen de cinco libros en los que nada tiene sentido. Pero hagamos el ejercicio de tratar de tomar seriamente a este propulsor. ¿Qué es la improbabilidad? Si P(x) es la probabilidad de que un evento x ocurra, podríamos asociar la improbabilidad de un evento a la probabilidad de que el suceso no ocurra. Cuando comenzó la materia, vimos que esta probabilidad está dada por:

Esto sería peligrosísimo. Si una máquina convirtiera P en I localmente, le asignaría probabilidad 1 a todas las cosas que no pueden ocurrir. Es genial; podríamos aparecer en otros lugares, pero hay muchas otras cosas malas que podrían pasar. Imaginen si tuviéramos diez crisis como la de COVID-19 en simultáneo.

En realidad la situación es peor, y esta definición no es correcta. La improbabilidad I(x) está acotada entre 0 y 1. Pero Douglas Adams nos dice claramente en The Hitchhiker’s que la improbabilidad puede ser infinita (en caso contrario, la máquina se llamaría el propulsor de improbabilidad unitaria, algo que de todas formas hubiera sido más correcto). Así que en el contexto de la novela puede ser más correcto definir I(x) como:

Esto tiene una serie de problemas aún más grandes. Pero Douglas Adams parece comprender algunos. Cada vez que los personajes usan el propulsor, los efectos secundarios incluyen cambios temporarios (y a veces permanentes) en el medio ambiente, en la estructura morfológica de los personajes, alucinaciones, y la aparición espontánea de ballenas en medio del espacio. Así que si no tenían nada que leer durante la pandemia, pueden mirar el primer libro de esta saga.

No dejen de mirar los avisos sobre la guía 6 de ejercicios, sobre la organización de la práctica para las próximas semanas, y sobre la práctica computacional. Y en la página de la teórica van a encontrar el video de la última clase, y los apuntes para la próxima clase.

¿Matan las pulgas a sus pulgas con matapulgas?

Y ¿sueñan los androides con ovejas eléctricas? Tanto el título de la novela de Philip K. Dick (que inspiró a la película Blade Runner), como un famoso poema de Jonathan Swift, exploran la idea de la repetición en diferentes grados o escalas. En la novela los humanos crean a los androides, y los androides sueñan como los humanos pero con ovejas eléctricas. En el poema, las pulgas tiene pulgas más pequeñas que se alimentan de ellas, que su vez también tienen sus pulgas:

So, naturalists observe, a flea
has smaller fleas that on him prey;
and these have smaller still to bite ‘em,
and so proceed ad infinitum.
Jonathan Swift, On poetry: A rhapsody (1733).

Maurits Escher exploró una idea similar en su xilografía Más y más pequeño (1956), en la que un patrón de reptiles se repite hasta alcanzar tamaños infinitamente pequeños y números infinitamente grandes:

Sorprendentemente, cerca de la temperatura crítica (Tc) en la cual se pierde la magnetización permanente, el modelo de Ising en dos dimensiones presenta estructuras similares, que se repiten en diferentes escalas. En la última clase comenzamos a vislumbrar este comportamiento en algunas de las simulaciones. Comencemos por ver un video que muestra un barrido del sistema en función de la temperatura, en el entorno cercano a la temperatura crítica:

La barra de colores de la derecha muestra la temperatura (normalizada por la temperatura crítica). Al principio del video (T > Tc) el sistema no tiene magnetización permanente. En la mitad del video (T ≈ Tc, cerca del minuto 0:50) se observan islas magnéticas de tamaños muy diferentes y con bordes rugosos. Y finalmente, hacia el final del video (T < Tc) se observan islas muy grandes, con el tamaño característico del dominio, y con bordes más suaves.

Cerca de la temperatura crítica, la presencia de islas de diferentes tamaños vuelve al sistema invariante de escala, como las pulgas del poema de Jonathan Swift, o como los reptiles en la xilografía de Maurits Escher (aunque en el caso del modelo de Ising, los patrones están más desordenados). Esto está muy bien ilustrado en el siguiente video, que muestra un estado del modelo de Ising con 1,7×1010 nodos, cerca de Tc. Al principio el video muestra lo que parecen ser cuatro realizaciones independientes del modelo de Ising, pero en realidad son partes más chicas de la simulación completa:

Espero que a todos les haya ido bien en la evaluación. En la página de la teórica van a encontrar el video de la última clase, y los apuntes para la próxima clase.

Cómo aprendí a dejar de preocuparme

La mecánica estadística, que nació a fines del siglo XIX y principios del siglo XX a partir de los trabajos de Boltzmann, Maxwell y Gibbs, tuvo un rol importante durante la Segunda Guerra Mundial. El proyecto Manhattan, que entre 1939 y 1946 reunió a varios de los científicos más brillantes de la época, usó frecuentemente sus herramientas e impulsó el desarrollo de métodos que ampliaron enormemente su área de aplicación. En las últimas clases comenzaron a aparecer métodos, y diversos nombres de científicos, que estuvieron relacionados con el proyecto Manhattan. Así que vamos a dedicar este post a discutir al menos dos de ellos. El proyecto Manhattan tuvo como objetivo fabricar armas nucleares para los Estados Unidos durante la guerra. Jugó un rol central en el fin de la guerra del Pacífico, mostró lo que puede hacer la colaboración científica a gran escala, y generó desarrollos rápidos e importantes. Pero aún hoy se sigue discutiendo la necesidad de bombardear Hiroshima y Nagasaki, o la carrera armamentista nuclear que siguió a continuación. Sobre esa época, y para reflexionar sobe esos temas, les aconsejo “Dr. Strangelove, or How I Learned to Stop Worrying and Love the Bomb” (1964), una película satírica de Stanley Kubrick en la que el genial Peter Sellers tiene tres papeles (el presidente de los Estados Unidos, un capitán británico, y el científico nazi Dr. Strangelove).

En la última clase vimos el método de campo medio para el problema de Ising desarrollado por Hans Bethe. Bethe publicó este resultado en 1935, el año en que se mudó a los Estados Unidos (pueden ver el paper original aquí). Bethe trabajó en el proyecto Manhattan y luego en el desarrollo de la bomba de hidrógeno junto con Edward Teller y Stanislaw Ulam (yo tuve la suerte de conocer y hablar varias veces con Stirling Colgate, que trabajó con Teller y Bethe en este proyecto; probablemente el apellido les resulte de conocido de algún lado). Luego Bethe trabajó en la formación de elementos químicos por fusión nuclear en el interior de las estrellas, por el que ganó el premio Nobel en 1967. La mecánica estadística jugó roles importantes en estos trabajos. Pero su paper más famoso es un paper en el que no trabajó. En 1948, luego de la guerra, Ralph Alpher y George Gamow escribieron un trabajo sobre la formación de los primeros átomos en el universo. Gamow, al enterarse que el paper iba a salir publicado el 1 de abril (“April fools’ day“, el equivalente a nuestro día de los inocentes), agregó a Hans Bethe como segundo autor. Así, el paper de Alpher, Bethe y Gamow se volvió conocido como el paper α-β-γ (alfa, beta y gama). Más tarde, cuando Ralph Alpher trabajó con Robert Herman en el cálculo de la temperatura de la radiación cósmica de fondo, Gamow quiso convencer a Herman de que cambiara su apellido por “Delter”, para poder escribir un paper con autores Alpher, Bethe, Gamow y Delter (α-β-γ-δ). Herman se negó rotundamente.

El método de Montecarlo que usamos para resolver numéricamente el modelo de Ising también fue creado durante el proyecto Manhattan. Stanislaw Ulam inventó al método tal como lo conocemos hoy mientras trabajaba en el proyecto de la bomba atómica. Él y John von Neumann lo usaron en la computadora de Los Alamos para calcular, usando mecánica estadística, la difusión de neutrones en el material para la fisión nuclear. Luego de la guerra, Nicholas Metropolis y Ulam publicaron el primer paper no clasificado explicando el método en detalle. Hoy se usa para resolver en forma numérica una gran variedad de problemas en física.

Los que quieran leer más historias sobre el proyecto Manhattan pueden mirar las memorias de Richard Feynman (¡incluyen lecciones sobre como abrir cajas fuertes!):

Como siempre, en la página de la teórica van a encontrar el video de la última clase, y los apuntes para la próxima.

¡Eres un juguete!

El modelo de Ising es un modelo de juguete para el ferromagnetismo. Sin embargo, esto no significa que sea un modelo poco importante, o que solo tenga utilidad pedagógica. En cierto sentido, el modelo de Ising es el Buzz Lightyear de los modelos de juguete.

El desarrollo de la mecánica estadística entre fines del siglo XIX y principios del siglo XX, de la mano de Boltzmann y de Gibbs, permitió a los físicos comprender mejor varios sistemas y procesos (como el gas ideal, o los fenómenos de transporte), formalizar conceptos (como la noción de equilibrio, los microestados, el desorden, y la entropía), y estudiar fenómenos nuevos (como el condensado de Bose-Eistein, o la superfluidez y la superconductividad). Además, la mecánica estadística amplió el campo de aplicación de la física a otras áreas y a temas interdisciplinarios, como vimos en este post.

Sin embargo, aún en 1944 (más de 70 años después de la publicación de la ecuación de Boltzmann) no estaba claro si la mecánica estadística podría capturar y ayudar a comprender las transiciones de fase, como ocurren en la transición de agua líquida a vapor de agua, o en la magnetización espontánea de ciertos materiales al bajar su temperatura. Y aquí es donde el modelo de Ising, y Lars Onsager, abrieron las puertas a muchos desarrollos cruciales para la física en la segunda mitad del siglo XX. En 1944 Onsager encontró una solución exacta al modelo de Ising en dos dimensiones, calculando la función de partición del sistema, mostrando que podía sufrir una transición de fase y magnetizarse espontáneamente, y calculando la temperatura a la que ocurre la transición. La solución mostró por primera vez que las transiciones de fase aparecen como singularidades de las funciones termodinámicas del sistema, y convenció a los físicos de que la mecánica estadística podía ser usada para estudiar estos fenómenos. Fue tan relevante que al terminar la segunda guerra mundial, cuando varios físicos volvieron a la investigación básica, Hendrik Casimir le comentó en una carta a Wolfgang Pauli que estaba preocupado y dudaba de si podría volver a trabajar en física teórica luego de haber perdido contacto con el tema por tanto tiempo. Pauli (que era famoso por evaluar las teorías de sus colegas muy duramente) lo tranquilizó respondiendo que durante la guerra solo hubo un resultado que debía mirar: “No ha ocurrido mucho que sea de interés, excepto por la solución exacta de Onsager al modelo de Ising en dos dimensiones“.

Onsager es un personaje interesante. Muchos de sus resultados no fueron publicados en papers. La solución exacta al modelo de Ising apreció como una discusión de otro paper, su formula para la temperatura de la transición quedó en un pizarrón luego de un seminario que dió László Tisza, y la predicción de la cuantización de vórtices en un superfluido (luego redescubierta por Feynman) apareció en una paper resumiendo un seminario de otro investigador, en la sección de preguntas y respuestas del público.

Los que quieran jugar un poco con el modelo de Ising en 2D (antes de la práctica numérica), pueden mirar la siguiente página donde pueden simular el sistema con el método de Montecarlo, y variar la temperatura y el campo magnético externo. Para un campo externo igual a cero, prueben ver que pasa con la amplitud de las fluctuaciones en la magnetización si se acercan a la temperatura crítica (Tc ≈ 2.27) desde arriba (es decir, desde temperaturas altas):

Modelo de Ising en 2D

En la página de la teórica van a encontrar el video de la última clase, material adicional, y los apuntes para la próxima clase. Y finalmente, el video en el que Onsager le explica a Ising que solo es un juguete:

Superfluidos

¡La referencia cultural que faltaba! A lo largo de la materia tuvimos referencias a Jorge Luis Borges, Arnold Schwarzenegger, Los Simpsons, Stanley Kubrik, Futurama, El libro de los muertos, Alan Turing, los Wachowskis, Jason Statham, Adolfo Bioy Casares, Friedrich Nietzsche, Rick y Morty, Stanislaw LemFlint Lockwood, Andrei Tarkovsky, Pink Floyd, John Snow y Daenerys Targaryen, Led Zeppelin, y Giorgio de Chirico entre otros. No le hacemos asco a nada. Pero a esta sopa le faltaba The Big Bang Theory. En la temporada 8 de The Big Bang Theory, Sheldon y Leonard crean una teoría (la teoría Cooper-Hofstadter) según la cual el vacío se comportaría como un superfluido. Aunque tal teoría existe, no va a ser el tema de este post, que va a lidiar en cambio con cuestiones bastante más mundanas sobre las propiedades de los superfluidos.

Comencemos con un video corto (1:44 minutos) pero muy recomendable, que ilustra varias de las propiedades de superfluidos que vimos en clase. Entre otras cosas, muestra que un superfluido puede atravesar un medio poroso (por el que un fluido viscoso no puede pasar), muestra que el superfluido también puede trepar por las paredes y escapar del recipiente, y el “efecto fuente”:

Luego pueden ver un video mas reciente (en castellano) con experimentos de vórtices cuantizados en He-4 superfluido. Las lineas blancas sobre fondo negro que se ven en los primeros 5 segundos del video son vórtices cuantizados observados en el laboratorio:

Para los que quieran leer mas sobre He-4 superfluido, les aconsejo el siguiente trabajo de Richard Feynman. Aunque es un poco antiguo y la interpretación actual de los rotones es diferente a la planteada en el artículo, muchas de las especulaciones que hace Feynman fueron mas tarde confirmadas en experimentos:

Application of quantum mechanics to liquid Helium

Este trabajo tiene una historia interesante atrás. Feynman presentó previamente sus resultados en un congreso al que asistió Onsager (que era famoso en el área). Feynman estaba bastante orgulloso de si mismo, y Onsager decidió darle una lección. La narración completa la pueden encontrar en “Surely You’re Joking, Mr. Feynman!“, pero en palabras de Feynman es más o menos así:

“Bueno, Feynman”, dijo Onsager con voz ronca, “escuché que crees que has entendido el helio líquido”.
“Bueno, sí…”
“Umm…” ¡Y eso fue todo lo que me dijo durante toda la cena! No fue muy estimulante.
Al día siguiente di mi charla, y expliqué todo sobre el helio líquido. Al final, mencioné que había algo que todavía no había logrado entender: si la transición entre una fase y la otra del helio líquido era de primer orden (como cuando un sólido se derrite o un líquido hierve, y la temperatura se mantiene constante) o de segundo orden (como ocurre en el magnetismo, donde la temperatura puede cambiar).
Entonces el profesor Onsager se levantó y dijo duramente: “Bueno, el profesor Feynman es nuevo en nuestra área, y creo que necesita ser educado. Hay algo que tiene que aprender y que debemos decirle”.
Pensé: “¡Oh no! ¿Qué hice mal?”
Onsager dijo: “Deberíamos decirle a Feynman que nadie ha podido obtener el orden de una transición a partir de primeros principios, por lo que el hecho de que su teoría no le permita calcular eso no significa que no haya entendido todo los otros aspectos del helio líquido satisfactoriamente”. Resultó ser un cumplido, pero por la forma en que comenzó, ¡pensé que me iba a dar una paliza!

En nuestro grupo de investigación trabajamos (entre otros temas) en el estudio de flujos y turbulencia en superfluidos y en condensados de Bose-Einstein. En los dos primeros links pueden ver algunas imágenes y videos de simulaciones que hicimos de vórtices cuantizados. Para los mas curiosos (o valientes), en el tercer link les dejo un paper que publicamos hace un año sobre viscosidad en superfluidos a temperatura finita; el paper usa herramientas de la materia como el ensamble gran-canónico, el potencial químico, fonones y relaciones de dispersión, y teoría cinética y camino libre medio:

Imágenes de simulaciones de turbulencia cuántica
Videos de nudos de vórtices cuantizados
Paper: Quantitative estimation of effective viscosity in quantum turbulence

En la página de la teórica ya está disponible el video de la clase de ayer, y los apuntes para la próxima clase.