La semilla del mal

La clase práctica del miércoles pasado, vimos la relación entre la energía libre de Landau y la energía libre de Gibbs en la aproximación de Bragg-Williams para el modelo de Ising. Es decir, vimos un ejemplo concreto en donde la energía libre de Landau aparece naturalmente, y no como un artefacto a medida para explicar de manera fenomenológica las transiciones de fase. De nuevo vimos la importancia de tomar el límite termodinámico, sin el cual no habría ninguna singularidad a temperatura finita. En relación con esto, la animación de abajo muestra el valor medio del espín en función del campo externo para una temperatura mayor a la crítica, pero para un número finito de espines. Sólo tiene sentido hablar de magnetización espontánea cuando N tiende a infinito. 

[Aquí] pueden bajar las notas de clase, que corresponden al estreno mundial del problema 1 de la Guía 8, que sienta un precedente de ítem r.  [Aquí] pueden bajar la Guía 8.

Supongo que están muy concentrados en el trabajo computacional, así que no los molesto más.

Para los que entendieron

Es un gran hallazgo de la mecánica estadística el descubrimiento de que la transformación de cirujano en hechicero supremo es una transición de fase crítica de segundo orden.

La semana próxima empezamos con grupo de renormalización. Veremos los temas que doy usualmente en la materia, y algunos temas nuevos. Con instrucciones para que alguno de ustedes pueda convertirse en hechicera o hechicero. Y como estamos llegando a hacer la última guía de trabajos prácticos con tiempo, tengan en cuenta que grupo de renormalización va a entrar en el parcial.

Abre tu ojo


Propuse varias soluciones; todas, insuficientes. Las discutimos; al fin, Stephen Albert me dijo:
- En una adivinanza cuyo tema es el ajedrez ¿cuál es la única palabra prohibida? Reflexioné un momento y repuse:
- La palabra ajedrez.
- Precisamente —dijo Albert—. El jardín de los senderos que se bifurcan es una enorme adivinanza, o parábola, cuyo tema es el tiempo; esa causa recóndita le prohíbe la mención de su nombre.

Jorge Luis Borges, El jardín de los senderos que se bifurcan (1941).

Si este post fuera una adivinanza, no podríamos mencionar la palabra “autosemejanza”. Vamos a hablar de fractales y de senderos que se bifurcan. Los fractales son objetos matemáticos que, por construcción, son invariantes de escala (es decir, se prescriben con un conjunto de reglas, usualmente recursivas, que generan una figura o un conjunto autosemejante). Es importante notar que el fenómeno de autosemejanza que se observa en los sistemas físicos cerca del punto crítico no se genera de esta forma, con pasos que se repiten infinitamente. Y en este sentido, los fractales no nos pueden brindar una explicación a la causa de la invariancia de escala. Sin embargo, como objetos matemáticos, pueden servir para estudiar propiedades generales de sistemas que son invariantes de escala, para generar datos sintéticos que tengan esta propiedad (como para generar terrenos o texturas que parezcan realistas en videojuegos), o para crear métodos para cuantificar la posible autosemejanza de un conjunto de datos.

Uno de los ejemplos más sencillos y conocidos está dado por el conjunto de Cantor. Se construye tomando el segmento [0,1], partiéndolo en 3, y removiendo el segmento del medio. Esto nos deja dos nuevos segmentos: [0,1/3] y [2/3,1]. La operación se repite en cada uno de los nuevos segmentos. La figura a continuación muestra el resultado de repetir este procedimiento diez veces (hagan click en la imagen para ver un zoom):

En términos coloquiales, un fractal es una figura construida con pequeñas partes que son similares a la figura completa, en cualquier escala en la que se observe. La construcción recursiva del fractal (que puede ser determinista, o tener componentes aleatorias) asegura que la figura resultante sea autosemejante. Y su “fractalidad” puede cuantificarse de diferentes formas; por ejemplo, calculando funciones de correlación y sus exponentes críticos. O calculando la dimensión fractal o la dimensión de Hausdorff, que están relacionadas con el exponente crítico de la función de correlación a dos puntos.

El término “fractal” fue introducido por Benoit Mandelbrot, que formalizó varias ideas previas de otros matemáticos (especialmente, durante el siglo XX, de Lewis Fry Richardson, que también hizo contribuciones importantes a la meteorología y a la turbulencia). Y fueron usados por Mandelbrot para, entre otras aplicaciones, calcular el perímetro de regiones costeras. Aunque la costa irregular de un país no es generada por una persona que repite reglas como en el conjunto de Cantor (pero en The hitchhiker’s guide to the galaxy pueden opinar distinto), calcular la dimensión fractal de la costa permite obtener buenas estimaciones de la longitud de curvas muy rugosas, y en ciento sentido, autosemejantes. Los que estén interesados en los detalles pueden leer el paper (lindo, clásico, y muy breve) de Mandelbrot sobre este tema:

De la misma forma que conocer la longitud de correlación en el modelo de Ising nos permite inferir propiedades del tamaño de los dominios magnéticos, estimar la dimensión fractal le permitió a Mandelbrot resolver una aparente paradoja al intentar calcular la longitud de curvas autosemejantes: al medir la longitud de una costa, cuanto más detalle se tiene sobre su forma, más aumenta su longitud.

Los fractales también pueden generar imágenes visualmente interesantes, como el famoso conjunto de Mandelbrot:

Los que estén interesados en generar fractales con Python pueden ver los siguientes links con instrucciones paso a paso (recomiendo fuertemente el primero), y muchos ejemplos de códigos que pueden cortar y pegar en sus computadoras o en un Google Colab:

Como mencioné más arriba, los fractales pueden tener componentes aleatorias. Y aunque los fractales no brindan una explicación a la causa de la autosemejanza en ciertos sistemas naturales, pueden ser usados para caracterizarla. Además, cumplen teoremas muy interesantes que nos permiten descubrir relaciones sorprendentes entre procesos autosemejantes. Por ejemplo, los ceros de un camino al azar unidimensional de tiempo contínuo (es decir, cada vez que el caminante al azar vuelve a pasar por su punto de origen) forman un conjunto fractal. Esto tiene que ver con otro teorema muy extraño que se aplica a un proceso llamado evolución de Schramm-Loewner: una curva al azar en dos dimensiones que sea invariante conforme (una forma más fuerte de la invariancia de escala, en la que la curva no es solo invariante frente a cambios de escala, sino también invariante frente a transformaciones que preserven los ángulos localmente) tiene una relación directa con un proceso de movimiento browniano en una dimensión. Este teorema puede usarse para calcular exponentes críticos en modelos de Ising y de percolación en dos dimensiones, a partir de propiedades del movimiento browniano unidimensional que vimos al principio del curso. ¡Todo se conecta con todo! De pronto, un tema de esta materia viajó al pasado y tuvo un hijo.

¡Se viene el Criticalpalooza!


Llegó el festival anual psicodélico de la criticalidad en la física y en áreas afines, cada año actualizado con papers más y más recientes. Tenemos entradas para ver ejemplos de fenómenos críticos en física de materiales, sistemas biológicos, fluidos, cosmología, y hasta en neurociencias. Los links de bandas que tocaron en un festival de nombre similar llevan a videos en YouTube. Y ahora sí, criticalidad y autosemejanza:

Comencemos con el lineup. En el escenario principal, después de Guns N’ Roses, tenemos dos ejemplos de física de materiales y materia condensada. Ya conocemos las transiciones de fase asociadas a los cambios de estado de la materia (sólido, líquido y gaseoso). ¡Pero existen muchos más cambios de fase! Así que veamos el show de bandas menos conocidas (y con ejemplos recientes de publicaciones en física). Primero tenemos a los cristales líquidos. Los cristales líquidos están formados por moleculas anisótropas (generalmente alargadas, por ejemplo con forma de largos cilindros), por lo que se comportan con propiedades intermedias entre los líquidos y los sólidos de acuerdo a en que dirección del material se aplican los esfuerzos. Y tienen al menos dos fases: en la fase nemática (a mayor temperatura) las moléculas están más desordenadas, pero se alinean a lo largo de sus ejes principales. En cambio, en la fase esméctica (a menor temperatura) las moléculas se acomodan en capas más ordenadas, y dentro de cada capa las moléculas están inclinadas con el mismo ángulo. El cambio entre ambas fases es una transición de fase con propiedades críticas. Los interesados pueden mirar un paper reciente (Gim, Beller & Yoon, Nat. Commun. 8, 15453, 2017), donde encontrarán esta figura alucinante con cambios morfológicos del material durante la transición (para temperatura creciente, de izquierda a derecha):

También pueden mirar este paper (el preprint de acceso libre está disponible acá) en el que los autores demuestran la existencia de una fase nemática en un modelo de cristales líquidos formados por barras en una red bidimensional. Y los que quieran leer otro ejemplo de transiciones de fase en materiales, pueden mirar este artículo sobre transiciones sólido-sólido que ocurren por cambios en la forma de partículas coloidales.

Vayamos a otro escenario del Criticalpalooza, y mientras escuchamos The Flaming Lips, veamos ejemplos recientes de transiciones de fase y autosemejanza observados en sistemas biológicos. Ciertas células cambian sus patrones de movimiento de acuerdo a la densidad de células en su entorno. A baja densidad muestran un movimiento desordenado, mientras que a alta densidad muestran patrones de movimiento colectivo y ordenado. La transición entre ambos comportamientos ocurre como una transición de fase. Pueden ver un ejemplo en Szabó et al., Phys. Rev. E 74, 061908 (2006) (el preprint está diponible en este link). La siguiente figura, de ese paper, muestra los patrones de movilidad al aumental la densidad de las células (de izquierda a derecha). Noten el cambio en el orden del sistema:

Los que tengan interés por ver más aplicaciones en biofísica, pueden mirar también un paper sobre fenómenos críticos en membranas lípidas (¡donde estiman exponentes críticos!).

En el mismo escenario donde toca Metallica tenemos una variedad de fenómenos autosemejantes que se observan en fluidos. El más conocido es el fenómeno de la turbulencia, que es heavy metal. Los fluidos más viscosos (donde la viscosidad se mide con un número adimensional, el número de Reynolds) fluyen en forma ordenada y laminar. Pero al aumentar el número de Reynolds (y reducirse la importancia de la viscosidad), generan flujos muy desordenados que tienen propiedades de invariancia de escala. En la siguiente figura, noten como zooms sucesivos en el flujo parecen repetir los patrones (algo similar a lo que vimos en el modelo de Ising en 2D):

Esta es una transición extraña, porque los flujos turbulentos tienen propiedades de criticalidad y autosemejanza, pero son un sistema fuera del equilibrio. Pueden ver más imágenes de flujos turbulentos aquí. Y pueden ver un ejemplo de una transición de fase en turbulencia en un condensado de Bose-Einstein en este paper.

Los que tengan interés por cosmología pueden ir al escenario donde tocan Empire of the Sun y Lee Smolin, y leer este artículo donde se discuten diversos problemas (como la formación de galaxias espirales, la estructura de gran escala del universo, o el universo temprano) desde el punto de vista de fenómenos críticos. Bastante más difícil de leer, pero que sirve como ilustración, es este paper donde se estudia una transición de fase al compactificar una dimensión en teorías de gravedad (compactificar es “enrollar” una dimensión sobre si misma, y hacer tender ese “rollo” a cero). Y en cosmología, algunas teorías predicen que otra transición de fase podría haber ocurrido en el universo temprano, cuando se formaron los primeros átomos. Luego de ese momento el universo se volvió transparente, pero antes de ese instante el universo puede haber sido opalescente en forma crítica (como la mezcla de un líquido y un gas cuando llega a la temperatura crítica y dejan de existir las diferencias entre ambas fases, como se ve en la foto del centro en esta imágen de una mezcla de etano líquido y gaseoso tomada de Wikipedia):

Ya que estamos en el festival, no nos olvidemos de ir a ver las bandas clásicas. El mecanismo de Higgs por el cual los bosones de gauge adquieren masa, es también un mecanismo de ruptura espontánea de la simetría.

Para cerrar el festival, este Criticalpalooza no tendrá a The Strokes, pero tiene ejemplos de fenómenos críticos en el cerebro (¿lo entendieron?). Las funciones cognitivas involucran procesos que van desde las neuronas individuales hasta regiones grandes del cerebro, y en los últimos años se encontró evidencia creciente de que el cerebro funciona en el borde entre el orden y el desorden, con propiedades de fenómenos críticos. Los interesados en ver ejemplos de criticalidad y autosemejanza en el cerebro pueden mirar este paper o este paper. O, si quieren mirar dos papers más recientes, pueden ver este paper publicado en Science Advances o este paper escrito por varios investigadores del Departamento de Física. Ambos tienen gráficos que muestran cómo se calculan los exponentes críticos en este sistema. La siguiente imagen, tomada de Cochi et al., Progress in Neurobiology 158, 132 (2017) (el primero de los cuatro papers) también es bastante sugerente:

Práctica computacional [Hoy hay práctica en el aula]

Para la práctica computacional, tienen que completar el notebook de Python que pueden encontrar [aquí]. Para los que no tienen la menor idea de Python, es recomendable que lean los siguientes tutoriales preparados por la FIFA (Federación Interestudiantil de Físicos Argentinos):

Aprovechen las herramientas de AI para generar código.

Para poder usar el notebook sin necesidad de tener Python instalado en sus computadoras, deben tener una cuenta de Google y bajarse la aplicación de Google Colaboratory. Hagan una copia del notebook en su propio drive. Después deberán compartirnos el enlace con el notebook completo.

La entrega consiste en el notebook de Python con los algoritmos completos y los resultados. La fecha límite de entrega es el  26 de junio a las 23:59, según el reloj de mi videocasetera. Envíennos el link a los cinco docentes de la práctica.

Formen grupos de tres personas, eventualmente de 2 y de 4. Si alguien no consiguió asociarse, comuníquense por mail conmigo y los pongo en contacto.

Cuando tengan el notebook funcionando, divídanse el trabajo para aprovechar el tiempo de computadora. De manera realista, tienen que poder hacer todo en menos de una semana a un ritmo tranquilo. Hay casi dos semanas entre la fecha de entrega y el segundo parcial. Aprovechen esta semana para hacer la práctica computacional. Después de hoy, no vamos a tener prácticas hasta el 24

Clase práctica del 10 de junio

[Aquí] pueden bajar las notas de clase de la práctica de ayer, con las decepcionantes aproximaciones de campo medio de complejidad creciente y mejoras minúsculas. Decepcionantes en ese sentido. El solo hecho de predecir magnetización espontánea es un paso fundamental. Fundamental en ese sentido, pero decepcionante en el sentido de que no obtuvimos la transición de fase como una singularidad en las funciones termodinámicas, a través de la función de partición y del límite termodinámico, sino de una manera más bien ad hoc.

¿Matan las pulgas a sus pulgas con matapulgas?


¿Matan las pulgas a sus pulgas con matapulgas? Y ¿sueñan los androides con ovejas eléctricas? Tanto el título de la novela de Philip K. Dick (que inspiró a la película Blade Runner), como un famoso poema de Jonathan Swift, exploran la idea de la repetición en diferentes grados o escalas. En la novela de Philip Dick los humanos crean a los androides, y los androides sueñan como los humanos pero con ovejas eléctricas. En el poema de Swift, las pulgas tiene pulgas más pequeñas que se alimentan de ellas, que a su vez también tienen sus pulgas:

So, naturalists observe, a flea
has smaller fleas that on him prey;
and these have smaller still to bite ‘em,
and so proceed ad infinitum.

Jonathan Swift, On poetry: A rhapsody (1733).

Maurits Escher exploró una idea similar en su xilografía Más y más pequeño (1956), en la que un patrón de reptiles se repite hasta alcanzar tamaños infinitamente pequeños y números infinitamente grandes:

Sorprendentemente, en ausencia de campo magnético externo y cerca de la temperatura crítica (Tc) en la cual se pierde la magnetización permanente, el modelo de Ising en dos dimensiones presenta estructuras similares, que se repiten en diferentes escalas. Algo de esto vimos hoy en un caso patológico, el caso unidimensional, en el que la longitud de correlación entre pares de espines diverge para la temperatura tendiendo a cero. Y en la próxima clase comenzarán a estudiar este comportamiento usando simulaciones en dos dimensiones. Mientras tanto, veamos un video que muestra un barrido del sistema en función de la temperatura, en el entorno cercano a la temperatura crítica:


La barra de colores de la derecha muestra la temperatura (normalizada por la temperatura crítica). Al principio del video (T > Tc) el sistema no tiene magnetización permanente. En la mitad del video (T ≈ Tc, cerca del minuto 0:50) se observan islas magnéticas de tamaños muy diferentes y con bordes rugosos. Y finalmente, hacia el final del video (T < Tc) se observan islas muy grandes, con el tamaño característico del dominio, y con bordes más suaves.

Cerca de la temperatura crítica, la presencia de islas de diferentes tamaños vuelve al sistema invariante de escala, como las pulgas del poema de Jonathan Swift, o como los reptiles en la xilografía de Maurits Escher (aunque en el caso del modelo de Ising, los patrones están más desordenados). Esto está muy bien ilustrado en el siguiente video, que muestra un estado del modelo de Ising con 1,7×1010 nodos, cerca de Tc. Al principio el video muestra lo que parecen ser cuatro realizaciones independientes del modelo de Ising, pero en realidad son partes más chicas de la simulación completa:


La multiplicación de los panes y las matrices

El miércoles pasado mostramos en la clase de práctica algo que resultó novedoso para muchos: la multiplicación de matrices sin usar dibujitos. Eso no debería haber sucedido. [Aquí] pueden bajar las notas de clase, con los problemas que resolvimos de la Guía 7. El método de la matriz de transferencia es muy poderoso, en especial la idea de que el límite termodinámico está dominado por el mayor autovalor de una cierta matriz.

Deus ex machina


Ex Machina (disponible en Netflix) es una película de 2014 con algunos giros de tuerca inquietantes alrededor de la idea de construir máquinas con inteligencia artificial. Y, sorprendentemente, los temas de esta materia tienen una relación cercana con este problema. El premio Nobel de Física 2021 fue otorgado a Giorgio Parisi, Syukuro Manabe y Klaus Hasselmann por contribuciones fundamentales a la comprensión de los sistemas complejos. Y en particular, la mitad del premio Nobel fue para Giorgio Parisi, entre otras cosas, por sus aportes al estudio de los vidrios de spin. Los vidrios de spin son un modelo sencillo para sistemas magnéticos amorfos, un caso en cierto sentido más general que el de los modelos de Ising que estamos considerando en el curso.

Ustedes podrán preguntarse qué relación hay entre vidrios de spin e inteligencia artificial. Comencemos por un problema más sencillo (o tal vez mucho más difícil): el juego de Go. El Go es un juego de mesa, pariente del ajedrez, en el que dos jugadores ponen piedras blancas o negras en turnos, en cualquier lugar del tablero, en una cuadrícula de 19×19 puntos. El objetivo del juego es rodear la mayor cantidad de territorio posible con las piedras del color del jugador.

Las reglas son muy sencillas: (1) Una piedra sin libertades (es decir, completamente rodeada por piedras del color opuesto) es capturada y removida del tablero. (2) No se pueden hacer jugadas que recreen la situación previa del tablero. Y (3) cuando un jugador pasa su turno dos veces seguidas, el juego termina. A pesar de esta simpleza (o tal vez como resultado de la misma), es un juego muy complejo. El número de posiciones legales en el tablero es mayor a 10170 , muchísimo más grande que en el ajedrez, y más grande que el número de átomos en el universo. Como resultado, los métodos para hacer que computadoras jueguen al Go calculando todas las jugadas posibles (como se hace con el juego de ajedrez) son inviables. Así, el juego de Go resulta un desafío más que interesante para la inteligencia artificial.

Hasta hace unos años, uno de los métodos preferidos para programar computadoras para jugar al Go era aplicar el método de Montecarlo para encontrar configuraciones del tablero que minimicen la energía (o el Hamiltoniano) de un modelo de Ising que tuviera alguna relación con las reglas del juego de Go y con las condiciones para ganar una partida. Por ejemplo, un posible Hamiltoniano es el siguiente, donde si es el color de las piedras en cada posición (+1 o -1 para blanco o negro), hi es el número de libertades de la piedra i-ésima (cuantos casilleros tiene libre alrededor), PV indica que la suma se hace sobre los primeros vecinos, y μ (>0) es una “energía” que premia las configuraciones en las que las piedras propias (+1) tienen libertades (es decir, no están rodeadas):

¡De pronto el modelo de Ising encuentra aplicaciones muy lejos de la física de materiales magnéticos! Sin embargo, estos métodos resultan en programas de Go que juegan apenas tan bien como un jugador humano mediocre. Y cuando el problema de jugar bien al Go parecía inaccesible para las computadoras, Google presentó en 2016 una red neuronal profunda que le ganó a todos los grandes campeones humanos del juego.

Una red neuronal profunda es una red con muchas capas de neuronas artificiales: los datos ingresan (en la siguiente figura, por la izquierda), son multiplicados por coeficientes (llamados “pesos”) en cada conexión entre neuronas, y el resultado es procesado con alguna operación sencilla por cada neurona (que puede estar “activada” o “inactivada”). El procedimiento se repite en cada capa de neuronas, hasta que se obtiene un resultado final (por dar un ejemplo muy crudo y simplificado, ingresa el estado actual del tablero de Go y obtenemos como resultado la próxima jugada que conviene realizar):

Las redes neuronales son entrenadas con muchísimas jugadas, de forma tal de ajustar los pesos en cada una de las conexiones de las neuronas y obtener un resultado óptimo. Pero noten que la estructura de la red no es muy diferente a la de los sistemas magnéticos que estuvimos estudiando en el curso: tenemos nodos que interactúan con sus vecinos con algún coeficiente de acoplamiento, y su equilibrio corresponde al mínimo de alguna función (el error en la respuesta que obtenemos). La diferencia es que ahora esos coeficientes (los pesos) no están fijos, y pueden cambiar durante el entrenamiento.

En física ocurre algo similar en materiales magnéticos amorfos. La estructura de la red de spines en esos materiales puede ser muy compleja, y los spines pueden interactuar con otros spines muy lejanos (en la peor situación posible, pueden interactuar todos contra todos). Y los spines pueden tener coeficientes de acoplamiento diferentes para cada par, que en la siguiente figura se indican como Jij para el acomplamiento del par (i,j). La variante de los modelos de Ising que se usa para estudiar este tipo de sistemas es conocida como vidrios de spin:

Los vidrios de spin son formalmente equivalentes a un tipo particular de redes neuronales (llamadas redes de Hopfield), pero muchos de los resultados que se obtuvieron para vidrios de spin se trasladan a la teoría de redes neuronales en forma muy general. Al construir la mecánica estadística de estos sistemas, la dificultad radica en que no solo es necesario armar ensambles con copias de todos los alineamientos posibles de los spines, sino que también es necesario armar réplicas del sistema con diferentes acoplamientos Jij (ya que uno no sabe cuánto valdrán los pesos, o los acoplamientos). Parisi hizo contribuciones muy relevantes que permitieron atacar este problema, y entender propiedades generales de los estados de equilibrio.

Los vidrios de spin, dada su complejidad, no tienen un único equilibrio: tienen una variedad muy grande de equilibrios posibles, que corresponden a mínimos locales de su energía libre. Así, la mecánica estadística de los vidrios de spin también nos da información sobre a qué estados posibles puede decaer una red neuronal durante el proceso de aprendizaje, o nos permite saber que ciertas redes neuronales pueden guardar “recuerdos”, y calcular la máxima cantidad de información que puede almacenarse en esas redes en función de su estructura, del número de neuronas, y del número de conexiones entre las neuronas.