Para los que entendieron

Es un gran hallazgo de la mecánica estadística el descubrimiento de que la transformación de cirujano en hechicero supremo es una transición de fase crítica de segundo orden.

La semana próxima empezamos con grupo de renormalización. Veremos los temas que doy usualmente en la materia, y algunos temas nuevos. Con instrucciones para que alguno de ustedes pueda convertirse en hechicera o hechicero. Y como estamos llegando a hacer la última guía de trabajos prácticos con tiempo, tengan en cuenta que grupo de renormalización va a entrar en el parcial.

Abre tu ojo


Propuse varias soluciones; todas, insuficientes. Las discutimos; al fin, Stephen Albert me dijo:
- En una adivinanza cuyo tema es el ajedrez ¿cuál es la única palabra prohibida? Reflexioné un momento y repuse:
- La palabra ajedrez.
- Precisamente —dijo Albert—. El jardín de los senderos que se bifurcan es una enorme adivinanza, o parábola, cuyo tema es el tiempo; esa causa recóndita le prohíbe la mención de su nombre.

Jorge Luis Borges, El jardín de los senderos que se bifurcan (1941).

Si este post fuera una adivinanza, no podríamos mencionar la palabra “autosemejanza”. Vamos a hablar de fractales y de senderos que se bifurcan. Los fractales son objetos matemáticos que, por construcción, son invariantes de escala (es decir, se prescriben con un conjunto de reglas, usualmente recursivas, que generan una figura o un conjunto autosemejante). Es importante notar que el fenómeno de autosemejanza que se observa en los sistemas físicos cerca del punto crítico no se genera de esta forma, con pasos que se repiten infinitamente. Y en este sentido, los fractales no nos pueden brindar una explicación a la causa de la invariancia de escala. Sin embargo, como objetos matemáticos, pueden servir para estudiar propiedades generales de sistemas que son invariantes de escala, para generar datos sintéticos que tengan esta propiedad (como para generar terrenos o texturas que parezcan realistas en videojuegos), o para crear métodos para cuantificar la posible autosemejanza de un conjunto de datos.

Uno de los ejemplos más sencillos y conocidos está dado por el conjunto de Cantor. Se construye tomando el segmento [0,1], partiéndolo en 3, y removiendo el segmento del medio. Esto nos deja dos nuevos segmentos: [0,1/3] y [2/3,1]. La operación se repite en cada uno de los nuevos segmentos. La figura a continuación muestra el resultado de repetir este procedimiento diez veces (hagan click en la imagen para ver un zoom):

En términos coloquiales, un fractal es una figura construida con pequeñas partes que son similares a la figura completa, en cualquier escala en la que se observe. La construcción recursiva del fractal (que puede ser determinista, o tener componentes aleatorias) asegura que la figura resultante sea autosemejante. Y su “fractalidad” puede cuantificarse de diferentes formas; por ejemplo, calculando funciones de correlación y sus exponentes críticos. O calculando la dimensión fractal o la dimensión de Hausdorff, que están relacionadas con el exponente crítico de la función de correlación a dos puntos.

El término “fractal” fue introducido por Benoit Mandelbrot, que formalizó varias ideas previas de otros matemáticos (especialmente, durante el siglo XX, de Lewis Fry Richardson, que también hizo contribuciones importantes a la meteorología y a la turbulencia). Y fueron usados por Mandelbrot para, entre otras aplicaciones, calcular el perímetro de regiones costeras. Aunque la costa irregular de un país no es generada por una persona que repite reglas como en el conjunto de Cantor (pero en The hitchhiker’s guide to the galaxy pueden opinar distinto), calcular la dimensión fractal de la costa permite obtener buenas estimaciones de la longitud de curvas muy rugosas, y en ciento sentido, autosemejantes. Los que estén interesados en los detalles pueden leer el paper (lindo, clásico, y muy breve) de Mandelbrot sobre este tema:

De la misma forma que conocer la longitud de correlación en el modelo de Ising nos permite inferir propiedades del tamaño de los dominios magnéticos, estimar la dimensión fractal le permitió a Mandelbrot resolver una aparente paradoja al intentar calcular la longitud de curvas autosemejantes: al medir la longitud de una costa, cuanto más detalle se tiene sobre su forma, más aumenta su longitud.

Los fractales también pueden generar imágenes visualmente interesantes, como el famoso conjunto de Mandelbrot:

Los que estén interesados en generar fractales con Python pueden ver los siguientes links con instrucciones paso a paso (recomiendo fuertemente el primero), y muchos ejemplos de códigos que pueden cortar y pegar en sus computadoras o en un Google Colab:

Como mencioné más arriba, los fractales pueden tener componentes aleatorias. Y aunque los fractales no brindan una explicación a la causa de la autosemejanza en ciertos sistemas naturales, pueden ser usados para caracterizarla. Además, cumplen teoremas muy interesantes que nos permiten descubrir relaciones sorprendentes entre procesos autosemejantes. Por ejemplo, los ceros de un camino al azar unidimensional de tiempo contínuo (es decir, cada vez que el caminante al azar vuelve a pasar por su punto de origen) forman un conjunto fractal. Esto tiene que ver con otro teorema muy extraño que se aplica a un proceso llamado evolución de Schramm-Loewner: una curva al azar en dos dimensiones que sea invariante conforme (una forma más fuerte de la invariancia de escala, en la que la curva no es solo invariante frente a cambios de escala, sino también invariante frente a transformaciones que preserven los ángulos localmente) tiene una relación directa con un proceso de movimiento browniano en una dimensión. Este teorema puede usarse para calcular exponentes críticos en modelos de Ising y de percolación en dos dimensiones, a partir de propiedades del movimiento browniano unidimensional que vimos al principio del curso. ¡Todo se conecta con todo! De pronto, un tema de esta materia viajó al pasado y tuvo un hijo.

¡Se viene el Criticalpalooza!


Llegó el festival anual psicodélico de la criticalidad en la física y en áreas afines, cada año actualizado con papers más y más recientes. Tenemos entradas para ver ejemplos de fenómenos críticos en física de materiales, sistemas biológicos, fluidos, cosmología, y hasta en neurociencias. Los links de bandas que tocaron en un festival de nombre similar llevan a videos en YouTube. Y ahora sí, criticalidad y autosemejanza:

Comencemos con el lineup. En el escenario principal, después de Guns N’ Roses, tenemos dos ejemplos de física de materiales y materia condensada. Ya conocemos las transiciones de fase asociadas a los cambios de estado de la materia (sólido, líquido y gaseoso). ¡Pero existen muchos más cambios de fase! Así que veamos el show de bandas menos conocidas (y con ejemplos recientes de publicaciones en física). Primero tenemos a los cristales líquidos. Los cristales líquidos están formados por moleculas anisótropas (generalmente alargadas, por ejemplo con forma de largos cilindros), por lo que se comportan con propiedades intermedias entre los líquidos y los sólidos de acuerdo a en que dirección del material se aplican los esfuerzos. Y tienen al menos dos fases: en la fase nemática (a mayor temperatura) las moléculas están más desordenadas, pero se alinean a lo largo de sus ejes principales. En cambio, en la fase esméctica (a menor temperatura) las moléculas se acomodan en capas más ordenadas, y dentro de cada capa las moléculas están inclinadas con el mismo ángulo. El cambio entre ambas fases es una transición de fase con propiedades críticas. Los interesados pueden mirar un paper reciente (Gim, Beller & Yoon, Nat. Commun. 8, 15453, 2017), donde encontrarán esta figura alucinante con cambios morfológicos del material durante la transición (para temperatura creciente, de izquierda a derecha):

También pueden mirar este paper (el preprint de acceso libre está disponible acá) en el que los autores demuestran la existencia de una fase nemática en un modelo de cristales líquidos formados por barras en una red bidimensional. Y los que quieran leer otro ejemplo de transiciones de fase en materiales, pueden mirar este artículo sobre transiciones sólido-sólido que ocurren por cambios en la forma de partículas coloidales.

Vayamos a otro escenario del Criticalpalooza, y mientras escuchamos The Flaming Lips, veamos ejemplos recientes de transiciones de fase y autosemejanza observados en sistemas biológicos. Ciertas células cambian sus patrones de movimiento de acuerdo a la densidad de células en su entorno. A baja densidad muestran un movimiento desordenado, mientras que a alta densidad muestran patrones de movimiento colectivo y ordenado. La transición entre ambos comportamientos ocurre como una transición de fase. Pueden ver un ejemplo en Szabó et al., Phys. Rev. E 74, 061908 (2006) (el preprint está diponible en este link). La siguiente figura, de ese paper, muestra los patrones de movilidad al aumental la densidad de las células (de izquierda a derecha). Noten el cambio en el orden del sistema:

Los que tengan interés por ver más aplicaciones en biofísica, pueden mirar también un paper sobre fenómenos críticos en membranas lípidas (¡donde estiman exponentes críticos!).

En el mismo escenario donde toca Metallica tenemos una variedad de fenómenos autosemejantes que se observan en fluidos. El más conocido es el fenómeno de la turbulencia, que es heavy metal. Los fluidos más viscosos (donde la viscosidad se mide con un número adimensional, el número de Reynolds) fluyen en forma ordenada y laminar. Pero al aumentar el número de Reynolds (y reducirse la importancia de la viscosidad), generan flujos muy desordenados que tienen propiedades de invariancia de escala. En la siguiente figura, noten como zooms sucesivos en el flujo parecen repetir los patrones (algo similar a lo que vimos en el modelo de Ising en 2D):

Esta es una transición extraña, porque los flujos turbulentos tienen propiedades de criticalidad y autosemejanza, pero son un sistema fuera del equilibrio. Pueden ver más imágenes de flujos turbulentos aquí. Y pueden ver un ejemplo de una transición de fase en turbulencia en un condensado de Bose-Einstein en este paper.

Los que tengan interés por cosmología pueden ir al escenario donde tocan Empire of the Sun y Lee Smolin, y leer este artículo donde se discuten diversos problemas (como la formación de galaxias espirales, la estructura de gran escala del universo, o el universo temprano) desde el punto de vista de fenómenos críticos. Bastante más difícil de leer, pero que sirve como ilustración, es este paper donde se estudia una transición de fase al compactificar una dimensión en teorías de gravedad (compactificar es “enrollar” una dimensión sobre si misma, y hacer tender ese “rollo” a cero). Y en cosmología, algunas teorías predicen que otra transición de fase podría haber ocurrido en el universo temprano, cuando se formaron los primeros átomos. Luego de ese momento el universo se volvió transparente, pero antes de ese instante el universo puede haber sido opalescente en forma crítica (como la mezcla de un líquido y un gas cuando llega a la temperatura crítica y dejan de existir las diferencias entre ambas fases, como se ve en la foto del centro en esta imágen de una mezcla de etano líquido y gaseoso tomada de Wikipedia):

Ya que estamos en el festival, no nos olvidemos de ir a ver las bandas clásicas. El mecanismo de Higgs por el cual los bosones de gauge adquieren masa, es también un mecanismo de ruptura espontánea de la simetría.

Para cerrar el festival, este Criticalpalooza no tendrá a The Strokes, pero tiene ejemplos de fenómenos críticos en el cerebro (¿lo entendieron?). Las funciones cognitivas involucran procesos que van desde las neuronas individuales hasta regiones grandes del cerebro, y en los últimos años se encontró evidencia creciente de que el cerebro funciona en el borde entre el orden y el desorden, con propiedades de fenómenos críticos. Los interesados en ver ejemplos de criticalidad y autosemejanza en el cerebro pueden mirar este paper o este paper. O, si quieren mirar dos papers más recientes, pueden ver este paper publicado en Science Advances o este paper escrito por varios investigadores del Departamento de Física. Ambos tienen gráficos que muestran cómo se calculan los exponentes críticos en este sistema. La siguiente imagen, tomada de Cochi et al., Progress in Neurobiology 158, 132 (2017) (el primero de los cuatro papers) también es bastante sugerente:

¿Matan las pulgas a sus pulgas con matapulgas?


¿Matan las pulgas a sus pulgas con matapulgas? Y ¿sueñan los androides con ovejas eléctricas? Tanto el título de la novela de Philip K. Dick (que inspiró a la película Blade Runner), como un famoso poema de Jonathan Swift, exploran la idea de la repetición en diferentes grados o escalas. En la novela de Philip Dick los humanos crean a los androides, y los androides sueñan como los humanos pero con ovejas eléctricas. En el poema de Swift, las pulgas tiene pulgas más pequeñas que se alimentan de ellas, que a su vez también tienen sus pulgas:

So, naturalists observe, a flea
has smaller fleas that on him prey;
and these have smaller still to bite ‘em,
and so proceed ad infinitum.

Jonathan Swift, On poetry: A rhapsody (1733).

Maurits Escher exploró una idea similar en su xilografía Más y más pequeño (1956), en la que un patrón de reptiles se repite hasta alcanzar tamaños infinitamente pequeños y números infinitamente grandes:

Sorprendentemente, en ausencia de campo magnético externo y cerca de la temperatura crítica (Tc) en la cual se pierde la magnetización permanente, el modelo de Ising en dos dimensiones presenta estructuras similares, que se repiten en diferentes escalas. Algo de esto vimos hoy en un caso patológico, el caso unidimensional, en el que la longitud de correlación entre pares de espines diverge para la temperatura tendiendo a cero. Y en la próxima clase comenzarán a estudiar este comportamiento usando simulaciones en dos dimensiones. Mientras tanto, veamos un video que muestra un barrido del sistema en función de la temperatura, en el entorno cercano a la temperatura crítica:


La barra de colores de la derecha muestra la temperatura (normalizada por la temperatura crítica). Al principio del video (T > Tc) el sistema no tiene magnetización permanente. En la mitad del video (T ≈ Tc, cerca del minuto 0:50) se observan islas magnéticas de tamaños muy diferentes y con bordes rugosos. Y finalmente, hacia el final del video (T < Tc) se observan islas muy grandes, con el tamaño característico del dominio, y con bordes más suaves.

Cerca de la temperatura crítica, la presencia de islas de diferentes tamaños vuelve al sistema invariante de escala, como las pulgas del poema de Jonathan Swift, o como los reptiles en la xilografía de Maurits Escher (aunque en el caso del modelo de Ising, los patrones están más desordenados). Esto está muy bien ilustrado en el siguiente video, que muestra un estado del modelo de Ising con 1,7×1010 nodos, cerca de Tc. Al principio el video muestra lo que parecen ser cuatro realizaciones independientes del modelo de Ising, pero en realidad son partes más chicas de la simulación completa:


Deus ex machina


Ex Machina (disponible en Netflix) es una película de 2014 con algunos giros de tuerca inquietantes alrededor de la idea de construir máquinas con inteligencia artificial. Y, sorprendentemente, los temas de esta materia tienen una relación cercana con este problema. El premio Nobel de Física 2021 fue otorgado a Giorgio Parisi, Syukuro Manabe y Klaus Hasselmann por contribuciones fundamentales a la comprensión de los sistemas complejos. Y en particular, la mitad del premio Nobel fue para Giorgio Parisi, entre otras cosas, por sus aportes al estudio de los vidrios de spin. Los vidrios de spin son un modelo sencillo para sistemas magnéticos amorfos, un caso en cierto sentido más general que el de los modelos de Ising que estamos considerando en el curso.

Ustedes podrán preguntarse qué relación hay entre vidrios de spin e inteligencia artificial. Comencemos por un problema más sencillo (o tal vez mucho más difícil): el juego de Go. El Go es un juego de mesa, pariente del ajedrez, en el que dos jugadores ponen piedras blancas o negras en turnos, en cualquier lugar del tablero, en una cuadrícula de 19×19 puntos. El objetivo del juego es rodear la mayor cantidad de territorio posible con las piedras del color del jugador.

Las reglas son muy sencillas: (1) Una piedra sin libertades (es decir, completamente rodeada por piedras del color opuesto) es capturada y removida del tablero. (2) No se pueden hacer jugadas que recreen la situación previa del tablero. Y (3) cuando un jugador pasa su turno dos veces seguidas, el juego termina. A pesar de esta simpleza (o tal vez como resultado de la misma), es un juego muy complejo. El número de posiciones legales en el tablero es mayor a 10170 , muchísimo más grande que en el ajedrez, y más grande que el número de átomos en el universo. Como resultado, los métodos para hacer que computadoras jueguen al Go calculando todas las jugadas posibles (como se hace con el juego de ajedrez) son inviables. Así, el juego de Go resulta un desafío más que interesante para la inteligencia artificial.

Hasta hace unos años, uno de los métodos preferidos para programar computadoras para jugar al Go era aplicar el método de Montecarlo para encontrar configuraciones del tablero que minimicen la energía (o el Hamiltoniano) de un modelo de Ising que tuviera alguna relación con las reglas del juego de Go y con las condiciones para ganar una partida. Por ejemplo, un posible Hamiltoniano es el siguiente, donde si es el color de las piedras en cada posición (+1 o -1 para blanco o negro), hi es el número de libertades de la piedra i-ésima (cuantos casilleros tiene libre alrededor), PV indica que la suma se hace sobre los primeros vecinos, y μ (>0) es una “energía” que premia las configuraciones en las que las piedras propias (+1) tienen libertades (es decir, no están rodeadas):

¡De pronto el modelo de Ising encuentra aplicaciones muy lejos de la física de materiales magnéticos! Sin embargo, estos métodos resultan en programas de Go que juegan apenas tan bien como un jugador humano mediocre. Y cuando el problema de jugar bien al Go parecía inaccesible para las computadoras, Google presentó en 2016 una red neuronal profunda que le ganó a todos los grandes campeones humanos del juego.

Una red neuronal profunda es una red con muchas capas de neuronas artificiales: los datos ingresan (en la siguiente figura, por la izquierda), son multiplicados por coeficientes (llamados “pesos”) en cada conexión entre neuronas, y el resultado es procesado con alguna operación sencilla por cada neurona (que puede estar “activada” o “inactivada”). El procedimiento se repite en cada capa de neuronas, hasta que se obtiene un resultado final (por dar un ejemplo muy crudo y simplificado, ingresa el estado actual del tablero de Go y obtenemos como resultado la próxima jugada que conviene realizar):

Las redes neuronales son entrenadas con muchísimas jugadas, de forma tal de ajustar los pesos en cada una de las conexiones de las neuronas y obtener un resultado óptimo. Pero noten que la estructura de la red no es muy diferente a la de los sistemas magnéticos que estuvimos estudiando en el curso: tenemos nodos que interactúan con sus vecinos con algún coeficiente de acoplamiento, y su equilibrio corresponde al mínimo de alguna función (el error en la respuesta que obtenemos). La diferencia es que ahora esos coeficientes (los pesos) no están fijos, y pueden cambiar durante el entrenamiento.

En física ocurre algo similar en materiales magnéticos amorfos. La estructura de la red de spines en esos materiales puede ser muy compleja, y los spines pueden interactuar con otros spines muy lejanos (en la peor situación posible, pueden interactuar todos contra todos). Y los spines pueden tener coeficientes de acoplamiento diferentes para cada par, que en la siguiente figura se indican como Jij para el acomplamiento del par (i,j). La variante de los modelos de Ising que se usa para estudiar este tipo de sistemas es conocida como vidrios de spin:

Los vidrios de spin son formalmente equivalentes a un tipo particular de redes neuronales (llamadas redes de Hopfield), pero muchos de los resultados que se obtuvieron para vidrios de spin se trasladan a la teoría de redes neuronales en forma muy general. Al construir la mecánica estadística de estos sistemas, la dificultad radica en que no solo es necesario armar ensambles con copias de todos los alineamientos posibles de los spines, sino que también es necesario armar réplicas del sistema con diferentes acoplamientos Jij (ya que uno no sabe cuánto valdrán los pesos, o los acoplamientos). Parisi hizo contribuciones muy relevantes que permitieron atacar este problema, y entender propiedades generales de los estados de equilibrio.

Los vidrios de spin, dada su complejidad, no tienen un único equilibrio: tienen una variedad muy grande de equilibrios posibles, que corresponden a mínimos locales de su energía libre. Así, la mecánica estadística de los vidrios de spin también nos da información sobre a qué estados posibles puede decaer una red neuronal durante el proceso de aprendizaje, o nos permite saber que ciertas redes neuronales pueden guardar “recuerdos”, y calcular la máxima cantidad de información que puede almacenarse en esas redes en función de su estructura, del número de neuronas, y del número de conexiones entre las neuronas.

Síndrome del fluido normal


“¡Todos pueden ser súper! ¡Y cuando todos sean súper, nadie lo será!” La película Los increíbles (2004) tiene a uno de los villanos más interesantes de las películas de superhéroes. Syndrome no busca dominar al mundo, no desea poder o dinero. Desea que todos sean iguales, y que los superhéroes dejen de ser especiales. ¿Eso es algo bueno, no? ¿Por qué Syndrome sería entonces un villano? Sin embargo, al ver la película, algo parece incorrecto (y casi perverso) en pedirle a Dash con sus 10 años que no participe en el equipo de atletismo de su escuela porque sería excepcional. La película, que a primera vista parece un simple pasatiempo, plantea una discusión interesante sobre la excepcionalidad, la igualdad, y el festejo de la mediocridad.

Los superfluidos son excepcionales. Y algunas de las cosas que hacen son realmente increíbles. Un superfluido es un fluido que fluye sin viscosidad, lo que les permite atravesar canales muy delgados o medios porosos (por los que un fluido viscoso no podría pasar), o trepar por las paredes del recipiente que los contiene. El fenómeno de superfluidez se debe a la formación, a temperaturas muy bajas, de un condensado de Bose-Einstein en el que una fracción de los átomos que formal el fluido (usualmente Helio-4) dejan de tener agitación térmica (sin embargo, la teoría de condensados que vimos en clase corresponde a gases débilmente interactuantes, mientras que el Helio-4 superfluido es un líquido, con una energía potencial de interacción entre sus átomos que no es despreciable). El fenómeno está relacionado también con el de superconductividad.

El siguiente video, corto y muy recomendable, y que vimos rápidamente en clase, muestra varias de las propiedades más llamativas de los superfluidos, como la capacidad de trepar por las paredes de un recipiente, o el “efecto fuente”:


Luego pueden ver un video mas reciente (en castellano) con experimentos de vórtices cuantizados en He-4 superfluido. Como vimos en clase, el hecho de que los bosones que forman el superfluido sean indistinguibles hace que los vórtices en el flujo no puedan rotar a cualquier velocidad, y que su circulación se cuantice. Las lineas blancas sobre fondo negro que se ven en los primeros 5 segundos del video son vórtices cuantizados observados en el laboratorio:


Para los que quieran leer mas sobre He-4 superfluido, les aconsejo leer el siguiente trabajo de Richard Feynman. Aunque es un poco antiguo y la interpretación actual de los rotones es diferente a la planteada en el artículo, muchas de las especulaciones que hace Feynman fueron mas tarde confirmadas en experimentos:

Este trabajo tiene una historia interesante atrás. Feynman presentó, antes de escribir el artículo, sus resultados en un congreso al que asistió Lars Onsager (que era famoso en el área). Feynman estaba bastante orgulloso de si mismo (por estos resultados, pero también se encontraba en ese estado la mayor parte del tiempo), y Onsager decidió darle una lección. La narración completa la pueden encontrar en “Surely You’re Joking, Mr. Feynman!“, pero en palabras de Feynman es más o menos así:

“Bueno, Feynman”, dijo Onsager con voz ronca, “escuché que crees que has entendido el helio líquido”.
“Bueno, sí…”
“Umm…” ¡Y eso fue todo lo que me dijo durante toda la cena! No fue muy estimulante.

Al día siguiente di mi charla, y expliqué todo sobre el helio líquido. Al final, mencioné que había algo que todavía no había logrado entender: si la transición entre una fase y la otra del helio líquido era de primer orden (como cuando un sólido se derrite o un líquido hierve, y la temperatura se mantiene constante) o de segundo orden (como ocurre en el magnetismo, donde la temperatura puede cambiar).

Entonces el profesor Onsager se levantó y dijo duramente: “Bueno, el profesor Feynman es nuevo en nuestra área, y creo que necesita ser educado. Hay algo que tiene que aprender y que debemos decirle”.
Pensé: “¡Oh no! ¿Qué hice mal?”
Onsager dijo: “Deberíamos decirle a Feynman que nadie ha podido obtener el orden de una transición a partir de primeros principios, por lo que el hecho de que su teoría no le permita calcular eso no significa que no haya entendido todo los otros aspectos del helio líquido satisfactoriamente”. Resultó ser un cumplido, pero por la forma en que comenzó, ¡pensé que me iba a dar una paliza!

Aunque Onsager probablemente nos daría una paliza, en nuestro grupo de investigación trabajamos (entre otros temas) en el estudio de flujos y turbulencia en superfluidos y en condensados de Bose-Einstein. En los dos primeros links pueden ver algunas imágenes y videos de simulaciones que hicimos de vórtices cuantizados. Para los mas curiosos (o valientes), en el tercer link les dejo un paper que publicamos hace unos años sobre viscosidad en superfluidos a temperatura finita; el paper usa muchas herramientas de la materia como el ensamble gran-canónico, el potencial químico, fonones y relaciones de dispersión, y teoría cinética y camino libre medio:

Eres Arnold y no lo sabes


Todos los cuerpos absorben radiación electromagnética, y emiten espontáneamente una parte en forma de radiación en equilibrio térmico con el cuerpo (es decir, como fotones a la misma temperatura que la fuente térmica). Esa es la radiación de cuerpo negro. Arnold Schwarzenegger sabe mucho sobre esto, y se cubre en barro frío cada vez que tiene que luchar contra un depredador, porque estos aliens pueden ver la radiación emitida por su cuerpo. Pero todos emitimos esta radiación, no solo Arnold (la radiación no depende de cuantas horas pasemos en el gimnasio). Así que en este post vamos a ver cómo esto se puede usar para saber qué temperatura tienen las personas en los aeropuertos, y también para saber qué temperatura tiene el universo.

¿En qué longitud de onda emite radiación de cuerpo negro una persona a 36 grados Celsius? A partir del espectro de Planck se puede ver que la máxima emisión ocurre para una longitud de onda que sigue la ley de Wien,

donde b = 2898 μm K. Noten que esto significa que al cambiar la temperatura del cuerpo, cambia el “color” de la radiación electromagnética emitida, ya que el color depende del espectro emitido (y fuertemente de en qué longitud de onda está el pico del espectro). Entonces ¿en qué longitud de onda debe observar una cámara para detectar este tipo de radiación? Para 36 grados Celsius, T= 309 K, y λmax ≈ 9.4 μm. De hecho, si variamos la temperatura entre 30 y 40 grados Celsius, el máximo del espectro varía respectivamente entre 9.56 y 9.26 μm (o entre 9560 y 9260 nm). Esto corresponde a radiación electromagnética infraroja. ¡Así que mirando los colores en una cámara infrarroja podemos estimar la temperatura de los cuerpos! Y así también sabemos en qué región del espectro electromagnético funcionan los ojos del depredador que persigue a Schwarzenegger:

Sabiendo esto, ¿a qué temperatura se encuentra la radiación cósmica de fondo? Estamos rodeados por radiación electromagnética de cuerpo negro que fue emitida en el momento en que se formaron los primeros átomos en el universo, y que llega a nosotros proveniente de todas las direcciones. Esta radiación corresponde a fotones que se desacoplaron de la materia en la época de recombinación: el momento en que la temperatura del universo bajó lo suficiente como para que protones y electrones pudieran combinarse formando átomos de hidrógeno (eléctricamente neutros), aproximadamente 370.000 años luego del Big Bang, y cuando el universo estaba una temperatura media de unos 3000 K. Antes, el campo electromagnético interactuaba con la materia, mientras que luego de la recombinación los fotones de la radiación cósmica de fondo dejaron de interactuar (básicamente, porque la radiación electromagnética dejó de sufrir scattering con los electrones libres). ¡Como resultado, la radiación cósmica de fondo que vemos hoy es un gas de fotones en equilibrio térmico con la materia que formaba el universo hace 13.771.700.000 años!

En 1964, Arno Penzias y Robert Wilson, realizando mediciones con una antena en los Laboratorios Bell, encontraron una extraña señal de microondas con un máximo en λmax ≈ 1 mm. Esa señal captada por la antena corresponde a este gas de fotones, mensajero del universo temprano. Usando nuevamente la ley de Wien podemos ver que esta longitud de onda corresponde a T ≈ 2.7 K (la temperatura determinada originalmente por Penzias y Wilson en 1964 era ligeramente mayor, por la incerteza experimental del instrumento). Esa temperatura corresponde a la temperatura media del gas de fotones que forma hoy la radiación cósmica de fondo. Al momento en el que la radiación se desacopló de la materia, la temperatura del gas de fotones era de 3000 K, como mencionamos antes. Pero la temperatura que medimos hoy es casi 1000 veces menor por la expansión del universo, que expandió al gas y causó una disminución de la temperatura. Porque la temperatura T de un gas de fotones cumple la ecuación que derivamos en clase,

donde U es su energía total, y V el volumen ocupado por el gas. A mayor volumen, menor temperatura.

Chandra y las enanas blancas


There’s a starman waiting in the sky,
he’d like to come and meet us
but he thinks he’d blow our minds

David Bowie, Starman (1972).

Chandra y las enanas blancas” no es el nombre de una banda de rock (¡podría serlo!). Pero el personaje principal de esta historia es el verdadero Starman, el hombre de las estrellas. Y los aportes que hizo a la física nos vuelan la mente. Esta es la historia de Subrahmanyan Chandrasekhar y un tipo muy particular de estrellas. Chandrasekhar ganó el premio Nobel en 1983 por sus estudios sobre la evolución y la estructura de las estrellas, pero su camino hasta ese premio no fue fácil. El Dr. Chandra, un personaje en 2001: A Space Odissey, lleva su nombre en homenaje a él.

Ayer vimos que la presión de degeneración en un gas de fermiones es central para explicar la estabilidad de estrellas enanas blancas (y también juega un rol en estrellas de neutrones). Una enana blanca es una estrella que quemó todo su material nuclear: una estrella como el Sol, luego de quemar todo el hidrógeno, quema material nuclear más pesado como el Helio. Para ello necesita mayor presión y temperatura en el núcleo, pero también genera mas energía en la reacción nuclear, y se expande hasta convertirse en una gigante roja. Luego de quemar todo el material disponible para la fusión, sufre una inestabilidad y expulsa buena parte de su masa. El núcleo de la estrella, que puede tener una masa equivalente a la del Sol pero comprimirse hasta un volumen como el de la Tierra, mantiene el calor residual y forma la enana blanca. La siguiente imágen muestra a Sirius B, una enana blanca, indicada por la flecha:

Si una enana blanca no quema más material nuclear, ¿qué mantiene a la estrella estable evitando el colapso gravitatorio? La respuesta es la presión de degeneración en un gas de Fermi: en la estrella la densidad de la materia es tan grande que el gas está degenerado (es decir, las funciones de onda de las diferentes partículas se superponen), y y la presión de Fermi es suficiente para contrarrestar la fuerza de gravedad. Recuerden que la presión de radiación resulta del principio de exclusión de Pauli. Es el hecho de que dos ferminones no puedan tener los mismos números cuánticos lo que evita que la estrella colapse gravitatoriamente. Algo parecido ocurre en estrellas inicialmente aún mas masivas, que pueden evolucionar a estrellas de neutrones. Finalmente, si la masa inicial de la estrella es aún mayor (más grande que la masa límite de Chandrasekhar), la presión de degeneración no es suficiente para evitar el colapso gravitatorio y se puede formar un agujero negro.

Los que quieran leer mas detalles sobre el balance de fuerzas en una estrella enana blanca pueden ver el siguiente link (9 páginas, en inglés):

Chandrasekhar reconoció la existencia de una masa límite, por encima de la cual las estrellas podían colapsar y formar agujeros negros, muy temprano en su carrera científica. Se enfrentó a diversos prejuicios raciales en Inglaterra y en Estados Unidos. Pero, al mismo tiempo, su idea sobre la existencia de una masa límite también se adelantó a la época. Cuando Chandrasekhar formuló su idea, el conocimiento sobre interiores estelares era bastante incipiente. Y por ese motivo muchos físicos y astrónomos presentaron dudas razonables a su validez. Chandrasekhar no bajó los brazos y a lo largo de varias décadas trabajó en mecánica estadística, dinámica de fluidos, relatividad general, y otros temas hasta crear una teoría muy sólida sobre la física de las estrellas. Mientras estudiaba estos fenómenos, y muchos otros, Chandrasekhar estableció las bases de lo que hoy conocemos como la teoría de interiores estelares, y sobre cómo evolucionan las estrellas en el tiempo. Las contribuciones de Chandrasekhar al estudio de interiores estelares, la evolución de las estrellas hasta la formación de enanas blancas o agujeros negros, y sus estudios de la estadística de Fermi-Dirac para explicar la estabilidad de las enanas blancas, lo llevaron a tener diversas disputas con astrónomos renombrados de la época, como Arthur Eddington. Y también, eventualmente, a ganar el premio Nobel junto con William Fowler.

La semana que viene

Esta semana tendremos varias horas de teórica, para recuperar clases de la semana pasada. El lunes solo tendremos teórica, en otra sesión maratónica pero gratificante. Para cerrar los temas de la primera mitad de la materia, y comenzar con la segunda mitad, este posteo va a tocar un tema que suscitó varias preguntas en el curso: ¿Podemos obtener la física macroscópica como un límite sistemático de la física microscópica, sin hacer aproximaciones, y en condiciones muy generales? La respuesta en general es que no, y para mostrar esto alcanza con dar un contraejemplo.

Hace unos años un grupo de científicos demostró que, para un problema físico particular, obtener ciertas propiedades macroscópicas a partir del conocimiento completo y preciso de las leyes microscópicas del sistema es indecidible. El problema particular que consideraron es el de calcular la diferencia de energía entre niveles de un semiconductor (el “gap espectral“, o la energía necesaria para mover un electrón del estado fundamental al estado excitado en un sistema con muchos electrones). El valor del gap espectral tiene un impacto en el comportamiento macroscópico del sistema: los semiconductores tienen un gap espectral y sus propiedades físicas dependen de este gap, mientras que si no existe un gap, el material sufre una transición a otro estado.

Lo que se demostró es que conociendo completamente la física microscópica del sistema cuántico, la pregunta “¿tiene el sistema un gap espectral?” es indecidible. Que este problema sea indecidible significa que es imposible construir un algoritmo general que siempre nos de la respuesta correcta. Esto no significa que la pregunta no pueda contestarse, o que no pueda calcularse el valor del gap. Lo que significa es que el cálculo de esta propiedad macroscópica (aún conociendo completamente la física miscroscópica del sistema) no puede hacerse usando un único algoritmo que valga en todos los casos. En otras palabras, puede existir un algoritmo que permita obtener la respuesta para un material particular, pero que para otro material el mismo método no sirva. O, como dicen los autores del trabajo, “no puede existir un método general que permita determinar si un material descripto por la mecánica cuántica tiene un gap espectral o no”. No hay atajos elegantes. No hay una lista de casos y un algoritmo que nos permita elegir qué método usar en cada caso. Hay que hacer física.

La demostración de indecibilidad se realizó mostrando que el problema es equivalente al problema de la parada de Turing. En 1936, Turing demostró que no es posible escribir un “programa” que ejecutado en una “computadora” (técnicamente, un algoritmo en una máquina de Turing) pueda decidir si otro algoritmo terminará de ejecutarse en un número finito de pasos o no. El teorema de Turing está relacionado con otros dos teoremas famosos de Gödel, que dicen (en su forma débil) que es imposible escribir en forma algorítmica un conjunto de reglas (o axiomas) para generar la aritmética que sea a la vez correcta y completa. Noten que si el sistema es incompleto, en algún momento encontraremos algún teorema válido que no podremos probar con los axiomas que tenemos. ¡Y si es incorrecto, en algún momento podremos probar que vale cierto teorema, y también que no vale ese mismo teorema!

Los que quieran saber más pueden leer un artículo sobre el problema del gap espectral en Phys.org, o el paper original publicado en la revista Nature:

Sin embargo, noten que este resultado no implica que no podamos armar teorías físicas fundamentales, que no se pueda conocer el Hamiltoniano que describe la física básica del problema, o que no se pueda conocer si el sistema tiene un gap o no. Lo que implica es que no alcanza con saber matemática y usarla como en una “receta”, y que siempre tendremos que hacer aproximaciones o consideraciones según la física de cada sistema.

El resultado sobre la indecibilidad del problema del gap espectral es parte de varios resultados recientes que identifican problemas indecidibles o no computables en diferentes áreas de la física (tanto clásica como cuántica), y parten de una pregunta hecha en 1994 por Roger Penrose en un libro hermoso pero también polémico, en el que Penrose se pregunta si existirán problemas de este tipo en sistemas físicos. Mas allá de los detalles técnicos, los resultados pueden ser muy perturbadores para los que esperaban que el curso de mecánica estadística les permita justificar, en forma sistemática, todo lo que no comprendemos de la física macroscópica a partir de fenómenos microscópicos (¡que probablemente tampoco comprendamos muy bien!).

En cierto sentido, esto tiene una relación con la visión de las jerarquías en la física de Feynman de un posteo anterior, donde Feynman decía que es un error pensar que uno puede partir de uno de los extremos (la física microscópica) y caminar solamente desde ese extremo hacia el otro (la física macroscópica), creyendo que de esa forma se alcanzará un entendimiento completo. En esta línea de pensamiento les aconsejo fuertemente leer también este genial artículo de 1972 de Philip Anderson:

En ese artículo el señor Anderson entre otras cosas dice lo siguiente:

The ability to reduce everything to simple fundamental laws does not imply the ability to start from those laws and reconstruct the universe [...] At each stage entirely new laws, concepts, and generalizations are necessary, requiring inspiration and creativity to just as great a degree as in the previous one.

La intuición física de Feynman y de Anderson (y de muchos otros físicos) se adelantó a estos resultados más recientes y más formales. Vale aclarar que este artículo de Anderson a veces es mal interpretado. Anderson no dice que los sistemas extensos sigan nuevas leyes fundamentales, o que nuevas fuerzas fundamentales aparezcan como resultado de considerar sistemas con nuevas partículas. Pero sí dice que conocer las leyes fundamentales no es suficiente para con ellas reconstruir el universo en forma sistemática, y que al considerar cada aumento en la escala del sistema, es necesario realizar nueva investigación en física básica, e introducir nuevos conceptos, nuevas ideas y nuevas generalizaciones. Cada capa de la cebolla requiere aproximaciones nuevas, ideas ingeniosas, y mucha creatividad.

¿Y por qué el Señor Anderson insiste con esto? ¿Por qué lo hace? Porque elige hacerlo:


Eterno retorno de una configuración sin recuerdos


Ha llegado el momento de anunciar: Esta isla, con sus edificios, es nuestro paraíso privado. He tomado algunas precauciones -físicas, morales- para su defensa: creo que lo protegerán. Aquí estaremos eternamente -aunque mañana nos vayamos- repitiendo consecutivamente los momentos de la semana y sin poder salir nunca de la conciencia que tuvimos en cada uno de ellos.

Adolfo Bioy Casares, La invención de Morel (1940).

El título del posteo de hoy hace referencia a Eterno resplandor de una mente sin recuerdos, película de 2004 dirigida por Michel Gondry en base a un guión de Charlie Kaufman. Los interesados en las repeticiones pueden ver también I’m Thinking of Ending Things en Netflix (dirigida por Charlie Kaufman), y Memento o Tenet (estas dos últimas dirigidas por Christopher Nolan). También pueden leer “La invención de Morel” de Adolfo Bioy Casares. Pero sepan que la repetición eterna, como los espejos y la cópula para un heresiarca de Uqbar, es abominable (excepto tal vez para Friedrich Nietzsche). Probablemente nos parezca antinatural justamente porque nunca observamos en la naturaleza que las configuraciones de sistemas extensos se repitan exactamente de la misma forma. Esta observación fue una de críticas que Poincaré y Zermelo, entre otros, realizaron a la teoría estadística de Boltzmann. Imagino que Sísifo también tendría sus objeciones. Y a Dormammu tampoco le deben gustar las repeticiones:


En el teorema H de Boltzmann, su entropía casi siempre crece. Imaginemos un gas que ocupa la mitad de un recinto, separado en dos por un tabique. En un dado instante el tabique se retira, y el gas se expande hasta ocupar todo el recinto (con el consecuente aumento de la entropía). Dado que todas las configuraciones son equiprobables, en algún instante todas las moleculas del gas podrían estar en la primera mitad del recinto (al fin y al cabo, podríamos tener configuraciones aún más extrañas). Pero si en ese preciso instante volvemos a poner el tabique, recuperamos en forma espontánea la primera configuración, que tenía menor entropía. Este posible retorno a una configuración previa fue visto por Poincaré como un problema abominable para la teoría de Boltzmann (aunque más tarde Poincaré se convenció del valor de la teoría y se retractó).

Efectivamente, si el número de configuraciones de un gas es discreto, existe una probabilidad no nula de que vuelva espontáneamente a una configuración previa (y si las configuraciones son contínuas, de que vuelva a una configuración arbitrariamente cercana a la configuración inicial). Pero el tiempo necesario para volver a encontrar esta configuración es increíblemente largo, lo que vuelve a este escenario irrelevante a fines prácticos. Estimemos esto para un metro cúbico de aire a temperatura ambiente (T = 300 K). Vimos que el número de configuraciones Σ de un gas ideal lo podemos calcular (en el ensamble microcanónico) como

donde S es la entropía, N el número de partículas, v el volúmen específico del gas, m la masa de las partículas (mayormente moléculas de N2), k la constante de Boltzmann, y h la constante de Planck (ignoro un factor aditivo despreciable en la entropía). Usando valores típicos para estos parámetros (y considerando que v ≈ 5 x 10-29 m3), obtenemos que el número de microestados o configuraciones posibles es

¡Este es un número enorme, con más de 1025 dígitos! Asumamos ahora que las configuraciones cambian cada vez que hay un choque entre partículas. Es decir, cuando las partículas en el gas chocan, intercambian momento, y pasan de una configuración a otra. Como vimos en clase, para el aire a temperatura y presión ambiente, el tiempo entre choques es τ ≈ 10-10 s. Y si todas las configuraciones son equiprobables, podemos estimar el tiempo medio para repetir una configuración como proporcional a Σ·τ, que sigue siendo un número muy grande (un tiempo con más de 1025 dígitos, medido en segundos). ¡Como comparación, la edad del universo es de 4.3 x 1017 s, muchísimo más chica que el tiempo medio necesario para repetir la configuración de un gas en solo un metro cúbico! Por lo que el “casi siempre crece” de Boltzmann está bastante bien.

Hoy sabemos que aún en sistemas con tamaño finito, fuera del equilibro la probabilidad de que la entropía crezca es mucho más grande que la probabilidad de que la entropía disminuya. De hecho, sabemos que la razón entre estas dos probabilidades es igual a la exponencial de la variación de la entropía por el tiempo transcurrido, un número que se vuelve exponencialmente más grande a medida que la entropía del sistema crece, o que transcurre más tiempo. En el caso general este resultado se conoce como el teorema de fluctuación detallado.