Reflexión final de la teórica


Terminaron las clases teóricas de la materia. Hace tres años, durante la pandemia, decidí que un tema que no suele discutirse explícitamente en el aula (aunque sí implícitamente), debía ser discutido abiertamente. Estoy hablando de la ética científica, y de una forma de encarar y atacar los problemas que encontramos, de entender qué pueden responder nuestros conocimientos y qué no, y de aceptar nuestros errores y limitaciones. Y aquel cuatrimestre, al terminar el curso, escribí una carta a todos los estudiantes que en buena medida (pero con algunas actualizaciones considerando a este curso en particular) reproduzco a continuación.

Todavía hoy se sienten los efectos educativos de la pandemia. No voy a ocultar mi opinión sobre la importancia de la presencialidad en la educación universitaria: el aula real (como oposición al aula virtual) permite tener discusiones y una serie de preguntas y respuestas abiertas, espontáneas e impredecibles que no pueden ocurrir mirando videos online de clases grabadas. Como profesor, la presencialidad me permite saber mejor qué temas están entendiendo y cuáles no durante las explicaciones. La presencialidad expone mejor qué temas están flojos, cuáles requieren refuerzos, y cuáles se comprenden. El aula le permite a ustedes interactuar de otra forma con los docentes del curso, sacarse dudas, y corregir errores. No voy a negar la comodidad de mirar las clases desde sus casas, o de escuchar explicaciones a la hora más conveniente. La pandemia trajo cambios al aula que son valiosos, y el día que no pueden asistir a clases el material disponible online es útil para que no se atrasen. Pero hay una combinación razonable de ambas modalidades que puede funcionar para el aprendizaje, y este cuatrimestre eso se notó fuertemente.

Tan importante como esto es el hecho de que la presencialidad también permite que, solo con la gestualidad o en la forma en la que los docentes explicamos o reaccionamos a ciertas preguntas, podamos enseñar más cosas que las que aparecen en el pizarrón, o al menos intentarlo. Porque hay un conjunto importante de conocimientos que no forman parte explícita de los contenidos de las materias, pero que se aprenden informalmente, y que no pueden compartirse ni enseñarse si no se hace en forma presencial.

Existe un conjunto de normas, una ética científica, que esperamos que aprendan a lo largo de la carrera. No hay una materia específica para esto, se aprende en los pasillos, en las conversaciones con compañeros y docentes, en indicaciones mínimas que se dan en el aula. Cuando cursaron Laboratorio 1, probablemente les dijeron que nunca debían falsificar o inventar un dato. Si rindieron finales presenciales, en algún final les habrá llamado la atención que los dejaron escribir sus notas solos: esperamos que sepan que en ciencia es inaceptable copiarse. En alguna materia les habrán dicho que es importante reconocer lo que uno no sabe, o los errores que uno comete. Y en esta materia, tan vasta en sus aplicaciones, uno de los contenidos no escritos es aprender los límites de lo que sabemos, las limitaciones de las aproximaciones, y cómo aplicarlas correctamente desde nuestro lugar como físicos. A lo largo de la materia vimos, en las clases o en la página web del curso, aplicaciones en economía, en biología y epidemias, meteorología, teoría de la información, cosmología, astrofísica, dinámica de fluidos, física de altas energías, y materia condensada. Es claro que las últimas aplicaciones pertenecen al área del conocimiento abarcada por la física. Algunas de las primeras no. Las herramientas de la materia sirven para estudiar (en forma parcial) a estos temas, y no está mal que los consideremos, y que tratemos de aprender cosas nuevas. ¿Pero significa eso que sabemos de esos temas? ¿O que podemos opinar como expertos?

Hace unos pocos años, la pandemia de COVID puso al sistema científico mundial, y a muchos científicos individuales en particular, en una disyuntiva similar. Y, a tono personal, puedo deciles que creo que muchos científicos no aprobaron el examen con éxito (de hecho, algunos en Argentina y en el mundo han protagonizado papelones importantes, dañando la credibilidad general de la ciencia). Tal vez ustedes en el futuro se encuentren en una situación parecida trabajando en la academia. O se encuentren trabajando para una empresa que evalúa riesgo bursátil o cualquier otra cosa para el sector privado, o colaborando con colegas de otras áreas en grupos interdisciplinarios. La tentación de usar un conjunto de herramientas que sabemos que funcionan en muchísimos casos para opinar como expertos es grande. Pero la ciencia a lo largo de los siglos generó un conjunto de buenas prácticas que nos guían sobre cómo debemos comportarnos en esas situaciones. Y nos enseñan a defender con seguridad lo que sabemos, pero también a escuchar a los expertos de otros temas en sus áreas del conocimiento. Y sobre todo, a comunicar (tanto a nuestros colegas, como al público general) primero lo que no sabemos, para luego poder informar responsablemente lo que aprendimos.

Esto probablemente sea aún más importante para las generaciones futuras de científicos, como ustedes. Que vivamos en una sociedad moderna, con problemas complejos, y en los que la ciencia juega un rol central, no significa que la ciencia o los científicos deban ser los instauradores de la verdad. En una sociedad democrática el rol de la ciencia es (entre otros) el de presentar datos y asesorar a la sociedad en la toma de decisiones, pero no tomar decisiones por ella, ignorar la opinión de otros expertos, ubicarse en una posición de privilegio, o perder su independencia a cambio de financiación. La lucha contra las noticias falsas no puede implicar acallar las opiniones, o negarlas solo con argumentos de autoridad. Y muchos menos puede autorizarnos a jugar con las mismas reglas que los que diseminan noticias falsas, y presentar datos parciales o editados con el fin de imponer una postura, por más convencidos de su validez que estemos. Esto no significa que ustedes no puedan o deban involucrarse en causas sociales, políticas, religiosas o culturales que los interpelen. Pero es importante aclarar desde qué lugar hablan en esos casos, y no mezclar sus deseos o creencias con el trabajo que puedan hacer o con la opinión que puedan dar como científicos. También es muy importante que entendamos cómo se genera el conocimiento científico, que comprendamos que en física no hay teoremas que nos den seguridad plena porque la física es una ciencia natural, y que la forma en la que creamos teorías se inicia en la observación y la experimentación, y se verifica con la predicción y la validación de esas predicciones.

En un famoso discurso Richard Feynman dijo que esperamos que los estudiantes aprendan todo esto en las aulas “por osmosis” (y probablemente esta sea la mejor forma). Se que a algunos estudiantes poner en discusión este tipo de cosas les gusta y a otros les molesta, pero creo que una parte importante del trabajo en el aula involucra justamente esto: enseñar, con las limitaciones que cada uno de los profesores tenemos, cómo se hace ciencia, cuáles son las buenas prácticas científicas, qué cosas no se hacen, qué cosas nos preguntamos, y cuales están fuera de nuestra área del conocimiento y son conversaciones de café. Esto incluye comprender la metodología de la física, el manejo honesto de los datos, aceptar el error, aprender a no engañarnos a nosotros mismos, no exagerar la relevancia de nuestros resultados, ser cuidadosos en la comunicación de la ciencia, no usar argumentos de autoridad, y muchas otras prácticas que son centrales para sostener la credibilidad de la ciencia en general, y de nuestro trabajo en particular.

Mucho mejor que cualquier otra cosa que yo pueda escribir sobre buenas prácticas científicas es leer ese famoso discurso de Feynman. Así que les recomiendo fuertemente que lean el discurso sobre ciencias, pseudo-ciencias y ética científica que Feynman dio a los graduados de Caltech en 1974:

Aunque todo su discurso no tiene desperdicio, solo voy a resaltar cuatro párrafos que me parecen relevantes, y que traduzco a continuación:

  • Esa es la idea que esperamos que hayan aprendido al estudiar ciencias: nunca les dijimos explícitamente cuál es, pero esperamos que lo hayan descubierto a partir de todos los ejemplos de investigación científica. Es interesante, por lo tanto, mencionarla ahora y hablar de esto explícitamente. Es un tipo de integridad científica, un principio de pensamiento científico que corresponde a un tipo de honestidad absoluta, y tomando distancia. Por ejemplo, si están haciendo un experimento, deben informar todo lo que creen que podría invalidarlo, no solo lo que creen que es correcto.
  • El primer principio es que no debes engañarte a ti mismo, y eres la persona más fácil de engañar. Así que debes tener mucho cuidado con esto. Después de que no te hayas engañado, es más fácil no engañar a otros científicos.
  • Me gustaría agregar algo que no es esencial para la ciencia, pero es algo que creo: no debes engañar a la persona común cuando hablas como científico. No estoy diciendo que no engañes a tu pareja cuando no estás tratando de ser científico. Esos son problemas para ustedes y sus rabinos. Estoy hablando de un tipo específico de integridad adicional que consiste no solo en no mentir, sino en hacer el esfuerzo de tomar distancia para mostrar cómo tal vez estás equivocado, y que debes hacer cuando actúas como científico. Y esta es nuestra responsabilidad, ciertamente para con los otros científicos, y también al hablar con la gente común.
  • Así que solo tengo un deseo para ustedes: que tengan la buena suerte de estar en un lugar donde sean libres de mantener el tipo de integridad que he descrito, y donde no se sientan forzados a perder la integridad para mantener su posición en una organización, o el apoyo financiero, u otras cosas. Ojalá tengan esa libertad.

Como dijo Ben Parker, “con grandes poderes vienen grandes responsabilidades” (y admitamos que saber contar microestados tampoco es un poder tan grande). No hagan daño, sean honestos, trabajen y esfuércense, colaboren, compartan con transparencia sus datos, piensen cómo usan el método científico, no sean soberbios, no usen argumentos de autoridad ni se proclamen expertos, aclaren cuándo hablan como científicos y cuándo desde sus creencias, digan siempre explícitamente cuáles son sus conflictos de interés, y no se pongan a ustedes mismos en situaciones en las que tengan que faltar a la ética científica.

Si esta es la última Física Teórica que cursan, y si no van a hacer la materia optativa que daré el próximo cuatrimestre, es probable que no nos volvamos a encontrar en un aula (al menos mientras sean estudiantes de grado). Les agradezco la paciencia en este cuatrimestre, y espero que hayan disfrutado la materia. Para mí, es la materia más linda de toda la carrera. Y a todo el resto, espero verlos nuevamente en algún aula. Mucha suerte en el parcial, y a todos los que aprueben los veré en el examen final. Cuídense, y no defrauden nunca a la vocación que los llevó a elegir una carrera científica.

La primera regla es…


La primera regla del Club de la Pelea es que no se habla sobre el Club de la Pelea. Dirigida por David Fincher (director de Mank, disponible en Netflix), la película de 1999 consigue construir el orden (y el desorden) a lo largo de 139 minutos partiendo de 8 simples reglas. ¿Podemos explicar el orden y el desorden de las transiciones de fase y los fenómenos críticos partiendo de unas pocas reglas?

En posteos anteriores vimos que el orden (o desorden) macroscópico de un sistema no se obtiene trivialmente partiendo de las reglas físicas microscópicas que describen al sistema. El orden macroscópico puede no ser computable, o en el mejor de los casos, “more is different” y requiere nuevos métodos y aproximaciones. Por eso cuando se consiguieron explicar los fenómenos críticos con una teoría física, fue claro que se estaba realizando un gran avance en el entendimiento de los sistemas físicos extensos. De hecho, la teoría de fenómenos críticos marcó buena parte de la física de los últimos 50 años. No tiene sentido hacer una competencia entre áreas que obtuvieron más premios Nobel, o considerar que la importancia de un área de la física o de una teoría depende de si sus autores están listados entre los laureados con un premio. Hacer esto ignoraría la cantidad de resultados cruciales para la física que fueron valorados mucho más tarde, o que permearon la física tan profundamente que los olvidamos (la física tal como la conocemos no existiría sin el cálculo infinitesimal, y sin embargo, Newton es conocido popularmente por la gravedad y la manzana).

Sin embargo, hacer el ejercicio inverso sí tiene algún sentido: mirar la lista de premios Nobel da información sobre algunos temas que marcaron épocas en la física (de la misma forma que mirar la lista de selecciones que ganaron mundiales da información sobre estilos de fútbol, técnicos y jugadores que marcaron épocas). Y desde 1982 hasta la fecha, muchos premios Nobel tuvieron que ver con el desarrollo de la mecánica estadística, y con el estudio directo o indirecto de las transiciones de fase. Comencemos el repaso de estos premios con Wilson:

El uso del grupo de renormalización para comprender fenómenos críticos fue introducido en la segunda mitad del siglo 20 por Leo Kadanoff, Kenneth Wilson y Michael Fisher. Wilson ganó el premio Nobel en 1982 por su teoría de fenómenos críticos en conexión con transiciones de fase (Kadanoff y Fisher ganaron otros premios). Wilson falleció en junio de 2013, y en conmemoración de esa fecha la American Physical Society publicó en 2019 este breve artículo que resume varias de sus contribuciones:

Al final de ese artículo van a encontrar la referencia al paper original de Wilson de 1971 por el que ganó el premio Nobel. Los dos artículos de Wilson de 1971 sobre grupo de renormalización y su relación con fenómenos críticos están disponibles (con acceso abierto) en Physical Review B:

Desde 1982 a la fecha, al menos en otras siete ocasiones se entregaron premios Nobel en temas relacionados con mecánica estadística y transiciones de fase. El más reciente (en 2021) ya lo mencionamos cuando hablamos de vidrios de spin y redes neuronales, y fue para Giorgio Parisi, Klaus Hasselmann and Syukuro Manabe por sus contribuciones a la teoría de sistemas complejos. El anterior fue para David Thouless, Duncan Haldane, y Michael Kosterlitz (que estuvo conversando con estudiantes del DF hace unos años), y se otorgó en 2016 por avances teóricos en el estudio de transiciones de fases topológicas de la materia. Las transiciones de fases topológicas involucran un cambio en el orden topológico del sistema: por debajo de una temperatura crítica los “defectos” (por ejemplo, vórtices cuantizados en un superfluido en dos dimensiones) se ordenan en pares (de vórtices con signos opuestos), mientras que por arriba de dicha temperatura se encuentran solitarios y libres. Los interesados en esta transición pueden leer la descripción técnica del premio Nobel, que usa herramientas de la materia (el modelo de Ising, el parámetro de orden, y la energía libre de Landau que veremos la próxima clase):

Yendo hacia atrás en el tiempo y solo llegando en la lista hasta 1982, el premio Nobel de 2003 se entregó a avances en la teoría de superconductores y superfluidos, el de 2001 a los experimentos que obtuvieron los primeros condensados de Bose-Einstein gaseosos en el laboratorio, el de 1996 a la transición de He-3 a la fase superfluida, el de 1991 a avances en el estudio de fases ordenadas en cristales líquidos y polímeros, y el de 1987 a la observación de superconductividad en materiales cerámicos. Los interesados en algunos de estos temas pueden mirar las páginas del premio Nobel, donde encontrarán más información.

Abre tu ojo


Propuse varias soluciones; todas, insuficientes. Las discutimos; al fin, Stephen Albert me dijo:
- En una adivinanza cuyo tema es el ajedrez ¿cuál es la única palabra prohibida? Reflexioné un momento y repuse:
- La palabra ajedrez.
- Precisamente —dijo Albert—. El jardín de los senderos que se bifurcan es una enorme adivinanza, o parábola, cuyo tema es el tiempo; esa causa recóndita le prohíbe la mención de su nombre.

Jorge Luis Borges, El jardín de los senderos que se bifurcan (1941).

Si este post fuera una adivinanza, no podríamos mencionar la palabra “autosemejanza”. Vamos a hablar de fractales y de senderos que se bifurcan. Los fractales son objetos matemáticos que, por construcción, son invariantes de escala (es decir, se prescriben con un conjunto de reglas, usualmente recursivas, que generan una figura o un conjunto autosemejante). Es importante notar que el fenómeno de autosemejanza que se observa en los sistemas físicos cerca del punto crítico no se genera de esta forma, con pasos que se repiten infinitamente. Y en este sentido, los fractales no nos pueden brindar una explicación a la causa de la invariancia de escala. Sin embargo, como objetos matemáticos, pueden servir para estudiar propiedades generales de sistemas que son invariantes de escala, para generar datos sintéticos que tengan esta propiedad (como para generar terrenos o texturas que parezcan realistas en videojuegos), o para crear métodos para cuantificar la posible autosemejanza de un conjunto de datos.

Uno de los ejemplos más sencillos y conocidos está dado por el conjunto de Cantor. Se construye tomando el segmento [0,1], partiéndolo en 3, y removiendo el segmento del medio. Esto nos deja dos nuevos segmentos: [0,1/3] y [2/3,1]. La operación se repite en cada uno de los nuevos segmentos. La figura a continuación muestra el resultado de repetir este procedimiento diez veces (hagan click en la imagen para ver un zoom):

En términos coloquiales, un fractal es una figura construida con pequeñas partes que son similares a la figura completa, en cualquier escala en la que se observe. La construcción recursiva del fractal (que puede ser determinista, o tener componentes aleatorias) asegura que la figura resultante sea autosemejante. Y su “fractalidad” puede cuantificarse de diferentes formas; por ejemplo, calculando funciones de correlación y sus exponentes críticos. O calculando la dimensión fractal o la dimensión de Hausdorff, que están relacionadas con el exponente crítico de la función de correlación a dos puntos.

El término “fractal” fue introducido por Benoit Mandelbrot, que formalizó varias ideas previas de otros matemáticos (especialmente, durante el siglo XX, de Lewis Fry Richardson, que también hizo contribuciones importantes a la meteorología y a la turbulencia). Y fueron usados por Mandelbrot para, entre otras aplicaciones, calcular el perímetro de regiones costeras. Aunque la costa irregular de un país no es generada por una persona que repite reglas como en el conjunto de Cantor (pero en The hitchhiker’s guide to the galaxy pueden opinar distinto), calcular la dimensión fractal de la costa permite obtener buenas estimaciones de la longitud de curvas muy rugosas, y en ciento sentido, autosemejantes. Los que estén interesados en los detalles pueden leer el paper (lindo, clásico, y muy breve) de Mandelbrot sobre este tema:

De la misma forma que conocer la longitud de correlación en el modelo de Ising nos permite inferir propiedades del tamaño de los dominios magnéticos, estimar la dimensión fractal le permitió a Mandelbrot resolver una aparente paradoja al intentar calcular la longitud de curvas autosemejantes: al medir la longitud de una costa, cuando más detalle se tiene sobre su forma, más aumenta su longitud.

Los fractales también pueden generar imágenes visualmente interesantes, como el famoso conjunto de Mandelbrot:

Los que estén interesados en generar fractales con Python pueden ver los siguientes links con instrucciones paso a paso (recomiendo fuertemente el primero), y muchos ejemplos de códigos que pueden cortar y pegar en sus computadoras o en un Google Colab:

Como mencioné más arriba, los fractales pueden tener componentes aleatorias. Y aunque los fractales no brindan una explicación a la causa de la autosemejanza en ciertos sistemas naturales, pueden ser usados para caracterizarla. Además, cumplen teoremas muy interesantes que nos permiten descubrir relaciones sorprendentes entre procesos autosemejantes. Por ejemplo, los ceros de un camino al azar unidimensional de tiempo contínuo (es decir, cada vez que el caminante al azar vueve a pasar por su punto de origen) forman un conjunto fractal. Esto tiene que ver con otro teorema muy extraño que se aplica a un proceso llamado evolución de Schramm-Loewner: una curva al azar en dos dimensiones que sea invariante conforme (una forma más fuerte de la invariancia de escala, en la que la curva no es solo invariante frente a cambios de escala, sino también invariante frente a transformaciones que preserven los ángulos localmente) tiene una relación directa con un proceso de movimiento browniano en una dimensión. Este teorema puede usarse para calcular exponentes críticos en modelos de Ising y de percolación en dos dimensiones, a partir de propiedades del movimiento browniano unidimensional que vimos al principio del curso. ¡Todo se conecta con todo! De pronto, un tema de esta materia viajó al pasado y tuvo un hijo (¡en tu cara, famosa serie de Netflix!).

¡Cambio de planes!


Para que puedan llegar con más tiempo de consultas al segundo parcial, y considerando que tuvimos que cambiar la fecha de este parcial, hoy y la próxima clase habrá un ligero cambio en el orden de la teórica. Veremos primero grupo de renormalización (las dos últimas clases según el cronograma), y luego volveremos para atrás para ver teoría fenomenológica de Landau. ¡Nos vemos a la tarde!

¡Se viene el Criticalpalooza!


Llegó el festival anual psicodélico de la criticalidad en la física y en áreas afines. Tenemos entradas para ver ejemplos de fenómenos críticos en física de materiales, sistemas biológicos, fluidos, cosmología, y hasta en neurociencias. Los links de bandas que tocaron en un festival de nombre similar llevan a videos en YouTube. ¡Y para escuchar más música está la playlist oficial de la materia! Y ahora sí, criticalidad y autosemejanza:

Comencemos con el lineup. En el escenario principal, después de Guns N’ Roses, tenemos dos ejemplos de física de materiales y materia condensada. Ya conocemos las transiciones de fase asociadas a los cambios de estado de la materia (sólido, líquido y gaseoso). ¡Pero existen muchos más cambios de fase! Así que veamos el show de bandas menos conocidas (y con ejemplos recientes de publicaciones en física). Primero tenemos a los cristales líquidos. Los cristales líquidos están formados por moleculas anisótropas (generalmente alargadas, por ejemplo con forma de largos cilindros), por lo que se comportan con propiedades intermedias entre los líquidos y los sólidos de acuerdo a en que dirección del material se aplican los esfuerzos. Y tienen al menos dos fases: en la fase nemática (a mayor temperatura) las moléculas están más desordenadas, pero se alinean a lo largo de sus ejes principales. En cambio, en la fase esméctica (a menor temperatura) las moléculas se acomodan en capas más ordenadas, y dentro de cada capa las moléculas están inclinadas con el mismo ángulo. El cambio entre ambas fases es una transición de fase con propiedades críticas. Los interesados pueden mirar un paper reciente (Gim, Beller & Yoon, Nat. Commun. 8, 15453, 2017), donde encontrarán esta figura alucinante con cambios morfológicos del material durante la transición (para temperatura creciente, de izquierda a derecha):

También pueden mirar este paper (el preprint de acceso libre está disponible acá) en el que los autores demuestran la existencia de una fase nemática en un modelo de cristales líquidos formados por barras en una red bidimensional. Y los que quieran leer otro ejemplo de transiciones de fase en materiales, pueden mirar este artículo sobre transiciones sólido-sólido que ocurren por cambios en la forma de partículas coloidales.

Vayamos a otro escenario del Criticalpalooza, y mientras escuchamos The Flaming Lips, veamos ejemplos recientes de transiciones de fase y autosemejanza observados en sistemas biológicos. Ciertas células cambian sus patrones de movimiento de acuerdo a la densidad de células en su entorno. A baja densidad muestran un movimiento desordenado, mientras que a alta densidad muestran patrones de movimiento colectivo y ordenado. La transición entre ambos comportamientos ocurre como una transición de fase. Pueden ver un ejemplo en Szabó et al., Phys. Rev. E 74, 061908 (2006) (el preprint está diponible en este link). La siguiente figura, de ese paper, muestra los patrones de movilidad al aumental la densidad de las células (de izquierda a derecha). Noten el cambio en el orden del sistema:

Los que tengan interés por ver más aplicaciones en biofísica, pueden mirar también un paper sobre fenómenos críticos en membranas lípidas (¡donde estiman exponentes críticos!).

En el mismo escenario donde toca Metallica tenemos una variedad de fenómenos autosemejantes que se observan en fluidos. El más conocido es el fenómeno de la turbulencia, que es heavy metal. Los fluidos más viscosos (donde la viscosidad se mide con un número adimensional, el número de Reynolds) fluyen en forma ordenada y laminar. Pero al aumentar el número de Reynolds (y reducirse la importancia de la viscosidad), generan flujos muy desordenados que tienen propiedades de invariancia de escala. En la siguiente figura, noten como zooms sucesivos en el flujo parecen repetir los patrones (algo similar a lo que vimos en el modelo de Ising en 2D):

Esta es una transición extraña, porque los flujos turbulentos tienen propiedades de criticalidad y autosemejanza, pero son un sistema fuera del equilibrio. Pueden ver más imágenes de flujos turbulentos aquí. Y pueden ver un ejemplo de una transición de fase en turbulencia en un condensado de Bose-Einstein en este paper.

Los que tengan interés por cosmología pueden ir al escenario donde tocan Empire of the Sun y Lee Smolin, y leer este artículo donde se discuten diversos problemas (como la formación de galaxias espirales, la estructura de gran escala del universo, o el universo temprano) desde el punto de vista de fenómenos críticos. Bastante más difícil de leer, pero que sirve como ilustración, es este paper donde se estudia una transición de fase al compactificar una dimensión en teorías de gravedad (compactificar es “enrollar” una dimensión sobre si misma, y hacer tender ese “rollo” a cero). Y en cosmología, algunas teorías predicen que otra transición de fase podría haber ocurrido en el universo temprano, cuando se formaron los primeros átomos. Luego de ese momento el universo se volvió transparente, pero antes de ese instante el universo puede haber sido opalescente en forma crítica (como la mezcla de un líquido y un gas cuando llega a la temperatura crítica y dejan de existir las diferencias entre ambas fases, como se ve en la foto del centro en esta imágen de una mezcla de etano líquido y gaseoso tomada de Wikipedia):

Ya que estamos en el festival, no nos olvidemos de ir a ver las bandas clásicas. El mecanismo de Higgs por el cual los bosones de gauge adquieren masa, es también un mecanismo de ruptura espontánea de la simetría.

Para cerrar el festival, este Criticalpalooza no tendrá a The Strokes, pero tiene ejemplos de fenómenos críticos en el cerebro (¿lo entendieron?). Las funciones cognitivas involucran procesos que van desde las neuronas individuales hasta regiones grandes del cerebro, y en los últimos años se encontró evidencia creciente de que el cerebro funciona en el borde entre el orden y el desorden, con propiedades de fenómenos críticos. Los interesados en ver ejemplos de criticalidad y autosemejanza en el cerebro pueden mirar este paper o este paper. La siguiente imagen, tomada de Cochi et al., Progress in Neurobiology 158, 132 (2017) (el primero de los dos papers) es bastante sugerente:

¿Matan las pulgas a sus pulgas con matapulgas?


¿Matan las pulgas a sus pulgas con matapulgas? Y ¿sueñan los androides con ovejas eléctricas? Tanto el título de la novela de Philip K. Dick (que inspiró a la película Blade Runner), como un famoso poema de Jonathan Swift, exploran la idea de la repetición en diferentes grados o escalas. En la novela de Philip Dick los humanos crean a los androides, y los androides sueñan como los humanos pero con ovejas eléctricas. En el poema de Swift, las pulgas tiene pulgas más pequeñas que se alimentan de ellas, que a su vez también tienen sus pulgas:

So, naturalists observe, a flea
has smaller fleas that on him prey;
and these have smaller still to bite ‘em,
and so proceed ad infinitum.

Jonathan Swift, On poetry: A rhapsody (1733).

Maurits Escher exploró una idea similar en su xilografía Más y más pequeño (1956), en la que un patrón de reptiles se repite hasta alcanzar tamaños infinitamente pequeños y números infinitamente grandes:

Sorprendentemente, en ausencia de campo magnético externo y cerca de la temperatura crítica (Tc) en la cual se pierde la magnetización permanente, el modelo de Ising en dos dimensiones presenta estructuras similares, que se repiten en diferentes escalas. En las próximas clases comenzaremos a estudiar este comportamiento en forma teórica y usando simulaciones (también pueden explorarlo mientras hacen la práctica computacional). Pero comencemos por ver un video que muestra un barrido del sistema en función de la temperatura, en el entorno cercano a la temperatura crítica:


La barra de colores de la derecha muestra la temperatura (normalizada por la temperatura crítica). Al principio del video (T > Tc) el sistema no tiene magnetización permanente. En la mitad del video (T ≈ Tc, cerca del minuto 0:50) se observan islas magnéticas de tamaños muy diferentes y con bordes rugosos. Y finalmente, hacia el final del video (T < Tc) se observan islas muy grandes, con el tamaño característico del dominio, y con bordes más suaves.

Cerca de la temperatura crítica, la presencia de islas de diferentes tamaños vuelve al sistema invariante de escala, como las pulgas del poema de Jonathan Swift, o como los reptiles en la xilografía de Maurits Escher (aunque en el caso del modelo de Ising, los patrones están más desordenados). Esto está muy bien ilustrado en el siguiente video, que muestra un estado del modelo de Ising con 1,7×1010 nodos, cerca de Tc. Al principio el video muestra lo que parecen ser cuatro realizaciones independientes del modelo de Ising, pero en realidad son partes más chicas de la simulación completa:


Deus ex machina


Ex Machina es una película de 2014 con algunos giros de tuerca inquietantes alrededor de la idea de construir máquinas con inteligencia artificial. Y, sorprendentemente, los temas de esta materia tienen una relación cercana con este problema. El premio Nobel de Física 2021 fue otorgado a Giorgio Parisi, Syukuro Manabe y Klaus Hasselmann por contribuciones fundamentales a la comprensión de los sistemas complejos. Y en particular, la mitad del premio Nobel fue para Giorgio Parisi, entre otras cosas, por sus aportes al estudio de los vidrios de spin. Los vidrios de spin son un modelo sencillo para sistemas magnéticos amorfos, un caso en cierto sentido más general que el de los modelos de Ising que estamos considerando en el curso.

Ustedes podrán preguntarse qué relación hay entre vidrios de spin e inteligencia artificial. Comencemos por un problema más sencillo (o tal vez mucho más difícil): el juego de Go. El Go es un juego de mesa, pariente del ajedrez, en el que dos jugadores ponen piedras blancas o negras en turnos, en cualquier lugar del tablero, en una cuadrícula de 19×19 puntos. El objetivo del juego es rodear la mayor cantidad de territorio posible con las piedras del color del jugador.

Las reglas son muy sencillas: (1) Una piedra sin libertades (es decir, completamente rodeada por piedras del color opuesto) es capturada y removida del tablero. (2) No se pueden hacer jugadas que recreen la situación previa del tablero. Y (3) cuando un jugador pasa su turno dos veces seguidas, el juego termina. A pesar de esta simpleza (o tal vez como resultado de la misma), es un juego muy complejo. El número de posiciones legales en el tablero es mayor a 10170 , muchísimo más grande que en el ajedrez, y más grande que el número de átomos en el universo. Como resultado, los métodos para hacer que computadoras jueguen al Go calculando todas las jugadas posibles (como se hace con el juego de ajedrez) son inviables. Así, el juego de Go resulta un desafío más que interesante para la inteligencia artificial.

Hasta hace unos años, uno de los métodos preferidos para programar computadoras para jugar al Go era aplicar el método de Montecarlo para encontrar configuraciones del tablero que minimicen la energía (o el Hamiltoniano) de un modelo de Ising que tuviera alguna relación con las reglas del juego de Go y con las condiciones para ganar una partida. Por ejemplo, un posible Hamiltoniano es el siguiente, donde si es el color de las piedras en cada posición (+1 o -1 para blanco o negro), hi es el número de libertades de la piedra i-ésima (cuantos casilleros tiene libre alrededor), PV indica que la suma se hace sobre los primeros vecinos, y μ (>0) es una “energía” que premia las configuraciones en las que las piedras propias (+1) tienen libertades (es decir, no están rodeadas):

¡De pronto, el modelo de Ising y el método de Montecarlo encuentran aplicaciones muy lejos de la física de materiales magnéticos! Sin embargo, estos métodos resultan en programas de Go que juegan apenas tan bien como un jugador humano mediocre. Y cuando el problema de jugar bien al Go parecía inaccesible para las computadoras, Google presentó en 2016 una red neuronal profunda que le ganó a todos los grandes campeones humanos del juego.

Una red neuronal profunda es una red con muchas capas de neuronas artificiales: los datos ingresan (en la siguiente figura, por la izquierda), son multiplicados por coeficientes (llamados “pesos”) en cada conexión entre neuronas, y el resultado es procesado con alguna operación sencilla por cada neurona (que puede estar “activada” o “inactivada”). El procedimiento se repite en cada capa de neuronas, hasta que se obtiene un resultado final (por dar un ejemplo muy crudo y simplificado, ingresa el estado actual del tablero de Go y obtenemos como resultado la próxima jugada que conviene realizar):

Las redes neuronales son entrenadas con muchísimas jugadas, de forma tal de ajustar los pesos en cada una de las conexiones de las neuronas y obtener un resultado óptimo. Pero noten que la estructura de la red no es muy diferente a la de los sistemas magnéticos que estuvimos estudiando en el curso: tenemos nodos que interactúan con sus vecinos con algún coeficiente de acoplamiento, y su equilibrio corresponde al mínimo de alguna función (el error en la respuesta que obtenemos). La diferencia es que ahora esos coeficientes (los pesos) no están fijos, y pueden cambiar durante el entrenamiento.

En física ocurre algo similar en materiales magnéticos amorfos. La estructura de la red de spines en esos materiales puede ser muy compleja, y los spines pueden interactuar con otros spines muy lejanos (en la peor situación posible, pueden interactuar todos contra todos). Y los spines pueden tener coeficientes de acoplamiento diferentes para cada par, que en la siguiente figura se indican como Jij para el acomplamiento del par (i,j). La variante de los modelos de Ising que se usa para estudiar este tipo de sistemas es conocida como vidrios de spin:

Los vidrios de spin son formalmente equivalentes a un tipo particular de redes neuronales (llamadas redes de Hopfield), pero muchos de los resultados que se obtuvieron para vidrios de spin se trasladan a la teoría de redes neuronales en forma muy general. Al construir la mecánica estadística de estos sistemas, la dificultad radica en que no solo es necesario armar ensambles con copias de todos los alineamientos posibles de los spines, sino que también es necesario armar réplicas del sistema con diferentes acoplamientos Jij (ya que uno no sabe cuánto valdrán los pesos, o los acoplamientos). Parisi hizo contribuciones muy relevantes que permitieron atacar este problema, y entender propiedades generales de los estados de equilibrio.

Los vidrios de spin, dada su complejidad, no tienen un único equilibrio: tienen una variedad muy grande de equilibrios posibles, que corresponden a mínimos locales de su energía libre. Así, la mecánica estadística de los vidrios de spin también nos da información sobre a qué estados posibles puede decaer una red neuronal durante el proceso de aprendizaje, o nos permite saber que ciertas redes neuronales pueden guardar “recuerdos”, y calcular la máxima cantidad de información que puede almacenarse en esas redes en función de su estructura, del número de neuronas, y del número de conexiones entre las neuronas.

Los que quieran saber más sobre el premio Nobel de Física 2021 (que también tiene aplicaciones en el estudio del cambio climático) pueden ver este coloquio que di en el DF con Gabriel Mindlin.

Cómo aprendí a dejar de preocuparme


Now I am become Death,
the destroyer of worlds.”
Robert Oppenheimer (1904-1967).

La mecánica estadística, que nació a fines del siglo XIX y principios del siglo XX a partir de los trabajos de Boltzmann, Maxwell y Gibbs, tuvo un rol importante durante la Segunda Guerra Mundial. El proyecto Manhattan, que entre 1939 y 1946 reunió a varios de los científicos más brillantes de la época, usó frecuentemente sus herramientas e impulsó el desarrollo de métodos que ampliaron enormemente su área de aplicación. Los científicos que participaron del proyecto entendían lo que estaban haciendo. Albert Einstein y Leo Szilard instaron a Roosevelt, el presidente de los Estados Unidos, a construir una bomba atómica frente a la amenaza de que los alemanes la construyeran antes. Comprendían las consecuencias y más tarde sintieron remordimiento por los muertos que la bomba causó, o firmaron manifiestos alertando sobre los riesgos de la carrera armamentista. Pero aunque a veces la bondad o la maldad pueden relativizarse, en ciertas ocasiones las personas se encuentran frente a la maldad en estado puro, absoluta. Y frente a eso hasta el famoso pacifismo de Einstein pudo aceptar un hiato.

En las últimas clases comenzaron a aparecer métodos, y diversos nombres de científicos, que estuvieron relacionados con el proyecto Manhattan. Así que vamos a dedicar este posteo a algunos de ellos. El proyecto Manhattan tuvo como objetivo fabricar armas nucleares para los Estados Unidos durante la guerra. Jugó un rol central en el fin de la guerra del Pacífico, mostró lo que puede hacer la colaboración científica a gran escala, y generó desarrollos rápidos e importantes. Pero, como ya mencioné, aún hoy se sigue discutiendo la necesidad de bombardear Hiroshima y Nagasaki, o la carrera armamentista nuclear que siguió a continuación. Sobre esa época, y para reflexionar sobe esos temas, les aconsejo “Dr. Strangelove, or How I Learned to Stop Worrying and Love the Bomb” (1964), una película satírica de Stanley Kubrick que es un clásico del cine, y en la que el genial Peter Sellers tiene tres papeles (el presidente de los Estados Unidos, un capitán británico, y el científico nazi Dr. Strangelove).

En particular, en la última clase vimos el método de campo medio para el problema de Ising desarrollado por Hans Bethe. Bethe publicó este resultado en 1935, el año en que se mudó a los Estados Unidos (pueden ver el paper original aquí). Bethe trabajó en el proyecto Manhattan y luego en el desarrollo de la bomba de hidrógeno junto con Edward Teller y Stanislaw Ulam (yo tuve la suerte de conocer y hablar varias veces con Stirling Colgate, que trabajó con Teller y Bethe en ese proyecto; probablemente el apellido les resulte conocido de algún lado). Luego Bethe trabajó en la formación de elementos químicos por fusión nuclear en el interior de las estrellas, por el que ganó el premio Nobel en 1967. La mecánica estadística jugó roles importantes en estos trabajos. Pero su paper más famoso es un paper en el que no trabajó. En 1948, luego de la guerra, Ralph Alpher y George Gamow escribieron un trabajo sobre la formación de los primeros átomos en el universo. Gamow, al enterarse que el paper iba a salir publicado el 1 de abril (“April fools’ day“, el equivalente a nuestro día de los inocentes), agregó a Hans Bethe como segundo autor. Así, el paper de Alpher, Bethe y Gamow se volvió conocido como el paper α-β-γ (alfa, beta y gama). Más tarde, cuando Ralph Alpher trabajó con Robert Herman en el cálculo de la temperatura de la radiación cósmica de fondo, Gamow quiso convencer a Herman de que cambiara su apellido por “Delter”, para poder escribir un paper con autores Alpher, Bethe, Gamow y Delter (α-β-γ-δ). Herman se negó rotundamente.

El método de Montecarlo que se usa para resolver numéricamente el modelo de Ising también fue creado durante el proyecto Manhattan. Muchas veces se dice que Stanislaw Ulam inventó al método tal como lo conocemos hoy mientras trabajaba en el proyecto de la bomba atómica. Sin embargo, el método fue el resultado del trabajo conjunto de varias personas, que formaban parte de un grupo liderado por Nicholas Metropolis, y entre las que se encontraban Ulam, John von Neumann, Edward Teller, Augusta H. Teller, Marshall Rosenbluth y Arianna W. Rosenbluth. Casualmente los Teller (Edward y Augusta) se mudaron de su Hungría natal a Estados Unidos en 1935, antes de la segunda guerra mundial, por invitación de George Gamow (el del paper α-β-γ), mostrando como todo se conecta con todo.

Es muy probable que la idea original para el método de Montecarlo haya nacido de von Neumann y Ulam. Y que los Teller y los Rosenbluth (dos parejas de físicos) hicieran el grueso del trabajo, desarrollado las ideas e implementando el código numérico para poder probarlo en MANIAC I, una de las primeras computadoras de Los Alamos. En particular, hoy sabemos que el trabajo de Augusta Teller y de Arianna Rosenbluth fue central, aunque en aquella época no fue tan valorado. Augusta Teller escribió la primera versión del programa de Montecarlo para MANIAC I, mientras que Arianna Rosenbluth fue la encargada de escribir el programa definitivo (¡en código de máquina!) que fue usado para calcular, usando mecánica estadística, la difusión de neutrones en el material para la fisión nuclear, y más tarde (luego de terminada la guerra) para calcular los resultados sobre el algoritmo que se reportaron en los papers. Lamentablemente los prejuicios de la época, y el hecho de que ambas dejaran de ejercer su profesión para dedicarse a sus familias, hicieron que no recibieran el crédito merecido y que quedasen pocos documentos y fotos de ellas:

Luego de la guerra, Metropolis y Ulam publicaron el primer paper no clasificado explicando el método en detalle. Y más tarde Metropolis, Marshall y Arianna Rosenbluth, y Edward y Augusta Teller publicaron otro paper, famoso y que usualmente se considera la referencia para el algoritmo. Hoy el método de Montecarlo se usa para resolver en forma numérica una gran variedad de problemas en física y en ciencia de datos, y es central en el modelado de problemas de mecánica estadística.

Los que quieran leer más sobre Arianna W. Rosenbluth, y sobre el desarrollo del método de Montecarlo, pueden mirar estos links:

  • El obituario de Arianna Rosenbluth en The New York Times: tiene muchos detalles interesantes sobre su carrera, incluyendo el hecho de que Felix Bloch se negó a tomarla como estudiante doctoral porque él no trabajaba con estudiantes mujeres.
  • Un paper en Physics of Plasmas sobre la creación del método de Montecarlo tal como lo contó Marshall Rosenbluth en un congreso, en el que también destaca el rol de Arianna. El paper tiene una breve (pero clara) descripción del método.

Los que quieran leer más historias sobre el proyecto Manhattan pueden mirar también las memorias de Richard Feynman (¡este texto está muy recomendado, incluye lecciones sobre cómo abrir cajas fuertes!):

¡Eres un juguete!

El modelo de Ising es un modelo de juguete para el ferromagnetismo. Sin embargo, esto no significa que sea un modelo poco importante, o que solo tenga utilidad pedagógica. En cierto sentido, el modelo de Ising es el Buzz Lightyear de los modelos de juguete. El modelo, en su forma más sencilla y en dos dimensiones, consiste en un arreglo de espines (o dipolos magnéticos) que solo pueden tomar dos valores (+1 o -1). En ausencia de un campo magnético externo, los dipolos interactúan entre sí tratando de alinearse con sus vecinos más cercanos. A bajas temperaturas este arreglo de espines tiende a generar islas con la misma orientación, y si tenemos más espines con un signo que con el otro, entonces el material estará magnetizado. La transición entre el material no magnetizado y el material magnetizado, al bajar la temperatura, es una transición de fase similar (aunque no del mismo orden) a los cambios en los estados de agregación de la materia.

El desarrollo de la mecánica estadística entre fines del siglo XIX y principios del siglo XX, de la mano de Boltzmann y de Gibbs, permitió a los físicos comprender mejor varios sistemas y procesos (como el gas ideal, o los fenómenos de transporte), formalizar conceptos (como la noción de equilibrio, los microestados, el desorden, y la entropía), y estudiar fenómenos nuevos (como el condensado de Bose-Eistein, o la superfluidez y la superconductividad). Además, la mecánica estadística amplió el campo de aplicación de la física a otras áreas y a temas interdisciplinarios, como vimos en este post.

Sin embargo, aún en 1944 (más de 70 años después de la publicación de la ecuación de Boltzmann) no estaba claro si la mecánica estadística podría capturar y ayudar a comprender las transiciones de fase, como ocurren en la transición de agua líquida a vapor de agua, o en la magnetización espontánea de ciertos materiales (reales, no de juguete) al bajar su temperatura. Y aquí es donde el modelo de Ising, y Lars Onsager, abrieron las puertas a muchos desarrollos cruciales para la física en la segunda mitad del siglo XX. En 1944 Onsager encontró una solución exacta al modelo de Ising en dos dimensiones, calculando la función de partición del sistema, mostrando que podía sufrir una transición de fase y magnetizarse espontáneamente, y calculando la temperatura a la que ocurre la transición. La solución mostró por primera vez que las transiciones de fase aparecen como singularidades de las funciones termodinámicas del sistema, y convenció a los físicos de que la mecánica estadística podía ser usada para estudiar estos fenómenos. Fue tan relevante que al terminar la segunda guerra mundial, cuando varios físicos volvieron a la investigación básica, Hendrik Casimir le comentó en una carta a Wolfgang Pauli que estaba preocupado y dudaba de si podría volver a trabajar en física teórica luego de haber perdido contacto con el tema por tanto tiempo. Pauli (que era famoso por evaluar las teorías de sus colegas muy duramente) lo tranquilizó respondiendo que durante la guerra solo hubo un resultado que debía mirar: “No ha ocurrido mucho que sea de interés, excepto por la solución exacta de Onsager al modelo de Ising en dos dimensiones“.

Onsager es un personaje interesante. Muchos de sus resultados no fueron publicados en papers. La solución exacta al modelo de Ising apreció como una discusión de otro paper, su formula para la temperatura de la transición quedó en un pizarrón luego de un seminario que dió László Tisza, y la predicción de la cuantización de vórtices en un superfluido (luego redescubierta por Feynman) apareció en una paper resumiendo un seminario de otro investigador, en la sección de preguntas y respuestas del público.

Los que quieran jugar un poco con el modelo de Ising en 2D (antes de la práctica numérica), pueden mirar la siguiente página donde pueden simular el sistema con el método de Montecarlo, y variar la temperatura y el campo magnético externo. Para un campo externo igual a cero, prueben ver que pasa con la amplitud de las fluctuaciones en la magnetización si se acercan a la temperatura crítica (Tc ≈ 2.27) desde arriba (es decir, desde temperaturas altas):

Para terminar, no se pierdan el video en el que Onsager le explica a Ising que solo es un juguete:


Síndrome del fluido normal


“¡Todos pueden ser súper! ¡Y cuando todos sean súper, nadie lo será!” La película Los increíbles (2004) tiene a uno de los villanos más interesantes de las películas de superhéroes. Syndrome no busca dominar al mundo, no desea poder o dinero. Desea que todos sean iguales, y que los superhéroes dejen de ser especiales. ¿Eso es algo bueno, no? ¿Por qué Syndrome sería entonces un villano? Sin embargo, al ver la película, algo parece incorrecto (y casi perverso) en pedirle a Dash con sus 10 años que no participe en el equipo de atletismo de su escuela porque sería excepcional. La película, que a primera vista parece un simple pasatiempo, plantea una discusión interesante sobre la excepcionalidad, la igualdad, y el festejo de la mediocridad.

Los superfluidos son excepcionales. Y algunas de las cosas que hacen son realmente increíbles. Un superfluido es un fluido que fluye sin viscosidad, lo que les permite atravesar canales muy delgados o medios porosos (por los que un fluido viscoso no podría pasar), o trepar por las paredes del recipiente que los contiene. El fenómeno de superfluidez se debe a la formación, a temperaturas muy bajas, de un condensado de Bose-Einstein en el que una fracción de los átomos que formal el fluido (usualmente Helio-4) dejan de tener agitación térmica (sin embargo, la teoría de condensados que vimos en clase corresponde a gases débilmente interactuantes, mientras que el Helio-4 superfluido es un líquido, con una energía potencial de interacción entre sus átomos que no es despreciable). El fenómeno está relacionado también con el de superconductividad.

El siguiente video, muy corto (1:44 minutos) pero muy recomendable, muestra varias de las propiedades más llamativas de los superfluidos, como la capacidad de trepar por las paredes de un recipiente, o el “efecto fuente”:


Luego pueden ver un video mas reciente (en castellano) con experimentos de vórtices cuantizados en He-4 superfluido. Como vimos en clase, el hecho de que los bosones que forman el superfluido sean indistinguibles, hacen que los vórtices en el flujo no puedan rotar a cualquier velocidad, y que su circulación se cuantice. Las lineas blancas sobre fondo negro que se ven en los primeros 5 segundos del video son vórtices cuantizados observados en el laboratorio:


Para los que quieran leer mas sobre He-4 superfluido, les aconsejo leer el siguiente trabajo de Richard Feynman. Aunque es un poco antiguo y la interpretación actual de los rotones es diferente a la planteada en el artículo, muchas de las especulaciones que hace Feynman fueron mas tarde confirmadas en experimentos:

Este trabajo tiene una historia interesante atrás. Feynman presentó, antes de escribir el artículo, sus resultados en un congreso al que asistió Lars Onsager (que era famoso en el área). Feynman estaba bastante orgulloso de si mismo (por estos resultados, pero también se encontraba en ese estado la mayor parte del tiempo), y Onsager decidió darle una lección. La narración completa la pueden encontrar en “Surely You’re Joking, Mr. Feynman!“, pero en palabras de Feynman es más o menos así:

“Bueno, Feynman”, dijo Onsager con voz ronca, “escuché que crees que has entendido el helio líquido”.
“Bueno, sí…”
“Umm…” ¡Y eso fue todo lo que me dijo durante toda la cena! No fue muy estimulante.

Al día siguiente di mi charla, y expliqué todo sobre el helio líquido. Al final, mencioné que había algo que todavía no había logrado entender: si la transición entre una fase y la otra del helio líquido era de primer orden (como cuando un sólido se derrite o un líquido hierve, y la temperatura se mantiene constante) o de segundo orden (como ocurre en el magnetismo, donde la temperatura puede cambiar).

Entonces el profesor Onsager se levantó y dijo duramente: “Bueno, el profesor Feynman es nuevo en nuestra área, y creo que necesita ser educado. Hay algo que tiene que aprender y que debemos decirle”.
Pensé: “¡Oh no! ¿Qué hice mal?”
Onsager dijo: “Deberíamos decirle a Feynman que nadie ha podido obtener el orden de una transición a partir de primeros principios, por lo que el hecho de que su teoría no le permita calcular eso no significa que no haya entendido todo los otros aspectos del helio líquido satisfactoriamente”. Resultó ser un cumplido, pero por la forma en que comenzó, ¡pensé que me iba a dar una paliza!

Aunque Onsager probablemente nos daría una paliza, en nuestro grupo de investigación trabajamos (entre otros temas) en el estudio de flujos y turbulencia en superfluidos y en condensados de Bose-Einstein. En los dos primeros links pueden ver algunas imágenes y videos de simulaciones que hicimos de vórtices cuantizados. Para los mas curiosos (o valientes), en el tercer link les dejo un paper que publicamos hace unos años sobre viscosidad en superfluidos a temperatura finita; el paper usa muchas herramientas de la materia como el ensamble gran-canónico, el potencial químico, fonones y relaciones de dispersión, y teoría cinética y camino libre medio: