Reflexión final de la teórica


Terminaron las clases teóricas de la materia. Por la pandemia tuvimos, nuevamente, un cuatrimestre virtual. Varias herramientas que nos trajo la virtualidad quedarán en el futuro en el repertorio de herramientas para el aula. A otras, cuando llegue el momento, las dejaremos felizmente atrás. La virtualidad que nos impuso COVID-19 desde principios de 2020 tiene algunas ventajas, que todos apreciamos a lo largo de este tiempo: ahorramos horas de viaje, ustedes pueden ver las clases muchas veces, y podemos ilustrar los temas de las clases con simulaciones y material audiovisual. A esta altura también queda claro que la virtualidad genera cansancio, desgaste y pérdida de motivación. Pero, al menos desde mi punto de vista, también tiene otras dos desventajas importantes: se pierde la gestualidad del aula, y para los profesores es difícil saber cuándo ustedes entienden y cuándo no (o, mejor dicho, cuándo no estamos siendo claros en las explicaciones). Y, más importante aún, es que hay un conjunto importante de conocimientos que no forman parte explícita de los contenidos de las materias, pero que se aprenden informalmente, y que no pueden compartirse ni enseñarse en forma virtual.

Existe un conjunto de normas, una ética científica, que esperamos que aprendan a lo largo de la carrera. No hay una materia específica para esto, se aprende en los pasillos, en las conversaciones con compañeros y docentes, en indicaciones mínimas que se dan en el aula. Cuando cursaron Laboratorio 1, probablemente les dijeron que nunca debían falsificar o inventar un dato. Si rindieron finales presenciales, en algún final les habrá llamado la atención que los dejaron escribir sus notas solos: esperamos que sepan que en ciencia es inaceptable copiarse. En alguna materia les habrán dicho que es importante reconocer lo que uno no sabe, o los errores que uno comete. Y en esta materia, tan vasta en sus aplicaciones, uno de los contenidos no escritos es aprender los límites de lo que sabemos, las limitaciones de las aproximaciones, y cómo aplicarlas correctamente desde nuestro lugar como físicos. A lo largo de la materia vimos, en las clases o en la página web del curso, aplicaciones en economía, en biología y epidemias, meteorología, teoría de la información, cosmología, astrofísica, dinámica de fluidos, física de altas energías, y materia condensada. Es claro que las últimas aplicaciones pertenecen al área del conocimiento abarcada por la física. Las primeras no. Las herramientas de la materia sirven para estudiar (en forma parcial) a estos temas, y no está mal que los consideremos, y que tratemos de aprender cosas nuevas. ¿Pero significa eso que sabemos de esos temas? ¿O que podemos opinar como expertos?

En el último año la pandemia de COVID-19 puso a muchos científicos en una disyuntiva similar. Tal vez ustedes en el futuro se encuentren en una situación parecida trabajando en la academia. O se encuentren trabajando para una empresa que evalúa riesgo bursátil, o colaborando con colegas de otras áreas en grupos interdisciplinarios. La tentación de usar un conjunto de herramientas que sabemos que funcionan en muchísimos casos para opinar como expertos es grande. Pero la ciencia a lo largo de los siglos generó un conjunto de buenas prácticas que nos guían sobre cómo debemos comportarnos en esas situaciones. Y nos enseñan a defender con seguridad lo que sabemos, pero también a escuchar a los expertos de otros temas en sus áreas del conocimiento. Y sobre todo, a comunicar (tanto a nuestros colegas, como al público general) primero lo que no sabemos, para luego poder informar responsablemente lo que aprendimos.

Esto probablemente sea aún más importante para las generaciones futuras de científicos, como ustedes. Que vivamos en una sociedad moderna, con problemas complejos, y en los que la ciencia juega un rol central, no significa que la ciencia o los científicos deban ser los instauradores de la verdad. En una sociedad democrática el rol de la ciencia es (entre otros) el de presentar datos y asesorar a la sociedad en la toma de decisiones, pero no tomar decisiones por ella, ignorar la opinión de otros expertos, o ubicarse en una posición de privilegio. La lucha contra las noticias falsas no puede implicar acallar las opiniones, o negarlas solo con argumentos de autoridad. Y muchos menos puede autorizarnos a jugar con las mismas reglas que los que diseminan noticias falsas, y presentar datos parciales o editados con el fin de imponer una postura, por más convencidos de su validez que estemos. Esto no significa que ustedes no puedan o deban involucrarse en causas sociales, políticas, religiosas o culturales que los interpelen. Pero es importante aclarar desde qué lugar hablan en esos casos, y no mezclar sus deseos o creencias con el trabajo que puedan hacer o con la opinión que puedan dar como científicos.

Como resultado de esto, lo que más extraño del aula desde hace más de un año es el ejercicio de poder conversar con ustedes sobre todos estos contenidos extra-curriculares, que como dice Feynman en algún discurso, esperamos que aprendan “por osmosis”. Se que a algunos estudiantes esto les gusta, y a otros les molesta, pero creo que una parte importante del trabajo en el aula involucra justamente esto: enseñar, con las limitaciones que cada uno de los profesores tenemos, cómo se hace ciencia, cuáles son las buenas prácticas científicas, qué cosas no se hacen, qué cosas nos preguntamos, y cuales están fuera de nuestra área del conocimiento y son conversaciones de café. Esto incluye el manejo honesto de los datos, aceptar el error, aprender a no engañarnos a nosotros mismos, no exagerar la relevancia de nuestros resultados, ser cuidadosos en la comunicación de la ciencia, no usar argumentos de autoridad, y muchas otras prácticas que son centrales para sostener la credibilidad de la ciencia en general, y de nuestro trabajo en particular.

Como la modalidad virtual no permite hacer esto informalmente, elegí cerrar la materia planteando estos temas en este último mensaje. Y mucho mejor que cualquier cosa que yo pueda escribir sobre buenas prácticas científicas, es leer a Feynman. Así que les recomiendo fuertemente que lean el discurso sobre ciencias, pseudo-ciencias, y ética científica que Feynman dio a los graduados de Caltech en 1974:

Aunque todo su discurso no tiene desperdicio, solo voy a resaltar cuatro párrafos que me parecen relevantes, y que traduzco a continuación:

  • Esa es la idea que esperamos que hayan aprendido al estudiar ciencias: nunca les dijimos explícitamente cuál es, pero esperamos que lo hayan descubierto a partir de todos los ejemplos de investigación científica. Es interesante, por lo tanto, mencionarla ahora y hablar de esto explícitamente. Es un tipo de integridad científica, un principio de pensamiento científico que corresponde a un tipo de honestidad absoluta, y tomando distancia. Por ejemplo, si están haciendo un experimento, deben informar todo lo que creen que podría invalidarlo, no solo lo que creen que es correcto.
  • El primer principio es que no debes engañarte a ti mismo, y eres la persona más fácil de engañar. Así que debes tener mucho cuidado con esto. Después de que no te hayas engañado, es más fácil no engañar a otros científicos.
  • Me gustaría agregar algo que no es esencial para la ciencia, pero es algo que creo: no debes engañar a la persona común cuando hablas como científico. No estoy tratando de decirte que no engañes a tu esposa o a tu novia cuando no estás tratando de ser científico. Esos son problemas para ustedes y sus rabinos. Estoy hablando de un tipo específico de integridad adicional que consiste no solo en no mentir, sino en hacer el esfuerzo de tomar distancia para mostrar cómo tal vez estás equivocado, y que debes hacer cuando actúas como científico. Y esta es nuestra responsabilidad, ciertamente para con los otros científicos, y creo que también al hablar con la gente común.
  • Así que solo tengo un deseo para ustedes: que tengan la buena suerte de estar en un lugar donde sean libres de mantener el tipo de integridad que he descrito, y donde no se sientan forzados a perder la integridad para mantener su posición en una organización, o el apoyo financiero, u otras cosas. Ojalá tengan esa libertad.

Como dijo Ben Parker, “con grandes poderes vienen grandes responsabilidades” (y admitamos que saber contar microestados tampoco es un poder tan grande). No hagan daño, sean honestos, trabajen y esfuércense, colaboren, compartan con transparencia sus datos, no sean soberbios, no usen argumentos de autoridad ni se proclamen expertos, aclaren cuándo hablan como científicos y cuándo desde sus creencias, digan explícitamente cuáles son sus conflictos de interés al reportar resultados, y no se pongan a ustedes mismos en situaciones en las que tengan que faltar a la ética científica.

Si esta es la última Física Teórica que cursan, es probable que no nos volvamos a encontrar en un aula (al menos mientras sean estudiantes de grado). Les agradezco la paciencia en este cuatrimestre, y espero que hayan disfrutado la materia. Para mí, es la materia más linda de toda la carrera. Y a todo el resto, espero verlos nuevamente en algún aula. Mucha suerte en el parcial, y a todos los que aprueben los veré en el examen final. Cuídense, y no defrauden nunca a la vocación que los llevó a elegir una carrera científica.

La primera regla es…


La primera regla del Club de la Pelea es que no se habla sobre el Club de la Pelea. Dirigida por David Fincher (director de Mank, disponible en Netflix), la película de 1999 consigue construir el orden (y el desorden) a lo largo de 139 minutos partiendo de 8 simples reglas. ¿Podemos explicar el orden y el desorden de las transiciones de fase y los fenómenos críticos partiendo de unas pocas reglas?

En posteos anteriores vimos que el orden (o desorden) macroscópico de un sistema no se obtiene trivialmente partiendo de las reglas físicas microscópicas que describen al sistema. El orden macroscópico puede no ser computable, o en el mejor de los casos, “more is different” y requiere nuevos métodos y aproximaciones. Por eso cuando se consiguieron explicar los fenómenos críticos con una teoría física, fue claro que se estaba realizando un gran avance en el entendimiento de los sistemas físicos extensos. De hecho, la teoría de fenómenos críticos marcó buena parte de la física de los últimos 50 años. No tiene sentido hacer una competencia entre áreas que obtuvieron más premios Nobel, o considerar que la importancia de un área o de un resultado depende de si sus autores están listados entre los laureados con un premio (“¡Messi no ganó ningún mundial, es un pecho frío!“). Hacer esto ignoraría la cantidad de resultados cruciales para la física que fueron valorados mucho más tarde, o que permearon la física tan profundamente que los olvidamos (la física tal como la conocemos no existiría sin el cálculo infinitesimal, y sin embargo, Newton es conocido popularmente por la gravedad y la manzana).

Sin embargo, hacer el ejercicio inverso sí tiene algún sentido: mirar la lista de premios Nobel da información sobre algunos temas que marcaron épocas en la física (de la misma forma que mirar la lista de selecciones que ganaron mundiales da información sobre estilos de fútbol y jugadores que marcaron épocas). Y desde 1982 hasta la fecha, muchos premios Nobel tuvieron que ver con el desarrollo de la mecánica estadística, y con el estudio directo o indirecto de las transiciones de fase. Comencemos el repaso de estos premios con Wilson:

El uso del grupo de renormalización para comprender fenómenos críticos fue introducido en la segunda mitad del siglo 20 por Leo Kadanoff, Kenneth Wilson y Michael Fisher. Wilson ganó el premio Nobel en 1982 por su teoría de fenómenos críticos en conexión con transiciones de fase (Kadanoff bien podría ser el Messi de esta historia). Wilson falleció en junio de 2013, y en conmemoración de esa fecha la American Physical Society publicó en 2019 este breve artículo que resume varias de sus contribuciones:

Al final del artículo van a encontrar la referencia al paper original de Wilson de 1971 por el que ganó el premio. Los dos artículos de Wilson de 1971 sobre grupo de renormalización y su relación con fenómenos críticos están disponibles (con acceso abierto) en Physical Review B:

Desde 1982 a la fecha al menos en otras seis ocasiones se entregaron premios Nobel en temas relacionados con mecánica estadística y transiciones de fase. El más reciente, a David Thouless, Duncan Haldane, y Michael Kosterlitz (que estuvo conversando con estudiantes del DF hace unos años) se otorgó en 2016 por avances teóricos en el estudio de transiciones de fases topológicas de la materia. Las transiciones de fases topológicas involucran un cambio en el orden topológico del sistema: por debajo de una temperatura crítica los “defectos” (por ejemplo, vórtices cuantizados en un superfluido en dos dimensiones) se ordenan en pares (de vórtices con signos opuestos), mientras que por arriba de dicha temperatura se encuentran solitarios y libres. Los interesados en esta transición pueden leer la descripción técnica del premio Nobel, que usa herramientas de la materia (el modelo de Ising, el parámetro de orden, y la energía libre de Landau):

Yendo hacia atrás en el tiempo y solo llegando en la lista hasta 1982, el premio Nobel de 2003 se entregó a avances en la teoría de superconductores y superfluidos, el de 2001 a los experimentos que obtuvieron los primeros condensados de Bose-Einstein gaseosos en el laboratorio, el de 1996 a la transición de He-3 a la fase superfluida, el de 1991 a avances en el estudio de fases ordenadas en cristales líquidos y polímeros, y el de 1987 a la observación de superconductividad en materiales cerámicos. Los interesados en algunos de estos temas pueden mirar las páginas del premio Nobel, donde encontrarán más información.

¡Y no dejen de mirar las importantes indicaciones para el segundo parcial!

Abre tu ojo


Propuse varias soluciones; todas, insuficientes. Las discutimos; al fin, Stephen Albert me dijo:
- En una adivinanza cuyo tema es el ajedrez ¿cuál es la única palabra prohibida? Reflexioné un momento y repuse:
- La palabra ajedrez.
- Precisamente —dijo Albert—. El jardín de los senderos que se bifurcan es una enorme adivinanza, o parábola, cuyo tema es el tiempo; esa causa recóndita le prohíbe la mención de su nombre.

Jorge Luis Borges, El jardín de los senderos que se bifurcan (1941).

Si este post fuera una adivinanza, no podríamos mencionar la palabra “autosemejanza”. Vamos a hablar de fractales y de senderos que se bifurcan. Los fractales son objetos matemáticos que, por construcción, son invariantes de escala (es decir, se prescriben con un conjunto de reglas, usualmente recursivas, que generan una figura o un conjunto autosemejante). Es importante notar que el fenómeno de autosemejanza que se observa en los sistemas físicos cerca del punto crítico no se genera de esta forma, con pasos que se repiten infinitamente. Y en este sentido, los fractales no nos pueden brindar una explicación a la causa de la invariancia de escala. Sin embargo, como objetos matemáticos, pueden servir para estudiar propiedades generales de sistemas que son invariantes de escala, para generar datos sintéticos que tengan esta propiedad (como para generar terrenos o texturas que parezcan realistas en videojuegos), o para crear métodos para cuantificar la posible autosemejanza de un conjunto de datos.

Uno de los ejemplos más sencillos y conocidos está dado por el conjunto de Cantor. Se construye tomando el segmento [0,1], partiéndolo en 3, y removiendo el segmento del medio. Esto nos deja dos nuevos segmentos: [0,1/3] y [2/3,1]. La operación se repite en cada uno de los nuevos segmentos. La figura a continuación muestra el resultado de repetir este procedimiento diez veces (hagan click en la imagen para ver un zoom):

En términos coloquiales, un fractal es una figura construida con pequeñas partes que son similares a la figura completa, en cualquier escala en la que se observe. La construcción recursiva del fractal (que puede ser determinista, o tener componentes aleatorias) asegura que la figura resultante sea autosemejante. Y su “fractalidad” puede cuantificarse de diferentes formas; por ejemplo, calculando funciones de correlación y sus exponentes críticos. O calculando la dimensión fractal o la dimensión de Hausdorff, que están relacionadas con el exponente crítico de la función de correlación a dos puntos.

El término “fractal” fue introducido por Benoit Mandelbrot, que formalizó varias ideas previas de otros matemáticos (especialmente, durante el siglo XX, de Lewis Fry Richardson, que también hizo contribuciones importantes a la meteorología y a la turbulencia). Y fueron usados por Mandelbrot para, entre otras aplicaciones, calcular el perímetro de regiones costeras. Aunque la costa irregular de un país no es generada por una persona que repite reglas como en el conjunto de Cantor (pero en The hitchhiker’s guide to the galaxy pueden opinar distinto), calcular la dimensión fractal de la costa permite obtener buenas estimaciones de la longitud de curvas muy rugosas, y en ciento sentido, autosemejantes. Los que estén interesados en los detalles pueden leer el paper (lindo, clásico, y muy breve) de Mandelbrot sobre este tema:

De la misma forma que conocer la longitud de correlación en el modelo de Ising nos permite inferir propiedades del tamaño de los dominios magnéticos, estimar la dimensión fractal le permitió a Mandelbrot resolver una aparente paradoja al intentar calcular la longitud de curvas autosemejantes: al medir la longitud de una costa, cuando más detalle se tiene sobre su forma, más aumenta su longitud.

Los fractales también pueden generar imágenes visualmente interesantes, como el famoso conjunto de Mandelbrot:

Los que estén interesados en generar fractales con Python pueden ver los siguientes links con instrucciones paso a paso (recomiendo fuertemente el primero), y muchos ejemplos de códigos que pueden cortar y pegar en sus computadoras o en un Google Colab:

Como mencioné más arriba, los fractales pueden tener componentes aleatorias. Y aunque los fractales no brindan una explicación a la causa de la autosemejanza en ciertos sistemas naturales, pueden ser usados para caracterizarla. Además, cumplen teoremas muy interesantes que nos permiten descubrir relaciones sorprendentes entre procesos autosemejantes. Por ejemplo, los ceros de un camino al azar unidimensional de tiempo contínuo (es decir, cada vez que el caminante al azar vueve a pasar por su punto de origen) forman un conjunto fractal. Esto tiene que ver con otro teorema muy extraño que se aplica a un proceso llamado evolución de Schramm-Loewner: una curva al azar en dos dimensiones que sea invariante conforme (una forma más fuerte de la invariancia de escala, en la que la curva no es solo invariante frente a cambios de escala, sino también invariante frente a transformaciones que preserven los ángulos localmente) tiene una relación directa con un proceso de movimiento browniano en una dimensión. Este teorema puede usarse para calcular exponentes críticos en modelos de Ising y de percolación en dos dimensiones, a partir de propiedades del movimiento browniano unidimensional que vimos al principio del curso. ¡Todo se conecta con todo! De pronto, un tema de esta materia viajó al pasado y tuvo un hijo (¡en tu cara, famosa serie de Netflix!).

¡Se viene el Criticalpalooza!


Llegó el festival anual psicodélico de la autosemejanza en la física y en áreas afines. Tenemos entradas para ver ejemplos de fenómenos críticos en física de materiales, sistemas biológicos, fluidos, cosmología, y hasta en neurociencias. Los links de bandas que tocaron en un festival de nombre similar llevan a videos en YouTube. ¡Y para escuchar más música está la playlist oficial de la materia! Y ahora sí, autosemejanza:

Comencemos con el lineup. En el escenario principal, después de Guns N’ Roses, tenemos dos ejemplos de física de materiales y materia condensada. Ya conocemos las transiciones de fase asociadas a los cambios de estado de la materia (sólido, líquido y gaseoso). ¡Pero existen muchos más cambios de fase! Así que veamos el show de bandas menos conocidas (y con ejemplos recientes de publicaciones en física). Primero tenemos a los cristales líquidos. Los cristales líquidos están formados por moleculas anisótropas (generalmente alargadas, por ejemplo con forma de largos cilindros), por lo que se comportan con propiedades intermedias entre los líquidos y los sólidos de acuerdo a en que dirección del material se aplican los esfuerzos. Y tienen al menos dos fases: en la fase nemática (a mayor temperatura) las moléculas están más desordenadas, pero se alinean a lo largo de sus ejes principales. En cambio, en la fase esméctica (a menor temperatura) las moléculas se acomodan en capas más ordenadas, y dentro de cada capa las moléculas están inclinadas con el mismo ángulo. El cambio entre ambas fases es una transición de fase con propiedades críticas. Los interesados pueden mirar un paper reciente (Gim, Beller & Yoon, Nat. Commun. 8, 15453, 2017), donde encontrarán esta figura alucinante con cambios morfológicos del material durante la transición (para temperatura creciente, de izquierda a derecha):

También pueden mirar este paper (el preprint de acceso libre está disponible acá) en el que los autores demuestran la existencia de una fase nemática en un modelo de cristales líquidos formados por barras en una red bidimensional. Y los que quieran leer otro ejemplo de transiciones de fase en materiales, pueden mirar este artículo sobre transiciones sólido-sólido que ocurren por cambios en la forma de partículas coloidales.

Vayamos a otro escenario del Criticalpalooza, y mientras escuchamos The Flaming Lips, veamos ejemplos recientes de transiciones de fase y autosemejanza observados en sistemas biológicos. Ciertas células cambian sus patrones de movimiento de acuerdo a la densidad de células en su entorno. A baja densidad muestran un movimiento desordenado, mientras que a alta densidad muestran patrones de movimiento colectivo y ordenado. La transición entre ambos comportamientos ocurre como una transición de fase. Pueden ver un ejemplo en Szabó et al., Phys. Rev. E 74, 061908 (2006) (el preprint está diponible en este link). La siguiente figura, de ese paper, muestra los patrones de movilidad al aumental la densidad de las células (de izquierda a derecha). Noten el cambio en el orden del sistema:

Los que tengan interés por ver más aplicaciones en biofísica, pueden mirar también un paper sobre fenómenos críticos en membranas lípidas (¡donde estiman exponentes críticos!).

En el mismo escenario donde toca Metallica tenemos una variedad de fenómenos autosemejantes que se observan en fluidos. El más conocido es el fenómeno de la turbulencia, que es heavy metal. Los fluidos más viscosos (donde la viscosidad se mide con un número adimensional, el número de Reynolds) fluyen en forma ordenada y laminar. Pero al aumentar el número de Reynolds (y reducirse la importancia de la viscosidad), generan flujos muy desordenados que tienen propiedades de invariancia de escala. En la siguiente figura, noten como zooms sucesivos en el flujo parecen repetir los patrones (algo similar a lo que vimos en el modelo de Ising en 2D):

Esta es una transición extraña, porque los flujos turbulentos tienen propiedades de criticalidad y autosemejanza, pero son un sistema fuera del equilibrio. Pueden ver más imágenes de flujos turbulentos aquí. Y pueden ver un ejemplo de una transición de fase en turbulencia en un condensado de Bose-Einstein en este paper.

Los que tengan interés por cosmología pueden ir al escenario donde tocan Empire of the SunLee Smolin, y leer este artículo donde se discuten diversos problemas (como la formación de galaxias espirales, la estructura de gran escala del universo, o el universo temprano) desde el punto de vista de fenómenos críticos. Bastante más difícil de leer, pero que sirve como ilustración, es este paper donde se estudia una transición de fase al compactificar una dimensión en teorías de gravedad (compactificar es “enrollar” una dimensión sobre si misma, y hacer tender ese “rollo” a cero). Y en cosmología, algunas teorías predicen que otra transición de fase podría haber ocurrido en el universo temprano, cuando se formaron los primeros átomos. Luego de ese momento el universo se volvió transparente, pero antes de ese instante el universo puede haber sido opalescente en forma crítica (como la mezcla de un líquido y un gas cuando llega a la temperatura crítica y dejan de existir las diferencias entre ambas fases, como se ve en la foto del centro en esta imágen de una mezcla de etano líquido y gaseoso tomada de Wikipedia):

Para cerrar el festival, este Criticalpalooza no tendrá a The Strokes, pero tiene ejemplos de fenómenos críticos en el cerebro (¿lo entendieron?). Las funciones cognitivas involucran procesos que van desde las neuronas individuales hasta regiones grandes del cerebro, y en los últimos años se encontró evidencia creciente de que el cerebro funciona en el borde entre el orden y el desorden, con propiedades de fenómenos críticos. Los interesados en ver ejemplos de criticalidad y autosemejanza en el cerebro pueden mirar este paper o este paper. La siguiente imagen, tomada de Cochi et al., Progress in Neurobiology 158, 132 (2017) (el primero de los dos papers) es bastante sugerente:

Don’t panic!


Antes de comenzar con el último tema de la materia, y aprovechando el fin de semana largo, hagamos una pausa para discutir un tema muy poco serio, pero que no podía quedar afuera de Física Teórica 3: el propulsor de improbabilidad infinita. Así que tomen sus toallas y prepárense para un viaje por la galaxia (luego de este viaje, y para prepararse para la próxima teórica, vean este posteo de Guillem sobre fluidos supercríticos, porque con esto comenzaremos la clase del miércoles).

El propulsor de improbabilidad infinita forma parte de The Hitchhiker’s Guide to the Galaxy, una serie de novelas humorísticas de ciencia ficción, radionovelas, programas de TV, y películas escritas por Douglas Adams. La novela narra (con ligeros cambios en los otros medios) las aventuras de un humano (Arthur Dent) acompañado por dos extraterrestres (Ford Prefect y Zaphod Beeblebrox) luego que la Tierra es destruida. Deben tener en cuenta que la primer radionovela fue emitida por la BBC en 1978, cuando todavía estaba activo Monty Python, por lo que esta no es una típica historia de ciencia ficción. Entre otras nociones memorables, The Hitchhiker’s Guide to the Galaxy nos dijo que la respuesta a la pregunta final sobre la vida, el universo y todo lo demás es “42″ (¡prueben escribir “What is the answer to the ultimate question of life the universe and everything?” en Google!).

El tema que nos convoca es el poco probable uso de las probabilidades que hace esta saga. En The Hitchhiker’s, los personajes viajan en una nave espacial que cruza el universo (violando todas las leyes de la física) gracias al propulsor de improbabilidad infinita. El propulsor se presenta como un método nuevo y maravilloso para cruzar distancias interestelares en forma instantánea, sin “tediosas tonterías en el hiperespacio”. Fue descubierto por casualidad, y su funcionamiento se basa en aumentar la improbabilidad de ciertos sucesos hasta alcanzar valores infinitos. La fuente de aleatoriedad del propulsor es un productor de movimiento browniano (es decir, una taza de té caliente). Una vez encendido, la nave pasa por cada punto concebible de cada universo concebible, simultáneamente. Como resultado del viaje, también pueden ocurrir otras cosas altamente improbables.

Esto es solo un breve resumen de cinco libros en los que nada tiene sentido. Pero hagamos el ejercicio de tratar de tomar seriamente a este propulsor. ¿Qué es la improbabilidad? Si P(x) es la probabilidad de que un evento x ocurra, podríamos asociar la improbabilidad de un evento a la probabilidad de que el suceso no ocurra. Cuando comenzó la materia, vimos que esta probabilidad está dada por:

Esto sería peligrosísimo. Si una máquina convirtiera P en I localmente, le asignaría probabilidad 1 a todas las cosas que no pueden ocurrir. Es genial; podríamos aparecer en otros lugares, pero hay muchas otras cosas malas que podrían pasar. Imaginen si tuviéramos diez crisis como la de COVID-19 en simultáneo.

En realidad la situación es peor, y esta definición no es correcta. La improbabilidad I(x) está acotada entre 0 y 1. Pero Douglas Adams nos dice claramente en The Hitchhiker’s que la improbabilidad puede ser infinita (en caso contrario, la máquina se llamaría el propulsor de improbabilidad unitaria, algo que de todas formas hubiera sido más correcto). Así que en el contexto de la novela puede ser más correcto definir I(x) como:

Esto tiene una serie de problemas aún más grandes. Pero Douglas Adams parece comprender algunos. Cada vez que los personajes usan el propulsor, los efectos secundarios incluyen cambios temporarios (y a veces permanentes) en el medio ambiente, en la estructura morfológica de los personajes, alucinaciones, y la aparición espontánea de ballenas en medio del espacio. Así que si no tenían nada para leer en estos días, pueden mirar el primer libro de esta saga.

¿Matan las pulgas a sus pulgas con matapulgas?


¿Matan las pulgas a sus pulgas con matapulgas? Y ¿sueñan los androides con ovejas eléctricas? Tanto el título de la novela de Philip K. Dick (que inspiró a la película Blade Runner), como un famoso poema de Jonathan Swift, exploran la idea de la repetición en diferentes grados o escalas. En la novela de Philip Dick los humanos crean a los androides, y los androides sueñan como los humanos pero con ovejas eléctricas. En el poema de Swift, las pulgas tiene pulgas más pequeñas que se alimentan de ellas, que a su vez también tienen sus pulgas:

So, naturalists observe, a flea
has smaller fleas that on him prey;
and these have smaller still to bite ‘em,
and so proceed ad infinitum.

Jonathan Swift, On poetry: A rhapsody (1733).

Maurits Escher exploró una idea similar en su xilografía Más y más pequeño (1956), en la que un patrón de reptiles se repite hasta alcanzar tamaños infinitamente pequeños y números infinitamente grandes:

Sorprendentemente, cerca de la temperatura crítica (Tc) en la cual se pierde la magnetización permanente, el modelo de Ising en dos dimensiones presenta estructuras similares, que se repiten en diferentes escalas. En la última clase comenzamos a vislumbrar este comportamiento en algunas de las simulaciones. Comencemos por ver un video que muestra un barrido del sistema en función de la temperatura, en el entorno cercano a la temperatura crítica:


La barra de colores de la derecha muestra la temperatura (normalizada por la temperatura crítica). Al principio del video (T > Tc) el sistema no tiene magnetización permanente. En la mitad del video (T ≈ Tc, cerca del minuto 0:50) se observan islas magnéticas de tamaños muy diferentes y con bordes rugosos. Y finalmente, hacia el final del video (T < Tc) se observan islas muy grandes, con el tamaño característico del dominio, y con bordes más suaves.

Cerca de la temperatura crítica, la presencia de islas de diferentes tamaños vuelve al sistema invariante de escala, como las pulgas del poema de Jonathan Swift, o como los reptiles en la xilografía de Maurits Escher (aunque en el caso del modelo de Ising, los patrones están más desordenados). Esto está muy bien ilustrado en el siguiente video, que muestra un estado del modelo de Ising con 1,7×1010 nodos, cerca de Tc. Al principio el video muestra lo que parecen ser cuatro realizaciones independientes del modelo de Ising, pero en realidad son partes más chicas de la simulación completa:


Cómo aprendí a dejar de preocuparme


La mecánica estadística, que nació a fines del siglo XIX y principios del siglo XX a partir de los trabajos de Boltzmann, Maxwell y Gibbs, tuvo un rol importante durante la Segunda Guerra Mundial. El proyecto Manhattan, que entre 1939 y 1946 reunió a varios de los científicos más brillantes de la época, usó frecuentemente sus herramientas e impulsó el desarrollo de métodos que ampliaron enormemente su área de aplicación. En las últimas clases comenzaron a aparecer métodos, y diversos nombres de científicos, que estuvieron relacionados con el proyecto Manhattan. Así que vamos a dedicar este post a algunos de ellos. El proyecto Manhattan tuvo como objetivo fabricar armas nucleares para los Estados Unidos durante la guerra. Jugó un rol central en el fin de la guerra del Pacífico, mostró lo que puede hacer la colaboración científica a gran escala, y generó desarrollos rápidos e importantes. Pero aún hoy se sigue discutiendo la necesidad de bombardear Hiroshima y Nagasaki, o la carrera armamentista nuclear que siguió a continuación. Sobre esa época, y para reflexionar sobe esos temas, les aconsejo “Dr. Strangelove, or How I Learned to Stop Worrying and Love the Bomb” (1964), una película satírica de Stanley Kubrick en la que el genial Peter Sellers tiene tres papeles (el presidente de los Estados Unidos, un capitán británico, y el científico nazi Dr. Strangelove).

En la última clase vimos el método de campo medio para el problema de Ising desarrollado por Hans Bethe. Bethe publicó este resultado en 1935, el año en que se mudó a los Estados Unidos (pueden ver el paper original aquí). Bethe trabajó en el proyecto Manhattan y luego en el desarrollo de la bomba de hidrógeno junto con Edward Teller y Stanislaw Ulam (yo tuve la suerte de conocer y hablar varias veces con Stirling Colgate, que trabajó con Teller y Bethe en este proyecto; probablemente el apellido les resulte de conocido de algún lado). Luego Bethe trabajó en la formación de elementos químicos por fusión nuclear en el interior de las estrellas, por el que ganó el premio Nobel en 1967. La mecánica estadística jugó roles importantes en estos trabajos. Pero su paper más famoso es un paper en el que no trabajó. En 1948, luego de la guerra, Ralph Alpher y George Gamow escribieron un trabajo sobre la formación de los primeros átomos en el universo. Gamow, al enterarse que el paper iba a salir publicado el 1 de abril (“April fools’ day“, el equivalente a nuestro día de los inocentes), agregó a Hans Bethe como segundo autor. Así, el paper de Alpher, Bethe y Gamow se volvió conocido como el paper α-β-γ (alfa, beta y gama). Más tarde, cuando Ralph Alpher trabajó con Robert Herman en el cálculo de la temperatura de la radiación cósmica de fondo, Gamow quiso convencer a Herman de que cambiara su apellido por “Delter”, para poder escribir un paper con autores Alpher, Bethe, Gamow y Delter (α-β-γ-δ). Herman se negó rotundamente.

El método de Montecarlo que se usa para resolver numéricamente el modelo de Ising también fue creado durante el proyecto Manhattan. Muchas veces se dice que Stanislaw Ulam inventó al método tal como lo conocemos hoy mientras trabajaba en el proyecto de la bomba atómica. Sin embargo, el método fue el resultado del trabajo conjunto de varias personas, que formaban parte de un grupo liderado por Nicholas Metropolis, y entre las que se encontraban Ulam, John von Neumann, Edward Teller, Augusta H. Teller, Marshall Rosenbluth y Arianna W. Rosenbluth. Casualmente los Teller (Edward y Augusta) se mudaron de su Hungría natal a Estados Unidos en 1935, antes de la segunda guerra mundial, por invitación de George Gamow (el del paper α-β-γ), mostrando cómo todo se conecta con todo.

Es muy probable que la idea original para el método de Montecarlo haya nacido de von Neumann y Ulam. Y que los Teller y los Rosenbluth (dos parejas de físicos) hicieran el grueso del trabajo, desarrollado las ideas e implementando el código numérico para poder probarlo en MANIAC I, una de las primeras computadoras de Los Alamos. En particular, hoy sabemos que el trabajo de Augusta Teller y de Arianna Rosenbluth fue central, aunque en aquella época no fue tan valorado. Augusta Teller escribió la primera versión del programa de Montecarlo para MANIAC I, mientras que Arianna Rosenbluth fue la encargada de escribir el programa definitivo (¡en código de máquina!) que fue usado para calcular, usando mecánica estadística, la difusión de neutrones en el material para la fisión nuclear, y más tarde (luego de terminada la guerra) para calcular los resultados sobre el algoritmo que se reportaron en los papers. Lamentablemente los prejuicios de la época, y el hecho de que ambas dejaran de ejercer su profesión para dedicarse a sus familias, hicieron que no recibieran el crédito merecido y que quedasen pocos documentos y fotos de ellas:

Luego de la guerra, Metropolis y Ulam publicaron el primer paper no clasificado explicando el método en detalle. Y más tarde Metropolis, Marshall y Arianna Rosenbluth, y Edward y Augusta Teller publicaron otro paper, famoso y que usualmente se considera la referencia para el algoritmo. Hoy el método de Montecarlo se usa para resolver en forma numérica una gran variedad de problemas en física y en ciencia de datos, y es central en el modelado de problemas de mecánica estadística.

Los que quieran leer más sobre Arianna W. Rosenbluth, y sobre el desarrollo del método de Montecarlo, pueden mirar estos links:

  • El obituario de Arianna Rosenbluth en The New York Times: tiene muchos detalles interesantes sobre su carrera, incluyendo el hecho de que Felix Bloch se negó a tomarla como estudiante doctoral porque él no trabajaba con estudiantes mujeres.
  • Un paper en Physics of Plasmas sobre la creación del método de Montecarlo tal como lo contó Marshall Rosenbluth en un congreso, en el que también destaca el rol de Arianna. El paper tiene una breve (pero clara) descripción del método.

Los que quieran leer más historias sobre el proyecto Manhattan pueden mirar también las memorias de Richard Feynman (¡incluyen lecciones sobre como abrir cajas fuertes!):

Y no dejen de mirar este importante posteo de la práctica sobre la guía computacional (¡justamente, usando el método de Montecarlo!). La próxima práctica estará dedicada a este tema, y tienen hasta el 9/7 para entregar la guía. ¡Y recuerden que antes del 20 de junio tienen que completar la encuesta!

¡Eres un juguete!

El modelo de Ising es un modelo de juguete para el ferromagnetismo. Sin embargo, esto no significa que sea un modelo poco importante, o que solo tenga utilidad pedagógica. En cierto sentido, el modelo de Ising es el Buzz Lightyear de los modelos de juguete. El modelo, en su forma más sencilla y en dos dimensiones, consiste en un arreglo de espines (o dipolos magnéticos) que solo pueden tomar dos valores (+1 o -1). En ausencia de un campo magnético externo, los dipolos interactúan entre sí tratando de alinearse con sus vecinos más cercanos. A bajas temperaturas este arreglo de espines tiende a generar islas con la misma orientación, y si tenemos más espines con un signo que con el otro, entonces el material estará magnetizado. La transición entre el material no magnetizado y el material magnetizado, al bajar la temperatura, es una transición de fase similar (aunque no del mismo orden) a los cambios en los estados de agregación de la materia.

El desarrollo de la mecánica estadística entre fines del siglo XIX y principios del siglo XX, de la mano de Boltzmann y de Gibbs, permitió a los físicos comprender mejor varios sistemas y procesos (como el gas ideal, o los fenómenos de transporte), formalizar conceptos (como la noción de equilibrio, los microestados, el desorden, y la entropía), y estudiar fenómenos nuevos (como el condensado de Bose-Eistein, o la superfluidez y la superconductividad). Además, la mecánica estadística amplió el campo de aplicación de la física a otras áreas y a temas interdisciplinarios, como vimos en este post.

Sin embargo, aún en 1944 (más de 70 años después de la publicación de la ecuación de Boltzmann) no estaba claro si la mecánica estadística podría capturar y ayudar a comprender las transiciones de fase, como ocurren en la transición de agua líquida a vapor de agua, o en la magnetización espontánea de ciertos materiales (reales, no de juguete) al bajar su temperatura. Y aquí es donde el modelo de Ising, y Lars Onsager, abrieron las puertas a muchos desarrollos cruciales para la física en la segunda mitad del siglo XX. En 1944 Onsager encontró una solución exacta al modelo de Ising en dos dimensiones, calculando la función de partición del sistema, mostrando que podía sufrir una transición de fase y magnetizarse espontáneamente, y calculando la temperatura a la que ocurre la transición. La solución mostró por primera vez que las transiciones de fase aparecen como singularidades de las funciones termodinámicas del sistema, y convenció a los físicos de que la mecánica estadística podía ser usada para estudiar estos fenómenos. Fue tan relevante que al terminar la segunda guerra mundial, cuando varios físicos volvieron a la investigación básica, Hendrik Casimir le comentó en una carta a Wolfgang Pauli que estaba preocupado y dudaba de si podría volver a trabajar en física teórica luego de haber perdido contacto con el tema por tanto tiempo. Pauli (que era famoso por evaluar las teorías de sus colegas muy duramente) lo tranquilizó respondiendo que durante la guerra solo hubo un resultado que debía mirar: “No ha ocurrido mucho que sea de interés, excepto por la solución exacta de Onsager al modelo de Ising en dos dimensiones“.

Onsager es un personaje interesante. Muchos de sus resultados no fueron publicados en papers. La solución exacta al modelo de Ising apreció como una discusión de otro paper, su formula para la temperatura de la transición quedó en un pizarrón luego de un seminario que dió László Tisza, y la predicción de la cuantización de vórtices en un superfluido (luego redescubierta por Feynman) apareció en una paper resumiendo un seminario de otro investigador, en la sección de preguntas y respuestas del público.

Los que quieran jugar un poco con el modelo de Ising en 2D (antes de la práctica numérica), pueden mirar la siguiente página donde pueden simular el sistema con el método de Montecarlo, y variar la temperatura y el campo magnético externo. Para un campo externo igual a cero, prueben ver que pasa con la amplitud de las fluctuaciones en la magnetización si se acercan a la temperatura crítica (Tc ≈ 2.27) desde arriba (es decir, desde temperaturas altas):

Para terminar, no se pierdan el video en el que Onsager le explica a Ising que solo es un juguete:


Síndrome del fluido normal


“¡Todos pueden ser súper! ¡Y cuando todos sean súper, nadie lo será!” La película Los increíbles (2004) tiene a uno de los villanos más interesantes de las películas de superhéroes. Syndrome no busca dominar al mundo, no desea poder o dinero. Desea que todos sean iguales, y que los superhéroes dejen de ser especiales. ¿Eso es algo bueno, no? ¿Por qué Syndrome sería entonces un villano? Sin embargo, al ver la película, algo parece incorrecto (y casi perverso) en pedirle a Dash con sus 10 años que no participe en el equipo de atletismo de su escuela porque sería excepcional. La película, que a primera vista parece un simple pasatiempo, plantea una discusión interesante sobre la excepcionalidad, la igualdad, y el festejo de la mediocridad.

Los superfluidos son excepcionales. Y algunas de las cosas que hacen son realmente increíbles. Un superfluido es un fluido que fluye sin viscosidad, lo que les permite atravesar canales muy delgados o medios porosos (por los que un fluido viscoso no podría pasar), o trepar por las paredes del recipiente que los contiene. El fenómeno de superfluidez se debe a la formación, a temperaturas muy bajas, de un condensado de Bose-Einstein en el que una fracción de los átomos que formal el fluido (usualmente Helio-4) dejan de tener agitación térmica (sin embargo, la teoría de condensados que vimos en clase corresponde a gases débilmente interactuantes, mientras que el Helio-4 superfluido es un líquido, con una energía potencial de interacción entre sus átomos que no es despreciable). El fenómeno está relacionado también con el de superconductividad.

El siguiente video, muy corto (1:44 minutos) pero muy recomendable, muestra varias de las propiedades más llamativas de los superfluidos, como la capacidad de trepar por las paredes de un recipiente, o el “efecto fuente”:


Luego pueden ver un video mas reciente (en castellano) con experimentos de vórtices cuantizados en He-4 superfluido. Como vimos en clase, el hecho de que los bosones que forman el superfluido sean indistinguibles, hacen que los vórtices en el flujo no puedan rotar a cualquier velocidad, y que su circulación se cuantice. Las lineas blancas sobre fondo negro que se ven en los primeros 5 segundos del video son vórtices cuantizados observados en el laboratorio:


Para los que quieran leer mas sobre He-4 superfluido, les aconsejo leer el siguiente trabajo de Richard Feynman. Aunque es un poco antiguo y la interpretación actual de los rotones es diferente a la planteada en el artículo, muchas de las especulaciones que hace Feynman fueron mas tarde confirmadas en experimentos:

Este trabajo tiene una historia interesante atrás. Feynman presentó previamente sus resultados en un congreso al que asistió Lars Onsager (que era famoso en el área). Feynman estaba bastante orgulloso de si mismo (por estos resultados, pero también se encontraba en ese estado la mayor parte del tiempo), y Onsager decidió darle una lección. La narración completa la pueden encontrar en “Surely You’re Joking, Mr. Feynman!“, pero en palabras de Feynman es más o menos así:

“Bueno, Feynman”, dijo Onsager con voz ronca, “escuché que crees que has entendido el helio líquido”.
“Bueno, sí…”
“Umm…” ¡Y eso fue todo lo que me dijo durante toda la cena! No fue muy estimulante.

Al día siguiente di mi charla, y expliqué todo sobre el helio líquido. Al final, mencioné que había algo que todavía no había logrado entender: si la transición entre una fase y la otra del helio líquido era de primer orden (como cuando un sólido se derrite o un líquido hierve, y la temperatura se mantiene constante) o de segundo orden (como ocurre en el magnetismo, donde la temperatura puede cambiar).

Entonces el profesor Onsager se levantó y dijo duramente: “Bueno, el profesor Feynman es nuevo en nuestra área, y creo que necesita ser educado. Hay algo que tiene que aprender y que debemos decirle”.
Pensé: “¡Oh no! ¿Qué hice mal?”
Onsager dijo: “Deberíamos decirle a Feynman que nadie ha podido obtener el orden de una transición a partir de primeros principios, por lo que el hecho de que su teoría no le permita calcular eso no significa que no haya entendido todo los otros aspectos del helio líquido satisfactoriamente”. Resultó ser un cumplido, pero por la forma en que comenzó, ¡pensé que me iba a dar una paliza!

Aunque Onsager probablemente nos daría una paliza, en nuestro grupo de investigación trabajamos (entre otros temas) en el estudio de flujos y turbulencia en superfluidos y en condensados de Bose-Einstein. En los dos primeros links pueden ver algunas imágenes y videos de simulaciones que hicimos de vórtices cuantizados. Para los mas curiosos (o valientes), en el tercer link les dejo un paper que publicamos hace unos años sobre viscosidad en superfluidos a temperatura finita; el paper usa muchas herramientas de la materia como el ensamble gran-canónico, el potencial químico, fonones y relaciones de dispersión, y teoría cinética y camino libre medio:

Condensados de Bose-Einstein asesinos


En la película Spectral (disponible en Netflix, y no recomendada por esta materia), unos condensados de Bose-Einstein toman vida y congelan a las personas hasta la muerte. Por suerte, gracias al poder de la ciencia, pueden ser atrapados por materiales cerámicos y por el hierro, y por una pistola de pulsos que destruye al condensado (Yeah, science!). En el laboratorio hay pocas chances de que un condensado de Bose-Einstein cobre vida (pero por las dudas, no se acerquen al Laboratorio de Iones y Átomos Fríos del DF). Así que en este post vamos a ver qué es y cómo se ve un condensado en la realidad.

¿Qué es un condensado de Bose-Einstein? Comencemos por recordar que en la naturaleza toda la materia que conocemos se separa en dos tipos: fermiónica y bosónica. Los fermiones (como los electrones) satisfacen el principio de exclusión de Pauli: no podemos encontrar dos electrones en el mismo estado. Todos quieren ser diferentes. Los bosones (como los átomos de helio) tienen el comportamiento social contrario: no les molesta ser todos iguales, y estar todos juntos. Los fermiones escuchan jazz, los bosones son rolingas. Entonces, un gas de bosones (como los átomos de helio), muy frío, no se comporta como un gas clásico (es decir, como un montón de partículas separadas). Se comporta como si fuera una única partícula cuántica muy gorda, que puede tener tamaños que podemos observar a simple vista, pero que está descripta por una única función de onda. La noción de “átomos” como pelotitas independientes se borra. Y se borra en escalas macroscópicas: tenemos una bola de gas que actúa como un único objeto cuántico.

A continuación les dejo algunos videos sobre condensados de Bose-Einstein. Como los videos son largos, para aquellos que tienen síndrome de déficit de atención les digo también a qué instante pueden saltear para ver algunas cosas interesantes. Como mencioné en la última clase, recién en 1995 se realizaron los primeros experimentos de condensados de Bose-Einstein en gases diluídos de átomos ultrafríos, en los que la interacción entre los átomos es débil:


El video muestra un experimento con un gas de átomos de sodio. La descripción del experimento ocurre entre el minuto 0:46 hasta 2:50. A partir del minuto 3:10 hasta 3:50 pueden ver mediciones de la temperatura en el gas, y la formación del condensado de Bose-Einstein.

Los que tengan un poco mas de paciencia pueden ver la charla completa de Eric Cornell cuando recibió, junto con Carl Wieman y Wolfgang Ketterle, el premio Nobel por conseguir el primer condensado de Bose-Einstein gaseoso en el laboratorio:

El video dura 39 minutos. Los que quieran pueden saltear la introducción e ir al minuto 5:23 hasta 7:03, donde Cornell explica el rol que juega la longitud de onda de de Broglie en la transición de fase (algo que vimos en las últimas clases). A partir del minuto 28:49, Cornell muestra imagenes de vórtices cuantizados en el condensado, un tema que veremos en la próxima clase. En el próximo post, videos de superfluidos escapándose espontáneamente de sus recipientes (¡seguro hay una película de ciencia ficción que se aprovecha de este fenómeno!).

Pero antes de despedirnos, recuerden que el espacio es la frontera final. El año pasado la NASA consiguió generar un condensado de Bose-Einstein en el espacio (más precisamente, en la estación espacial internacional).


¿Para qué hicieron esto? Para poder realizar mediciones, en los experimentos se debe “soltar” al condensado: se apaga el potencial armónico que lo mantiene atrapado, y se deja que el gas se expanda libremente. En la Tierra, la gravedad hace que al liberar el condensado llegue un instante en el que esa nube de gas degenerado se separe en sus átomos originales, diferentes y con sus propias funciones de onda (es decir, los rolingas recuperan sus personalidades individuales, y luego del recital, vuelven a sus trabajos de oficina). La gravedad también pone un límite a cuán grande puede ser el condensado original, porque la gravedad hace eso: intenta tirar a las partículas para abajo. Como dice la canción de Charly García, la gravedad “te tira para atrás, te pide más y más, y llega a un punto en que no querés“. En este caso, el que no quiere más es el condensado. Pero sin gravedad (o en realidad, en la constante caída libre de la estación espacial internacional), se pueden armar condensados de Bose-Einstein más grandes, y medir por más tiempo mientras el gas se expande, manteniendo la bola de rolingas impersonales.