¡Eres un juguete!

El modelo de Ising es un modelo de juguete para el ferromagnetismo. Sin embargo, esto no significa que sea un modelo poco importante, o que solo tenga utilidad pedagógica. En cierto sentido, el modelo de Ising es el Buzz Lightyear de los modelos de juguete. El modelo, en su forma más sencilla y en dos dimensiones, consiste en un arreglo de espines (o dipolos magnéticos) que solo pueden tomar dos valores (+1 o -1). En ausencia de un campo magnético externo, los dipolos interactúan entre sí tratando de alinearse con sus vecinos más cercanos. A bajas temperaturas este arreglo de espines tiende a generar islas con la misma orientación, y si tenemos más espines con un signo que con el otro, entonces el material estará magnetizado. La transición entre el material no magnetizado y el material magnetizado, al bajar la temperatura, es una transición de fase similar (aunque no del mismo orden) a los cambios en los estados de agregación de la materia.

El desarrollo de la mecánica estadística entre fines del siglo XIX y principios del siglo XX, de la mano de Boltzmann y de Gibbs, permitió a los físicos comprender mejor varios sistemas y procesos (como el gas ideal, o los fenómenos de transporte), formalizar conceptos (como la noción de equilibrio, los microestados, el desorden, y la entropía), y estudiar fenómenos nuevos (como el condensado de Bose-Eistein, o la superfluidez y la superconductividad). Además, la mecánica estadística amplió el campo de aplicación de la física a otras áreas y a temas interdisciplinarios.

Sin embargo, aún en 1944 (más de 70 años después de la publicación de la ecuación de Boltzmann) no estaba claro si la mecánica estadística podría capturar y ayudar a comprender las transiciones de fase, como ocurren en la transición de agua líquida a vapor de agua, o en la magnetización espontánea de ciertos materiales (reales, no de juguete) al bajar su temperatura. Y aquí es donde el modelo de Ising, y Lars Onsager, abrieron las puertas a muchos desarrollos cruciales para la física en la segunda mitad del siglo XX. En 1944 Onsager encontró una solución exacta al modelo de Ising en dos dimensiones, calculando la función de partición del sistema, mostrando que podía sufrir una transición de fase y magnetizarse espontáneamente, y calculando la temperatura a la que ocurre la transición. La solución mostró por primera vez que las transiciones de fase aparecen como singularidades de las funciones termodinámicas del sistema, y convenció a los físicos de que la mecánica estadística podía ser usada para estudiar estos fenómenos. Fue tan relevante que al terminar la segunda guerra mundial, cuando varios físicos volvieron a la investigación básica, Hendrik Casimir le comentó en una carta a Wolfgang Pauli que estaba preocupado y dudaba de si podría volver a trabajar en física teórica luego de haber perdido contacto con el tema por tanto tiempo. Pauli (que era famoso por evaluar las teorías de sus colegas muy duramente) lo tranquilizó respondiendo que durante la guerra solo hubo un resultado que debía mirar: “No ha ocurrido mucho que sea de interés, excepto por la solución exacta de Onsager al modelo de Ising en dos dimensiones“.

Onsager es un personaje interesante. Muchos de sus resultados no fueron publicados en papers. La solución exacta al modelo de Ising apreció como una discusión de otro paper, su formula para la temperatura de la transición quedó en un pizarrón luego de un seminario que dió László Tisza, y la predicción de la cuantización de vórtices en un superfluido (luego redescubierta por Feynman) apareció en un paper resumiendo un seminario de otro investigador, en la sección de preguntas y respuestas del público.

Los que quieran jugar un poco con el modelo de Ising en 2D (antes de la práctica numérica), pueden mirar la siguiente página donde pueden simular el sistema con el método de Montecarlo, y variar la temperatura y el campo magnético externo. Para un campo externo igual a cero, prueben ver que pasa con la amplitud de las fluctuaciones en la magnetización si se acercan a la temperatura crítica (Tc ≈ 2.27) desde arriba (es decir, desde temperaturas altas):

Para terminar, no se pierdan el video en el que Onsager le explica a Ising que solo es un juguete:


La semana que viene

Esta semana tendremos varias horas de teórica, para recuperar clases de la semana pasada. El lunes solo tendremos teórica, en otra sesión maratónica pero gratificante. Para cerrar los temas de la primera mitad de la materia, y comenzar con la segunda mitad, este posteo va a tocar un tema que suscitó varias preguntas en el curso: ¿Podemos obtener la física macroscópica como un límite sistemático de la física microscópica, sin hacer aproximaciones, y en condiciones muy generales? La respuesta en general es que no, y para mostrar esto alcanza con dar un contraejemplo.

Hace unos años un grupo de científicos demostró que, para un problema físico particular, obtener ciertas propiedades macroscópicas a partir del conocimiento completo y preciso de las leyes microscópicas del sistema es indecidible. El problema particular que consideraron es el de calcular la diferencia de energía entre niveles de un semiconductor (el “gap espectral“, o la energía necesaria para mover un electrón del estado fundamental al estado excitado en un sistema con muchos electrones). El valor del gap espectral tiene un impacto en el comportamiento macroscópico del sistema: los semiconductores tienen un gap espectral y sus propiedades físicas dependen de este gap, mientras que si no existe un gap, el material sufre una transición a otro estado.

Lo que se demostró es que conociendo completamente la física microscópica del sistema cuántico, la pregunta “¿tiene el sistema un gap espectral?” es indecidible. Que este problema sea indecidible significa que es imposible construir un algoritmo general que siempre nos de la respuesta correcta. Esto no significa que la pregunta no pueda contestarse, o que no pueda calcularse el valor del gap. Lo que significa es que el cálculo de esta propiedad macroscópica (aún conociendo completamente la física miscroscópica del sistema) no puede hacerse usando un único algoritmo que valga en todos los casos. En otras palabras, puede existir un algoritmo que permita obtener la respuesta para un material particular, pero que para otro material el mismo método no sirva. O, como dicen los autores del trabajo, “no puede existir un método general que permita determinar si un material descripto por la mecánica cuántica tiene un gap espectral o no”. No hay atajos elegantes. No hay una lista de casos y un algoritmo que nos permita elegir qué método usar en cada caso. Hay que hacer física.

La demostración de indecibilidad se realizó mostrando que el problema es equivalente al problema de la parada de Turing. En 1936, Turing demostró que no es posible escribir un “programa” que ejecutado en una “computadora” (técnicamente, un algoritmo en una máquina de Turing) pueda decidir si otro algoritmo terminará de ejecutarse en un número finito de pasos o no. El teorema de Turing está relacionado con otros dos teoremas famosos de Gödel, que dicen (en su forma débil) que es imposible escribir en forma algorítmica un conjunto de reglas (o axiomas) para generar la aritmética que sea a la vez correcta y completa. Noten que si el sistema es incompleto, en algún momento encontraremos algún teorema válido que no podremos probar con los axiomas que tenemos. ¡Y si es incorrecto, en algún momento podremos probar que vale cierto teorema, y también que no vale ese mismo teorema!

Los que quieran saber más pueden leer un artículo sobre el problema del gap espectral en Phys.org, o el paper original publicado en la revista Nature:

Sin embargo, noten que este resultado no implica que no podamos armar teorías físicas fundamentales, que no se pueda conocer el Hamiltoniano que describe la física básica del problema, o que no se pueda conocer si el sistema tiene un gap o no. Lo que implica es que no alcanza con saber matemática y usarla como en una “receta”, y que siempre tendremos que hacer aproximaciones o consideraciones según la física de cada sistema.

El resultado sobre la indecibilidad del problema del gap espectral es parte de varios resultados recientes que identifican problemas indecidibles o no computables en diferentes áreas de la física (tanto clásica como cuántica), y parten de una pregunta hecha en 1994 por Roger Penrose en un libro hermoso pero también polémico, en el que Penrose se pregunta si existirán problemas de este tipo en sistemas físicos. Mas allá de los detalles técnicos, los resultados pueden ser muy perturbadores para los que esperaban que el curso de mecánica estadística les permita justificar, en forma sistemática, todo lo que no comprendemos de la física macroscópica a partir de fenómenos microscópicos (¡que probablemente tampoco comprendamos muy bien!).

En cierto sentido, esto tiene una relación con la visión de las jerarquías en la física de Feynman de un posteo anterior, donde Feynman decía que es un error pensar que uno puede partir de uno de los extremos (la física microscópica) y caminar solamente desde ese extremo hacia el otro (la física macroscópica), creyendo que de esa forma se alcanzará un entendimiento completo. En esta línea de pensamiento les aconsejo fuertemente leer también este genial artículo de 1972 de Philip Anderson:

En ese artículo el señor Anderson entre otras cosas dice lo siguiente:

The ability to reduce everything to simple fundamental laws does not imply the ability to start from those laws and reconstruct the universe [...] At each stage entirely new laws, concepts, and generalizations are necessary, requiring inspiration and creativity to just as great a degree as in the previous one.

La intuición física de Feynman y de Anderson (y de muchos otros físicos) se adelantó a estos resultados más recientes y más formales. Vale aclarar que este artículo de Anderson a veces es mal interpretado. Anderson no dice que los sistemas extensos sigan nuevas leyes fundamentales, o que nuevas fuerzas fundamentales aparezcan como resultado de considerar sistemas con nuevas partículas. Pero sí dice que conocer las leyes fundamentales no es suficiente para con ellas reconstruir el universo en forma sistemática, y que al considerar cada aumento en la escala del sistema, es necesario realizar nueva investigación en física básica, e introducir nuevos conceptos, nuevas ideas y nuevas generalizaciones. Cada capa de la cebolla requiere aproximaciones nuevas, ideas ingeniosas, y mucha creatividad.

¿Y por qué el Señor Anderson insiste con esto? ¿Por qué lo hace? Porque elige hacerlo:


Guardianes de la galaxia


Para cerrar los temas de la primera mitad de la materia, el posteo de hoy está dedicado a los cerebros de Boltzmann y su presencia ubicua en la cultura popular. Pueden leer este posteo mientras escuchan la banda de sonido de Guardianes de la Galaxia (ya se enterarán por qué es relevante en este tema).

El concepto de cerebros de Boltzmann se origina en un paper de Boltzmann de 1895 publicado en Nature, en el que Boltzmann defiende su teoría cinética de diversas críticas. Como vimos en clase y en un posteo previo, Boltzmann mostró que para un gas diluido una cantidad que llamó “H” (la entropía de Boltzmann) crece casi siempre hasta alcanzar un máximo. Esto llevó a que la gente se pregunte por qué el universo no se encuentra entonces en el estado más desordenado posible. La respuesta posible (y la primer respuesta que dió Boltzmann) es que el universo debe haber comenzado en un estado de muy baja entropía, y actualmente se encuentra evolucionando hacia un estado cada vez más desordenado y con mayor entropía. Pero la segunda respuesta posible (idea de un asistente de Boltzmann, el Dr. Schuetz) es la siguiente:

Supongamos que todo el universo está, y descansa para siempre, en equilibrio térmico. La probabilidad de que una (solo una) parte del universo se encuentre en un cierto estado, es menor cuanto más lejos esté este estado del equilibrio térmico. Pero esta probabilidad es mayor cuanto mayor es el universo. Si asumimos que el universo es lo suficientemente grande, podemos hacer que la probabilidad de que una parte relativamente pequeña del universo esté en cualquier estado (sin importar el estado de equilibrio) sea tan grande como queramos. También podemos aumentar la probabilidad de que, aunque todo el universo esté en equilibrio térmico, nuestro mundo esté en su estado actual.

Es decir, de la misma forma que la probabilidad de que todas las partículas de un gas en una habitación estén espontáneamente en una esquina de la habitación es muy baja pero no nula, también existe una probabilidad muy baja (pero no nula) de que en un estado de equilibrio térmico desordenado muy extenso, una fluctuación cree la Tierra con todos nosotros y tal como la vemos ahora. De la misma forma, una fluctuación también podría crear espontáneamente los libros de la Bibioteca de Babel de Borges, o los diálogos de una película de David Lynch.

Si una fluctuación (con muy baja probabilidad) podría hacer esto, ¿por qué no podemos imaginar otros microestados posibles? Como una forma de reducir al absurdo este segundo argumento de Boltzmann, se propuso entonces el concepto de los cerebros de Boltzmann: Una fluctuación podría generar espontáneamente un cerebro completo, flotando en el espacio, con todos sus falsos recuerdos de haber existido previamente. ¿Cómo sabemos que nosotros no somos cerebros de Boltzmann, y que actualmente no estamos decayendo hasta apagarnos en el baño térmico del universo?

El argumento en contra de esta idea fue desarrollado por Sir Arthur Eddington en 1931, y más tarde Richard Feynmann también lo consideró en sus Feynman Lectures. Feynman, luego de explicar que si fueramos una fluctuación del universo, al realizar mediciones en zonas que no observamos antes deberíamos ver un nivel de aleatoriedad diferente al que recordamos, concluye:

Por lo tanto, concluimos que el universo no es una fluctuación, y que el orden es un recuerdo de las condiciones cuando las cosas comenzaron. Esto no quiere decir que comprendamos la lógica de esto. Por alguna razón el universo tuvo una entropía muy baja inicialmente, y desde entonces la entropía ha aumentado. Así que ese es el camino hacia el futuro. Ese es el origen de toda irreversibilidad, eso es lo que hace que los procesos de crecimiento y decadencia, que nos hace recordar el pasado y no el futuro, nos recuerden las cosas que están más cerca de ese momento en la historia del universo cuando el orden era más alto que ahora, y por qué no podemos recordar cosas donde el desorden es más alto que ahora, al que llamamos el futuro.”

En años más recientes el concepto de cerebros de Boltzmann también se usó para reducir al absurdo algunas ideas en ciertas teorías cosmológicas. Y, extrañamente, apareció repetidas veces en la cultura popular. Como ejemplos, en Guardianes de la Galaxia vol. 2, Ego (el padre de Peter Quill, alias “Star-lord“) es un cerebro gigante en el espacio, creado al inicio de los tiempos:

Y en Futurama existe una raza de cerebros que flotan en el espacio, que fueron creados espontáneamente durante el Big Bang, y que tienen el poder de volver estúpida a la gente (excepto, obviamente, a los que ya son estúpidos):

La idea del asistente de Boltzmann, el Dr. Schuetz, hoy vuelve a tener interés en el estudio de sistemas estadísticos fuera del equilibrio: hoy sabemos que existen evoluciones posibles de estos sistemas en las que la entropía decrece (durante un tiempo acotado) en lugar de crecer. Pero también sabemos que la probabilidad de hallar al sistema evolucionando en esas condiciones es mucho menor que la probabilidad de que el sistema aumente su entropía. Y no solo eso, podemos calcular la probabilidad de que sucedan este tipo de eventos. Existen varias relaciones que permiten calcular la probabilidad de estos eventos; dos de ellas, que fueron verificadas experimentalmente en los últimos años y juegan un rol importante en el estudio de sistemas cuánticos abiertos, materia condensada, y otros sistemas fuera del equilibrio, son la igualdad de Jarzynski y el teorema de fluctuación de Crooks. Básicamente, estas relaciones nos dicen que la probabilidad de encontrar al sistema “desordenándose” en lugar “ordenándose” crece exponencialmente con el cambio de entropía (o de energía libre) en el sistema. Es decir, cuanto más cambie la entropía al evolucionar el sistema hacia el equilibrio, menos probable será encontrar al sistema evolucionando en la dirección contraria.

Instrucciones para cursar

“Las escaleras se suben de frente, pues hacia atrás o de costado resultan particularmente incómodas. La actitud natural consiste en mantenerse de pie, los brazos colgando sin esfuerzo, la cabeza erguida aunque no tanto que los ojos dejen de ver los peldaños inmediatamente superiores al que se pisa, y respirando lenta y regularmente. Para subir una escalera se comienza por levantar esa parte del cuerpo situada a la derecha abajo, envuelta casi siempre en cuero o gamuza, y que salvo excepciones cabe exactamente en el escalón. Puesta en el primer peldaño dicha parte, que para abreviar llamaremos pie, se recoge la parte equivalente de la izquierda (también llamada pie, pero que no ha de confundirse con el pie antes citado), y llevándola a la altura del pie, se le hace seguir hasta colocarla en el segundo peldaño, con lo cual en éste descansará el pie, y en el primero descansará el pie. (Los primeros peldaños son siempre los más difíciles, hasta adquirir la coordinación necesaria. La coincidencia de nombre entre el pie y el pie hace difícil la explicación. Cuídese especialmente de no levantar al mismo tiempo el pie y el pie).”

Julio Cortázar, “Instrucciones para subir una escalera” (1962)

El lunes 18 de marzo comienza el curso de Física Teórica 3 (mecánica estadística). En esta página encontrarán todo el material relacionado con la cursada. Pueden revisar el programa, la bibliografía, las guías de ejercicios, y de a poco agregaremos material adicional que esperamos les sea de utilidad.

Para motivarlos abajo encontrarán la playlist oficial de la materia. Cada canción está relacionada, de alguna u otra forma, con temas que veremos a lo largo del curso. Esperamos que empiecen el curso “dazed and confused“, ya que esta materia es difícil desde el punto de vista conceptual. Eventualmente esperamos que aprendan que “you can’t always get what you want” (pero no abandonen el curso, porque “but if you try sometime you find you get what you need!“). A lo largo del curso aprenderemos cómo hacer dinero, cómo apostar en juegos de azar (¡o evitar hacerlo!), sobre el hombre de las estrellas, y sobre modelos de juguete. Esperamos que al final lleguen todos vivos, y sientan que les llega el sol.

Si tienen problemas con la playlist, o al intentar reproducirla les dice que las canciones no están disponibles en su país, abran el link a la playlist en otra ventana del navegador o conéctense a su cuenta de Spotify.


Durante todo el curso haremos también uso extensivo de notebooks en Google Colaboratory (Colab). Porque no usar herramientas modernas como Python y Colab para aprender física en el siglo XXI, es como tratar de subir una escalera hacia atrás o de costado. Y las escaleras se suben de frente, todos los sabemos. Los primeros peldaños son los más difíciles, pero una vez que adquirimos la coordinación el aprendizaje se vuelve más sencillo. Con Python ocurre lo mismo. Suban de a un peldaño por vez, y van a aprender algo que va a ser de mucha ayuda para esta materia y para muchas otras.

Es muy fácil usar Colab en sus celulares, tabletas o laptops, así que tengan sus celulares a mano en el aula (y los links en la pestaña de notebooks en algún lugar fácimente accesible), de forma tal que cuando llegue el momento durante la clase, puedan mirar rápidamente algún gráfico. Y, más tarde en sus casas, pueden mirar esos notebooks con más detalle para entender cómo funcionan (cada notebook tiene un montón de comentarios y explicaciones sobre cómo hacer ciertas cosas en Python).

Este post tiene instrucciones que serán útiles durante toda la materia, así que les recomiendo que lo guarden. Voy a compartir los notebooks usando Google Drive y Colab (en la pestaña de notebooks), y pueden verlos allí. Pero también pueden bajarlos, copiarlos a su propio Drive, usarlos en su propio espacio de Google Colab, o usarlos localmente en sus computadoras si tienen instalado Python. Si todavía no tienen una cuenta de Google, creen una usando este link. Luego, solo necesitan un navegador de internet. El resto de las instrucciones para acceder al notebook son las siguientes (antes de seguir las instrucciones, asegúrense estar conectados a sus cuentas de Google en su navegador):

  1. El primer notebook que usaremos está disponible en este link. Hagan click en el link.
  2. El link los llevará automáticamente a un notebook en Colab. Colab puede avisarles que este notebook no fue creado por Google, pero pueden verlo y ejecutarlo de todas formas (¡prometo que no les voy a robar sus datos!).
  3. Pueden ejecutar cada una de las celdas apretando SHIFT+ENTER (en una computadora), o apretando (en una tablet o celular) el botón “Play” a la izquierda de cada celda. Para que todo funcione, deben ejecutar las celdas en orden.
  4. En los notebooks que comparta con ustedes de esta forma, no podrán guardar los cambios que hagan. Si quieren guardar los cambios, deben hacer una copia en su Drive. Esto se hace aprentando, en el menú que encontrarán arriba en Colab, “File (Archivos)“, y luego “Save a copy in Drive (Guardar una copia en Drive)“. Los cambios que hagan en esa copia quedarán para ustedes, y al hacer cambios no van a romper el notebook de otros estudiantes.

El notebook tiene más instrucciones sobre cómo ejecutarlo y explicaciones sobre lo que hace. No se preocupen si nunca usaron Python, SymPy, NumPy o Matplotlib, cada notebook tiene explicaciones. Y tengan en cuenta que con Colab no necesitan tener nada de esto instalado en sus computadoras o celulares, así que es muy fácil usarlo.